Notice: This is a Juremy.com rendered version. Only European Union documents published in the Official Journal of the European Union are deemed authentic. Juremy accepts no responsibility or liability whatsoever with regard to the content of this document.
Base data © European Union, 1998-2024. Postprocessed and marked-up data © 2019-2024 Juremy.com, all rights reserved.
Render version: 0.1, render date: 2024-07-24
Den Europæiske Unions
Tidende
DA
Úřední věstník
Evropské unie
CS
L-udgaven
Řada L
2024/1689
12.7.2024
2024/1689
12.7.2024
EUROPA-PARLAMENTETS OG RÅDETS FORORDNING (EU) 2024/1689
NAŘÍZENÍ EVROPSKÉHO PARLAMENTU A RADY (EU) 2024/1689
af 13. juni 2024
ze dne 13. června 2024,
om harmoniserede regler for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797 og (EU) 2020/1828 (forordningen om kunstig intelligens)
kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění nařízení (ES) č. 300/2008, (EU) č. 167/2013, (EU) č. 168/2013, (EU) 2018/858, (EU) 2018/1139 a (EU) 2019/2144 a směrnice 2014/90/EU, (EU) 2016/797 a (EU) 2020/1828 (akt o umělé inteligenci)
(EØS-relevant tekst)
(Text s významem pro EHP)
EUROPA-PARLAMENTET OG RÅDET FOR DEN EUROPÆISKE UNION HAR —
EVROPSKÝ PARLAMENT A RADA EVROPSKÉ UNIE,
under henvisning til traktaten om Den Europæiske Unions funktionsmåde, særlig artikel 16 og 114,
s ohledem na Smlouvu o fungování Evropské unie, a zejména na články 16 a 114 této smlouvy,
under henvisning til forslag fra Europa-Kommissionen,
s ohledem na návrh Evropské komise,
efter fremsendelse af udkast til lovgivningsmæssig retsakt til de nationale parlamenter,
po postoupení návrhu legislativního aktu vnitrostátním parlamentům,
under henvisning til udtalelse fra Det Europæiske Økonomiske og Sociale Udvalg (1),
s ohledem na stanovisko Evropského hospodářského a sociálního výboru (1),
under henvisning til udtalelse fra Den Europæiske Centralbank (2),
s ohledem na stanovisko Evropské centrální banky (2),
under henvisning til udtalelse fra Regionsudvalget (3),
s ohledem na stanovisko Výboru regionů (3),
efter den almindelige lovgivningsprocedure (4), og
v souladu s řádným legislativním postupem (4),
ud fra følgende betragtninger:
vzhledem k těmto důvodům:
(1)
Formålet med denne forordning er at forbedre det indre markeds funktion ved at fastlægge ensartede retlige rammer, navnlig for udvikling, omsætning, ibrugtagning og anvendelse af kunstig intelligens-systemer (»AI-systemer«) i Unionen i overensstemmelse med Unionens værdier, at fremme udbredelsen af menneskecentreret og troværdig kunstig intelligens (»AI«), samtidig med at der sikres et højt beskyttelsesniveau for sundhed, sikkerhed og grundlæggende rettigheder som nedfældet i Den Europæiske Unions charter om grundlæggende rettigheder (»chartret«), herunder demokrati, retsstatsprincippet og miljøbeskyttelse, at beskytte mod skadelige virkninger af AI-systemer i Unionen og at støtte innovation. Denne forordning sikrer fri bevægelighed for AI-baserede varer og tjenesteydelser og forhindrer således medlemsstaterne i at indføre restriktioner for udvikling, markedsføring og anvendelse af AI-systemer, medmindre det udtrykkeligt er tilladt i henhold til denne forordning.
(1)
Účelem tohoto nařízení je zlepšit fungování vnitřního trhu stanovením jednotného právního rámce, zejména pro vývoj, uvádění na trh, uvádění do provozu a používání systémů umělé inteligence (dále jen „systémy AI“) v Unii v souladu s hodnotami Unie, podporovat zavádění důvěryhodné umělé inteligence (dále jen „AI“) zaměřené na člověka a zároveň zajistit vysokou úroveň ochrany zdraví, bezpečnosti a základních práv zakotvených v Listině základních práv Evropské unie (dále jen „Listina“), včetně demokracie, právního státu a ochrany životního prostředí, chránit před škodlivými účinky systémů AI v Unii, jakož i podporovat inovace. Toto nařízení zajišťuje volný přeshraniční pohyb zboží a služeb založených na AI, čímž brání členským státům ukládat omezení vývoje, uvádění na trh a používání systémů AI, pokud to není tímto nařízením výslovně povoleno.
(2)
Denne forordning bør anvendes i overensstemmelse med Unionens værdier som nedfældet i chartret, der letter beskyttelsen af fysiske personer, virksomheder, demokrati, retsstatsprincippet og miljøbeskyttelse, samtidig med at innovation og beskæftigelse fremmes, og Unionen gøres førende inden for udbredelsen af troværdig AI.
(2)
Toto nařízení by mělo být uplatňováno v souladu s hodnotami Unie zakotvenými v Listině, usnadňovat ochranu fyzických osob, podniků, demokracie, právního státu a životního prostředí a zároveň podporovat inovace a zaměstnanost a zajistit Unii vedoucí postavení při zavádění důvěryhodné AI.
(3)
AI-systemer kan nemt idriftsættes i en lang række sektorer af økonomien og i mange dele af samfundet, herunder på tværs af grænserne, og kan nemt udspredes i hele Unionen. Visse medlemsstater har allerede undersøgt, om det er muligt at vedtage nationale regler til sikring af, at AI er troværdig og sikker, og at den udvikles og anvendes i overensstemmelse med forpligtelserne vedrørende grundlæggende rettigheder. Forskellige nationale regler kan føre til fragmenteringen af det indre marked og kan mindske retssikkerheden for operatører, der udvikler, importerer eller anvender AI-systemer. Der bør derfor sikres et ensartet og højt beskyttelsesniveau i hele Unionen med henblik på at opnå troværdig AI, samtidig med at forskelle, der hæmmer den frie bevægelighed for samt innovation, idriftsættelse og udbredelse af AI-systemer og relaterede produkter og tjenesteydelser på det indre marked, bør forhindres ved at fastsætte ensartede forpligtelser for operatører og sikre en ensartet beskyttelse af tvingende hensyn til samfundsinteresser og personers rettigheder i hele det indre marked på grundlag af artikel 114 i traktaten om Den Europæiske Unions funktionsmåde (TEUF). For så vidt som denne forordning indeholder specifikke regler om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger vedrørende begrænsninger i anvendelsen af AI-systemer til biometrisk fjernidentifikation med henblik på retshåndhævelse, i anvendelsen af AI-systemer til risikovurderinger af fysiske personer med henblik på retshåndhævelse og i anvendelsen af AI-systemer til biometrisk kategorisering med henblik på retshåndhævelse, er det desuden hensigtsmæssigt at basere denne forordning på artikel 16 i TEUF for så vidt angår disse specifikke regler. I lyset af disse specifikke regler og anvendelsen af artikel 16 i TEUF bør Det Europæiske Databeskyttelsesråd høres.
(3)
Systémy AI mohou být snadno zaváděny v celé řadě hospodářských odvětví a složek společnosti, a to i napříč hranicemi, a mohou být snadno v oběhu v celé Unii. Některé členské státy již zkoumají možnost přijetí vnitrostátních pravidel, která by zajišťovala, že AI bude důvěryhodná a bezpečná a že bude vyvíjena a používána v souladu s povinnostmi v oblasti základních práv. Rozdílné vnitrostátní předpisy mohou vést k roztříštěnosti vnitřního trhu a mohou snížit právní jistotu pro provozovatele, kteří systémy AI vyvíjejí, dovážejí nebo používají. Proto je třeba zajistit jednotnou a vysokou úroveň ochrany v celé Unii s cílem dosáhnout důvěryhodnosti AI a zároveň zabránit rozdílům, které jsou překážkou volného oběhu, inovací, zavádění a využívání systémů AI a souvisejících produktů a služeb na vnitřním trhu, a stanovit za tímto účelem jednotné povinnosti provozovatelů a zaručit jednotnou ochranu naléhavých důvodů obecného zájmu a práv osob na celém vnitřním trhu na základě článku 114 Smlouvy o fungování Evropské unie (dále jen „Smlouva o fungování EU“). V rozsahu, v němž toto nařízení obsahuje zvláštní pravidla ochrany fyzických osob v souvislosti se zpracováním osobních údajů, která se týkají omezení, pokud jde o používání systémů AI pro biometrickou identifikaci na dálku pro účely vymáhání práva, používání systémů AI k posouzení rizik fyzických osob pro účely vymáhání práva a používání systémů AI pro biometrickou kategorizaci pro účely vymáhání práva, je vhodné, aby se toto nařízení ve vztahu k těmto zvláštním pravidlům zakládalo na článku 16 Smlouvy o fungování EU. S ohledem na tato zvláštní pravidla a na použití článku 16 Smlouvy o fungování EU je vhodné provést konzultace s Evropským sborem pro ochranu osobních údajů.
(4)
AI er en vifte af teknologier i hurtig udvikling, som bidrager til brede økonomiske, miljømæssige og samfundsmæssige fordele på tværs af hele spektret af industrier og sociale aktiviteter. Ved at forbedre forudsigelser, optimere operationer og ressourceallokering og skræddersy de digitale løsninger, der er tilgængelige for enkeltpersoner og organisationer, kan anvendelsen af AI give virksomheder vigtige konkurrencemæssige fordele og fremme socialt og miljømæssigt gavnlige resultater, f.eks. inden for sundhedspleje, landbrug, fødevaresikkerhed, uddannelse, medier, sport, kultur, infrastrukturforvaltning, energi, transport og logistik, offentlige tjenester, sikkerhed, retsvæsen, ressource- og energieffektivitet, miljøovervågning, bevarelse og genopretning af biodiversitet og økosystemer samt modvirkning af og tilpasning til klimaændringer.
(4)
AI je rychle se vyvíjející skupina technologií, které se podílejí na široké škále hospodářských, environmentálních a společenských přínosů v celém spektru průmyslových odvětví a sociálních aktivit. Díky zlepšení predikcí, optimalizaci provozu, přidělování zdrojů a personalizaci digitálních řešení dostupných pro jednotlivce a organizace může používání AI poskytnout podnikům klíčové konkurenční výhody a podpořit sociálně a environmentálně prospěšné výsledky, například v oblasti zdravotnictví, zemědělství, bezpečnosti potravin, vzdělávání a odborné přípravy, sdělovacích prostředků, sportu, kultury, správy infrastruktury, energetiky, dopravy a logistiky, veřejných služeb, bezpečnosti, spravedlnosti, účinného využívání zdrojů a energetické účinnosti, monitorování životního prostředí, ochrany a obnovy biologické rozmanitosti a ekosystémů a zmírňování změny klimatu a přizpůsobování se této změně.
(5)
Samtidig kan AI, afhængigt af omstændighederne med hensyn til dens specifikke anvendelse, brug og teknologiske udviklingsniveau, skabe risici og skade samfundsinteresser og grundlæggende rettigheder, der er beskyttet af EU-retten. En sådan skade kan være af materiel eller immateriel karakter, herunder fysisk, psykisk, samfundsmæssig eller økonomisk.
(5)
AI může zároveň v závislosti na okolnostech týkajících se jejího konkrétního uplatňování, používání a úrovně technologického rozvoje vytvářet rizika a působit újmu veřejným zájmům a základním právům, které jsou chráněny právem Unie. Tato újma může být hmotná nebo nehmotná, včetně újmy fyzické, psychické, společenské nebo ekonomické.
(6)
I betragtning af den store indvirkning, som AI kan have på samfundet, og behovet for at opbygge tillid er det afgørende, at AI og de lovgivningsmæssige rammer herfor udvikles i overensstemmelse med Unionens værdier, der er nedfældet i artikel 2 i traktaten om Den Europæiske Union (TEU), og de grundlæggende rettigheder og friheder, der er nedfældet i traktaterne og, i henhold til artikel 6 i TEU, chartret. Det bør være en forudsætning, at AI er en menneskecentreret teknologi. Det bør tjene som et redskab for mennesker med det endelige mål at øge menneskers trivsel.
(6)
Vzhledem k velkému dopadu, který může mít AI na společnost, a jelikož je třeba budovat důvěru, je nezbytné, aby AI i její regulační rámec byly rozvíjeny v souladu s hodnotami Unie zakotvenými v článku 2 Smlouvy o Evropské unii (dále jen „Smlouva o EU“), základními právy a svobodami zakotvenými ve Smlouvách a v souladu s článkem 6 Smlouvy o EU v Listině. Základním předpokladem je, aby byla AI technologií zaměřenou na člověka. Měla by být nástrojem pro lidi, jehož konečným cílem je zvýšit kvalitu života lidí.
(7)
For at sikre et ensartet højt beskyttelsesniveau for samfundsinteresser med hensyn til sundhed, sikkerhed og grundlæggende rettigheder bør der fastsættes fælles regler for højrisiko-AI-systemer. Disse regler bør være i overensstemmelse med chartret, være ikkeforskelsbehandlende og i overensstemmelse med Unionens internationale handelsforpligtelser. De bør også tage hensyn til den europæiske erklæring om digitale rettigheder og principper for det digitale årti og de etiske retningslinjer for troværdig AI fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens (AI-ekspertgruppen).
(7)
V zájmu zajištění jednotné a vysoké úrovně ochrany veřejných zájmů, pokud jde o zdraví, bezpečnost a základní práva, by měla být pro vysoce rizikové systémy AI stanovena společná pravidla. Tato pravidla by měla být v souladu s Listinou, nediskriminační a v souladu se závazky Unie v oblasti mezinárodního obchodu. Měla by rovněž zohlednit evropské prohlášení o digitálních právech a zásadách pro digitální dekádu a Etické pokyny pro zajištění důvěryhodnosti UI vydané Expertní skupinou na vysoké úrovni pro umělou inteligenci (AI HLEG).
(8)
Der er derfor behov for en EU-retlig ramme, der fastsætter harmoniserede regler for AI, for at fremme udviklingen, brugen og udbredelsen af AI på det indre marked, som samtidig opfylder et højt beskyttelsesniveau for samfundsinteresser såsom sundhed og sikkerhed og beskyttelse af grundlæggende rettigheder, herunder demokrati, retsstatsprincippet og miljøbeskyttelse, som anerkendt og beskyttet i EU-retten. For at nå dette mål bør der fastsættes regler for omsætning, ibrugtagning og anvendelse af visse AI-systemer for at sikre et velfungerende indre marked og lade disse systemer drage fordel af princippet om fri bevægelighed for varer og tjenesteydelser. Disse regler bør være klare og robuste med hensyn til at beskytte de grundlæggende rettigheder, støtte nye innovative løsninger og muliggøre et europæisk økosystem af offentlige og private aktører, der skaber AI-systemer i overensstemmelse med Unionens værdier og frigør potentialet ved den digitale omstilling i alle regioner i Unionen. Med fastsættelsen af disse regler samt foranstaltninger til støtte for innovation med et særligt fokus på små og mellemstore virksomheder (SMV'er), herunder iværksættervirksomheder, støtter denne forordning målet om at fremme en europæisk menneskecentreret tilgang til AI og om at være førende på verdensplan inden for udvikling af sikker, troværdig og etisk AI som anført af Det Europæiske Råd (5), og den sikrer beskyttelse af etiske principper, således som Europa-Parlamentet specifikt har anmodet om (6).
(8)
Je proto nezbytné zavést právní rámec Unie, kterým se stanoví harmonizovaná pravidla pro AI, s cílem podpořit vývoj, používání a zavádění AI na vnitřním trhu, který by zároveň splňoval vysokou úroveň ochrany veřejných zájmů, jako je například zdraví a bezpečnost a ochrana základních práv, včetně demokracie, právního státu a ochrany životního prostředí, která jsou uznávána a chráněna právem Unie. K dosažení tohoto cíle by měla být stanovena pravidla, která budou regulovat uvádění určitých systémů AI na trh a do provozu, jakož i jejich používání, a tím zajišťovat bezproblémové fungování vnitřního trhu a umožňovat, aby tyto systémy měly prospěch ze zásady volného pohybu zboží a služeb. Uvedená pravidla by měla být jasná a spolehlivá, pokud jde o ochranu základních práv, měla by podporovat nová inovativní řešení a umožňovat evropský ekosystém veřejných a soukromých subjektů vytvářejících systémy AI v souladu s hodnotami Unie, jakož i využívat potenciál digitální transformace ve všech regionech Unie. Stanovením těchto pravidel, jakož i opatření na podporu inovací se zvláštním zaměřením na malé a střední podniky, včetně podniků začínajících, podporuje toto nařízení cíl, kterým je prosazování evropského přístupu k AI zaměřeného na člověka a čelná pozice Unie v celosvětovém kontextu, pokud jde o rozvoj bezpečné, důvěryhodné a etické AI, jak stanovila Evropská rada (5), a zajišťuje ochranu etických zásad, jak výslovně požadoval Evropský parlament (6).
(9)
Der bør fastsættes harmoniserede regler for omsætning, ibrugtagning og anvendelse af højrisiko-AI-systemer i overensstemmelse med Europa-Parlamentets og Rådets forordning (EF) nr. 765/2008 (7), Europa-Parlamentets og Rådets afgørelse nr. 768/2008/EF (8) og Europa-Parlamentets og Rådets forordning (EU) 2019/1020 (9) (den nye lovgivningsmæssige ramme for markedsføring af produkter). De harmoniserede regler, der er fastsat i nærværende forordning, bør finde anvendelse på tværs af sektorer og bør i overensstemmelse med den nye lovgivningsmæssige ramme ikke berøre gældende EU-ret, navnlig om databeskyttelse, forbrugerbeskyttelse, grundlæggende rettigheder, beskæftigelse og beskyttelse af arbejdstagere og produktsikkerhed, som nærværende forordning supplerer. Som følge heraf forbliver alle rettigheder og retsmidler, som er fastsat i en sådan EU-ret for forbrugere og andre personer, som AI-systemer kan have en negativ indvirkning på, herunder for så vidt angår erstatning for eventuelle skader i henhold til Rådets direktiv 85/374/EØF (10), uberørte og finder fuldt ud anvendelse. Endvidere bør denne forordning i forbindelse med beskæftigelse og beskyttelse af arbejdstagere derfor ikke berøre EU-retten om socialpolitik og national arbejdsret, der overholder EU-retten, vedrørende ansættelsesvilkår og arbejdsforhold, herunder sundhed og sikkerhed på arbejdspladsen, og forholdet mellem arbejdsgivere og arbejdstagere. Denne forordning bør heller ikke påvirke udøvelsen af de grundlæggende rettigheder, der anerkendes i medlemsstaterne og på EU-plan, herunder retten eller friheden til at strejke eller til at foretage andre tiltag, der er omfattet af specifikke ordninger for arbejdsmarkedsrelationer i medlemsstaterne, samt retten til at forhandle, indgå og håndhæve kollektive overenskomster eller retten til at foretage kollektive tiltag i overensstemmelse med national ret. Denne forordning bør ikke berøre de bestemmelser, der tilstræber at forbedre arbejdsvilkårene for platformsarbejde, der er fastsat i et direktiv vedtaget af Europa-Parlamentets og Rådets direktiv om forbedring af arbejdsvilkårene for platformsarbejde. Derudover har denne forordning til formål at styrke effektiviteten af sådanne eksisterende rettigheder og retsmidler ved at fastsætte specifikke krav og forpligtelser, herunder med hensyn til AI-systemers gennemsigtighed, tekniske dokumentation og registrering. Desuden bør de forpligtelser, der pålægges forskellige operatører, der er involveret i AI-værdikæden i henhold til denne forordning, finde anvendelse, uden at det berører national ret, der overholder EU-retten, hvorved anvendelsen af visse AI-systemer begrænses, hvis sådan national ret falder uden for denne forordnings anvendelsesområde eller forfølger andre legitime mål af samfundsmæssig interesse end dem, der forfølges med denne forordning. For eksempel bør national arbejdsret og national ret om beskyttelse af mindreårige, dvs. personer under 18 år, under hensyntagen til generel bemærkning nr. 25 (2021) om børns rettigheder vedrørende det digitale miljø fra FN's Komité for Barnets Rettigheder, for så vidt de ikke er specifikke for AI-systemer og forfølger andre legitime mål af samfundsmæssig interesse, ikke berøres af denne forordning.
(9)
Harmonizační pravidla Unie použitelná pro uvádění na trh, uvádění do provozu a používání vysoce rizikových systémů AI by měla být stanovena v souladu s nařízením Evropského parlamentu a Rady (ES) č. 765/2008 (7), rozhodnutím Evropského parlamentu a Rady č. 768/2008/ES (8) a nařízením Evropského parlamentu a Rady (EU) 2019/1020 (9) („nový legislativní rámec pro uvádění výrobků na trh“). Harmonizovaná pravidla stanovená v tomto nařízení by se měla vztahovat na všechna odvětví a v souladu s přístupem nového legislativního rámce by jimi nemělo být dotčeno stávající právo Unie, zejména v oblasti ochrany údajů, ochrany spotřebitele, základních práv, zaměstnanosti, ochrany pracovníků a bezpečnosti výrobků, které toto nařízení doplňuje. V důsledku toho zůstávají všechna práva a ochrana, které toto právo Unie stanoví pro spotřebitele a další osoby, na něž mohou mít systémy AI nepříznivý dopad, a to i pokud jde o náhradu možné škody podle směrnice Rady 85/374/EHS (10), nadále nedotčeny a plně použitelné. Kromě toho by tudíž v souvislosti se zaměstnaností a ochranou pracovníků nemělo být tímto nařízením dotčeno právo Unie v oblasti sociální politiky a vnitrostátní pracovní právo, a to v souladu s právem Unie, pokud jde o podmínky zaměstnávání a pracovní podmínky, včetně bezpečnosti a ochrany zdraví při práci a vztahu mezi zaměstnavateli a pracovníky. Tímto nařízením by rovněž neměl být dotčen výkon základních práv uznávaných členskými státy a na úrovni Unie, včetně práva na stávku nebo práva přijmout jiná opatření na základě zvláštních systémů členských států v oblasti pracovněprávních vztahů, jakož i právo sjednávat, uzavírat a vymáhat kolektivní smlouvy nebo vést kolektivní akce v souladu s vnitrostátním právem. Tímto nařízením by neměla být dotčena ustanovení, jejichž účelem je zlepšit pracovní podmínky při práci prostřednictvím platforem, stanovená ve směrnici Evropského parlamentu a Rady o zlepšení pracovních podmínek při práci prostřednictvím platforem. Kromě toho je cílem tohoto nařízení posílit účinnost těchto stávajících práv a ochrany, že stanoví zvláštní požadavky a povinnosti, mimo jiné pokud jde o transparentnost, technickou dokumentaci a vedení záznamů o systémech AI. Povinnosti uložené různým provozovatelům zapojeným do hodnotového řetězce AI podle tohoto nařízení by se navíc měly uplatňovat, aniž by bylo dotčeno vnitrostátní právo v souladu s právem Unie, jehož účinkem je omezení používání určitých systémů AI, pokud toto právo nespadá do oblasti působnosti tohoto nařízení nebo sleduje jiné legitimní cíle veřejného zájmu než ty, které sleduje toto nařízení. Tímto nařízením by například neměly být dotčeny vnitrostátní pracovní právo a právní předpisy na ochranu nezletilých osob, tedy osob mladších 18 let, s ohledem na obecnou připomínku UNCRC č. 25 (2021) o právech dětí v souvislosti s digitálním prostředím, pokud se netýkají konkrétně systémů AI a sledují jiné legitimní cíle veřejného zájmu.
(10)
Den grundlæggende ret til beskyttelse af personoplysninger er navnlig sikret ved Europa-Parlamentets og Rådets forordning (EU) 2016/679 (11) og (EU) 2018/1725 (12) samt Europa-Parlamentets og Rådets direktiv (EU) 2016/680 (13). Europa-Parlamentets og Rådets direktiv 2002/58/EF (14) beskytter desuden privatlivets fred og kommunikationshemmeligheden, herunder med fastsættelse af betingelser for lagring af personoplysninger og andre oplysninger end personoplysninger i terminaludstyr og for adgang til terminaludstyr. Disse EU-retsakter danner grundlaget for bæredygtig og ansvarlig databehandling, herunder når datasæt omfatter en blanding af personoplysninger og andre data end personoplysninger. Nærværende forordning har ikke til formål at påvirke anvendelsen af gældende EU-ret om behandling af personoplysninger, herunder de opgaver og beføjelser, der påhviler de uafhængige tilsynsmyndigheder med kompetence til at overvåge, at disse instrumenter overholdes.Den berører heller ikke de forpligtelser for udbydere og idriftsættere af AI-systemer i deres rolle som dataansvarlige eller databehandlere, der følger af EU-retten eller national ret om beskyttelse af personoplysninger, for så vidt udformningen, udviklingen eller anvendelsen af AI-systemer omfatter behandling af personoplysninger. Det er også hensigtsmæssigt at præcisere, at registrerede bevarer alle de rettigheder og garantier, som de har i henhold til EU-retten, herunder rettigheder i forbindelse med helt automatiseret individuel beslutningstagning, herunder profilering. Harmoniserede regler for omsætning, ibrugtagning og anvendelse af AI-systemer, der er fastsat i henhold til nærværende forordning, bør lette en effektiv gennemførelse og muliggøre udøvelsen af de registreredes rettigheder og andre retsmidler, der er sikret i medfør af EU-retten om beskyttelse af personoplysninger og andre grundlæggende rettigheder.
(10)
Základní právo na ochranu osobních údajů je chráněno zejména nařízeními Evropského parlamentu a Rady (EU) 2016/679 (11) a (EU) 2018/1725 (12) a směrnicí Evropského parlamentu a Rady (EU) 2016/680 (13). Směrnice Evropského parlamentu a Rady 2002/58/ES (14) navíc chrání soukromý život a důvěrný charakter sdělení, mimo jiné stanovením podmínek pro uchovávání jakýchkoli osobních a neosobních údajů v koncových zařízeních a přístup k těmto údajům z takových zařízení. Uvedené právní akty Unie poskytují základ pro udržitelné a odpovědné zpracování údajů, včetně případů, kdy datové soubory zahrnují kombinaci osobních a neosobních údajů. Tímto nařízením není dotčeno uplatňování stávajícího práva Unie upravujícího zpracování osobních údajů, včetně úkolů a pravomocí nezávislých dozorových orgánů příslušných pro sledování dodržování těchto nástrojů. Tímto nařízením nejsou dotčeny povinnosti poskytovatelů systémů AI a zavádějících subjektů v jejich úloze správců nebo zpracovatelů údajů vyplývající z práva Unie nebo vnitrostátního práva o ochraně osobních údajů, pokud návrh, vývoj nebo používání systémů AI zahrnuje zpracování osobních údajů. Je rovněž vhodné vyjasnit, že subjekty údajů nadále požívají všech práv a záruk, které jim tyto právní předpisy Unie přiznávají, včetně práv souvisejících s výhradně automatizovaným individuálním rozhodováním, včetně profilování. Harmonizovaná pravidla pro uvádění na trh, uvádění do provozu a používání systémů AI stanovená v rámci tohoto nařízení by měla usnadnit účinné provádění a umožnit výkon práv subjektů údajů a dalších prostředků ochrany zaručených právními předpisy Unie v oblasti ochrany osobních údajů a dalších základních práv.
(11)
Denne forordning berører ikke bestemmelserne om ansvar for udbydere af formidlingstjenester som fastsat i Europa-Parlamentets og Rådets forordning (EU) 2022/2065 (15).
(11)
Tímto nařízením by neměla být dotčena ustanovení týkající se odpovědnosti poskytovatelů zprostředkovatelských služeb stanovená v nařízení Evropského parlamentu a Rady (EU) 2022/2065 (15).
(12)
Begrebet »AI-system« i denne forordning bør defineres klart og bør nøje afstemmes med det arbejde, der udføres af internationale organisationer, som arbejder med AI, for at sikre retssikkerhed, lette international konvergens og bred accept, og samtidig være fleksibelt nok til at tage højde for den hurtige teknologiske udvikling på dette område. Desuden bør definitionen baseres på centrale egenskaber ved AI-systemer, der adskiller det fra enklere traditionelle softwaresystemer eller programmeringstilgange, og bør ikke omfatte systemer, der er baseret på de regler, der udelukkende er defineret af fysiske personer til automatisk at udføre operationer. En central egenskab ved AI-systemer er deres evne til at udlede. Denne evne til at udlede henviser til processen med at opnå output såsom forudsigelser, indhold, anbefalinger eller beslutninger, der kan påvirke fysiske og virtuelle miljøer, og til AI-systemernes evne til at udlede modeller eller algoritmer, eller begge dele, fra input eller data. De teknikker, der muliggør udledning ved opbygningen af et AI-system, omfatter maskinlæringstilgange, der af data lærer, hvordan bestemte mål kan nås, og logik- og videnbaserede tilgange, der udleder indhold fra indkodet viden eller symbolsk repræsentation af den opgave, der skal løses. Et AI-systems evne til at udlede går videre end grundlæggende databehandling ved at muliggøre læring, ræsonnement eller modellering. Udtrykket »maskinbaseret« henviser til det forhold, at AI-systemer kører på maskiner. Henvisningen til eksplicitte eller implicitte mål understreger, at AI-systemer kan fungere i overensstemmelse med eksplicit definerede mål eller implicitte mål. AI-systemets mål kan adskille sig fra det tilsigtede formål med AI-systemet i en specifik sammenhæng. Med henblik på denne forordning bør miljøer forstås som de sammenhænge, hvori AI-systemerne fungerer, mens output genereret af AI-systemet afspejler forskellige funktioner, der udføres af AI-systemer og omfatter forudsigelser, indhold, anbefalinger eller beslutninger. AI-systemer er udformet til at fungere med varierende grader af autonomi, hvilket betyder, at de har en vis grad af uafhængighed fra menneskelig medvirken og har evnen til at fungere uden menneskelig indgriben. Den tilpasningsevne, som et AI-system kan udvise efter idriftsættelsen, henviser til selvlæringskapacitet, der gør det muligt for systemet at ændre sig, mens det er i brug. AI-systemer kan anvendes selvstændigt eller som en del af et produkt, uanset om systemet er fysisk integreret i produktet (indlejret), eller tjene produktets funktionalitet uden at være integreret deri (ikke indlejret).
(12)
Pojem „systém AI“ v tomto nařízení by měl být jasně definován a úzce sladěn s činností mezinárodních organizací zabývajících se AI, aby byla zajištěna právní jistota, aby bylo usnadněno sbližování pravidel na mezinárodní úrovni a široké přijetí a současně aby byla poskytnuta flexibilita umožňující přizpůsobit se rychlému technologickému vývoji v této oblasti. Tato definice by kromě toho měla být založena na klíčových vlastnostech systémů AI, které je odlišují od jednodušších tradičních softwarových systémů nebo programovacích přístupů, a neměla by se vztahovat na systémy, které jsou založeny na pravidlech vymezených výhradně fyzickými osobami k automatickému provádění operací. Jednou z klíčových vlastností systémů AI je jejich schopnost odvozování. Schopností odvozování se rozumí proces získávání výstupů, jako jsou predikce, obsah, doporučení nebo rozhodnutí, které mohou ovlivnit fyzické a virtuální prostředí, a schopnost systémů AI derivovat modely nebo algoritmy, nebo oboje, ze vstupů nebo dat. Mezi techniky, které umožňují odvozování při současném budování systému AI, patří přístupy strojového učení, které se učí z dat, jak dosáhnout určitých cílů, a přístupy založené na logice a poznatcích, které ze zakódovaných poznatků nebo symbolického znázornění odvozují úkol, který má být vyřešen. Schopnost odvozování systému AI přesahuje rámec základního zpracování údajů tím, že umožňuje učení, uvažování nebo modelování. Pojem „strojové“ odkazuje na skutečnost, že systémy AI fungují prostřednictvím strojů. Odkaz na explicitní nebo implicitní cíle zdůrazňuje, že systémy AI mohou fungovat na základě explicitně definovaných cílů nebo cílů implicitních. Cíle systému AI se mohou v konkrétním kontextu lišit od zamýšleného účelu systému AI. Pro účely tohoto nařízení by se prostředím měl rozumět kontext, v němž systémy AI fungují, zatímco výstupy generované systémem AI odrážejí různé funkce vykonávané systémy AI a zahrnují predikci, obsah, doporučení nebo rozhodnutí. Systémy AI jsou navrženy tak, aby fungovaly s různou úrovní samostatnosti, což znamená, že jejich činnost je alespoň do určité míry nezávislá na zapojení člověka a jsou při ní schopny alespoň do určité míry fungovat bez lidského zásahu. Přizpůsobivostí, kterou by systém AI mohl vykazovat po zavedení, se rozumí schopnost samoučení, která umožňuje, aby se systém během používání měnil. Systémy AI lze používat samostatně nebo jako komponent určitého produktu bez ohledu na to, zda je systém do tohoto produktu fyzicky zabudován (vestavěný systém), nebo zda napomáhá funkčnosti tohoto produktu, aniž by do něho byl zabudován (nevestavěný systém).
(13)
Begrebet »idriftsætter«, der er omhandlet i denne forordning, bør fortolkes som enhver fysisk eller juridisk person, herunder en offentlig myndighed, et agentur eller et andet organ, der anvender et AI-system under sin myndighed, medmindre AI-systemet anvendes som led i en personlig ikkeerhvervsmæssig aktivitet. Afhængigt af typen af AI-system kan anvendelsen af systemet påvirke andre personer end idriftsætteren.
(13)
Pojem „zavádějící subjekt“ uvedený v tomto nařízení by měl být vykládán jako jakákoli fyzická nebo právnická osoba, včetně veřejného orgánu, agentury nebo jiného subjektu, která v rámci své pravomoci používá systém AI, s výjimkou případů, kdy je tento systém AI používán při osobní neprofesionální činnosti. V závislosti na typu systému AI může používání systému ovlivňovat jiné osoby než zavádějící subjekt.
(14)
Begrebet »biometriske data«, der anvendes i denne forordning, bør fortolkes i lyset af begrebet biometriske data som defineret i artikel 4, nr. 14), i forordning (EU) 2016/679, artikel 3, nr. 18), i forordning (EU) 2018/1725 og artikel 3, nr. 13), i direktiv (EU) 2016/680. Biometriske data kan muliggøre autentifikation, identifikation eller kategorisering af fysiske personer og genkendelse af fysiske personers følelser.
(14)
Pojem „biometrické údaje“ používaný v tomto nařízení by měl být vykládán s ohledem na pojem „biometrické údaje“ vymezený v čl. 4 bodu 14 nařízení (EU) 2016/679, čl. 3 bodu 18 nařízení (EU) 2018/1725 a čl. 3 bodu 13 směrnice (EU) 2016/680. Biometrické údaje mohou umožnit autentizaci, identifikaci či kategorizaci fyzických osob a rozpoznávání jejich emocí.
(15)
Begrebet »biometrisk identifikation«, der er omhandlet i denne forordning, bør defineres som automatiseret genkendelse af fysiske, fysiologiske og adfærdsmæssige menneskelige egenskaber som f.eks. ansigt, øjenbevægelser, kropsform, stemme, prosodi, gangart, kropsholdning, hjerterytme, blodtryk, lugt og tasteanslagskarakteristika med det formål at fastslå en persons identitet ved at sammenligne personens biometriske data med de biometriske data om personer, der er lagret i en referencedatabase, uanset om denne person har givet sit samtykke hertil eller ej. Dette udelukker AI-systemer, der tilsigtes anvendt til biometrisk verifikation, som omfatter autentifikation, hvis eneste formål er at bekræfte, at en bestemt fysisk person er den person, vedkommende hævder at være, og bekræfte en fysisk persons identitet udelukkende med det formål at få adgang til en tjeneste, låse udstyr op eller have sikker adgang til lokaler.
(15)
Pojem „biometrická identifikace“ uvedený v tomto nařízení by měl být vymezen jako automatizované rozpoznání fyzických, fyziologických a behaviorálních lidských rysů, jako jsou obličej, pohyb očí, tvar těla, hlas, řeč, chůze, držení těla, srdeční frekvence, krevní tlak, zápach, stisk kláves, pro účely zjištění totožnosti jednotlivce porovnáním biometrických údajů dané osoby s uloženými biometrickými údaji jednotlivců v referenční databázi, a to bez ohledu na to, zda daný jedinec poskytl svůj souhlas, či nikoli. To nezahrnuje systémy AI určené k biometrickému ověřování, včetně autentizace, jejichž jediným účelem je potvrdit, zda je konkrétní fyzická osoba osobou, za niž se prohlašuje, a potvrdit totožnost fyzické osoby za jediným účelem, kterým je získání přístupu ke službě, odblokování zařízení nebo získání bezpečnostního přístupu k prostorám.
(16)
Begrebet »biometrisk kategorisering«, der er omhandlet i denne forordning, bør defineres som placering af fysiske personer i bestemte kategorier på grundlag af deres biometriske data. Sådanne specifikke kategorier kan vedrøre aspekter som køn, alder, hårfarve, øjenfarve, tatoveringer, adfærdsmønstre eller personlighedstræk, sprog, religion, tilhørsforhold til et nationalt mindretal samt seksuel eller politisk orientering. Dette omfatter ikke systemer til biometrisk kategorisering, som er en rent accessorisk funktion, der er uløseligt forbundet med en anden kommerciel tjeneste, og som indebærer, at funktionen af objektive tekniske grunde ikke kan anvendes uden den primære tjeneste, og at integrationen af denne funktion eller funktionalitet ikke er et middel til at omgå anvendelsen af reglerne i denne forordning. Eksempelvis kan filtre, der kategoriserer ansigts- eller kropstræk, som anvendes på onlinemarkedspladser, udgøre en sådan accessorisk funktion, da de kun kan anvendes i forbindelse med den primære tjeneste, der består i at sælge et produkt ved at give forbrugeren mulighed for se visningen af produktet på sig selv og hjælpe forbrugeren med at træffe en købsbeslutning. Filtre, der anvendes på sociale onlinenetværkstjenester, og som kategoriserer ansigts- eller kropstræk for at give brugerne mulighed for at tilføje eller ændre billeder eller videoer, kan også betragtes som en accessorisk funktion, da et sådant filter ikke kan anvendes uden den primære tjeneste i de sociale netværkstjenester, der består i deling af indhold online.
(16)
Pojmem „biometrická kategorizace“ uvedeným v tomto nařízení by se mělo rozumět zařazení fyzických osob do zvláštních kategorií na základě jejich biometrických údajů. Tyto zvláštní kategorie se mohou týkat aspektů, jako je pohlaví, věk, barva vlasů, barva očí, tetování, behaviorální nebo osobnostní rysy, jazyk, náboženské vyznání, příslušnost k národnostní menšině, sexuální nebo politická orientace. To nezahrnuje systémy biometrické kategorizace, které jsou čistě vedlejším prvkem neoddělitelně spjatým s jinou obchodní službou, což znamená, že tento prvek nelze z objektivních technických důvodů použít bez hlavní služby a začlenění tohoto prvku nebo funkce není prostředkem k obcházení použitelnosti pravidel stanovených v tomto nařízení. Takovým vedlejším prvkem by mohly být například filtry kategorizující rysy obličeje nebo těla používané na on-line tržištích, neboť je lze použít pouze ve vztahu k hlavní službě, která spočívá v prodeji výrobku, přičemž spotřebiteli umožní zobrazit si náhled na výrobek na sobě samém a pomůže mu rozhodnout se o nákupu. Filtry používané v rámci služeb online sociálních sítí, které kategorizují rysy obličeje nebo těla tak, aby uživatelé mohli doplňovat nebo upravovat obrázky nebo videa, by rovněž mohly být považovány za vedlejší prvek, neboť takový filtr nelze použít bez hlavní služby sociální sítě spočívající ve sdílení obsahu online.
(17)
Begrebet »system til biometrisk fjernidentifikation«, der er omhandlet i denne forordning, bør defineres funktionelt som et AI-system, der er tilsigtet identifikation af fysiske personer uden deres aktive medvirken, typisk på afstand, ved at sammenligne en persons biometriske data med de biometriske data i en referencedatabase, uanset hvilken specifik teknologi, hvilke specifikke processer eller hvilke specifikke typer biometriske data der anvendes. Sådanne systemer til biometrisk fjernidentifikation anvendes typisk til at opfatte flere personer eller deres adfærd samtidigt for i væsentlig grad at lette identifikationen af fysiske personer uden deres aktive medvirken. Dette udelukker AI-systemer, der tilsigtes anvendt til biometrisk verifikation, som omfatter autentifikation, hvis eneste formål er at bekræfte, at en bestemt fysisk person er den person, vedkommende hævder at være, og bekræfte en fysisk persons identitet udelukkende med det formål at få adgang til en tjeneste, låse udstyr op eller have sikkerhedsadgang til lokaler. Denne udelukkelse begrundes med, at sådanne systemer sandsynligvis vil have en mindre indvirkning på fysiske personers grundlæggende rettigheder sammenlignet med systemerne til biometrisk fjernidentifikation, der kan anvendes til behandling af et stort antal personers biometriske data uden deres aktive medvirken. Hvis der er tale om realtidssystemer, sker optagelsen af de biometriske data, sammenligningen og identifikationen øjeblikkeligt, næsten øjeblikkeligt eller under alle omstændigheder uden væsentlig forsinkelse. I denne forbindelse bør der ikke være mulighed for at omgå denne forordnings bestemmelser om realtidsanvendelse af de pågældende AI-systemer ved at foranledige mindre forsinkelser. Realtidssystemer omfatter anvendelse af direkte eller lettere forskudt materiale såsom videooptagelser, der genereres af et kamera eller andet udstyr med tilsvarende funktioner. Er der derimod tale om systemer til efterfølgende biometrisk identifikation, er de biometriske data allerede blevet optaget, og sammenligningen og identifikationen finder først sted efter en væsentlig forsinkelse. Der er tale om materiale såsom billeder eller videooptagelser, der genereres af TV-overvågningskameraer eller privat udstyr, og som er genereret inden systemets anvendelse for så vidt angår de pågældende fysiske personer.
(17)
Pojem „systém biometrické identifikace na dálku“ uvedený v tomto nařízení by měl být definován funkčně jako systém AI určený k identifikaci fyzických osob, a to obvykle na dálku, bez jejich aktivního zapojení prostřednictvím porovnání biometrických údajů dané osoby s biometrickými údaji obsaženými v referenční databázi, bez ohledu na konkrétní technologii, procesy nebo typy použitých biometrických údajů. Tyto systémy biometrické identifikace na dálku se obvykle používají ke snímání vícero osob nebo jejich chování současně, s cílem významně usnadnit identifikaci osob bez jejich aktivního zapojení. To nezahrnuje systémy AI určené k biometrickému ověřování, včetně autentizace, jejichž jediným účelem je potvrdit, zda je konkrétní fyzická osoba osobou, za niž se prohlašuje, a potvrdit totožnost fyzické osoby za jediným účelem, kterým je získání přístupu ke službě, odblokování zařízení nebo získání bezpečnostního přístupu k prostorám. Uvedené vyloučení je odůvodněno skutečností, že tyto systémy budou mít ve srovnání se systémy biometrické identifikace na dálku, které mohou být použity ke zpracování biometrických údajů velkého počtu osob bez jejich aktivního zapojení, pravděpodobně menší dopad na základní práva fyzických osob. V případě systémů provádějících identifikaci v reálném čase probíhá jak zaznamenání biometrických údajů, tak porovnání a identifikace okamžitě, téměř okamžitě nebo v každém případě bez významného zpoždění. V tomto ohledu by neměl existovat žádný prostor pro obcházení pravidel tohoto nařízení o používání dotčených systémů AI v reálném čase stanovením menších zpoždění. Systémy fungující v reálném čase zahrnují použití materiálu „živě“ nebo jen s malým časovým posunem, jako jsou například videozáznamy generované kamerou nebo jiným zařízením s podobnými funkcemi. Naproti tomu v případě systémů, ve kterých identifikace probíhá „následně,“ dochází k porovnání a identifikaci zachycených údajů až se značným zpožděním. Jedná se o materiály, jako jsou například fotografie nebo videozáznamy generované kamerami s uzavřeným televizním okruhem nebo soukromými zařízeními, které byly vytvořeny před použitím tohoto systému ve vztahu k dotčeným fyzickým osobám.
(18)
Begrebet »system til følelsesgenkendelse«, der er omhandlet i denne forordning, bør defineres som et AI-system, der har til formål at identificere eller udlede fysiske personers følelser eller hensigter på grundlag af deres biometriske data. Begrebet henviser til følelser eller hensigter såsom lykke, sorgfuldhed, vrede, forbavselse, afsky, forlegenhed, begejstring, skam, foragt, tilfredshed og morskab. Det omfatter ikke fysiske tilstande såsom smerte eller træthed, herunder f.eks. systemer, der anvendes til at påvise træthedstilstanden hos professionelle piloter eller førere med henblik på at forebygge ulykker. Det omfatter heller ikke den blotte påvisning af umiddelbart synlige udtryk, fagter eller bevægelser, medmindre de anvendes til at identificere eller udlede følelser. Disse udtryk kan være simple ansigtsudtryk såsom en panderynken eller et smil eller fagter såsom bevægelse af hænder, arme eller hoved eller karakteristika ved en persons stemme såsom en hævet stemme eller hvisken.
(18)
Pojem „systém rozpoznávání emocí“ uvedený v tomto nařízení by měl být vymezen jako systém AI pro účely zjišťování nebo odvozování emocí nebo záměrů fyzických osob na základě jejich biometrických údajů. Tento pojem odkazuje na emoce nebo záměry, jako je štěstí, smutek, hněv, překvapení, znechucení, pocit trapnosti, rozrušení, stud, opovržení, spokojenost a pobavenost. Nezahrnuje fyzické stavy, jako je bolest nebo únava, včetně například systémů používaných při zjišťování stavu únavy profesionálních pilotů nebo řidičů za účelem předcházení nehodám. Nezahrnuje ani pouhé zjištění snadno viditelných výrazů, gest nebo pohybů, pokud neslouží k zjišťování nebo odvozování emocí. Uvedenými výrazy mohou být základní výrazy obličeje, jako je mračení se nebo úsměv, nebo gesta, jako je pohyb rukou, paží nebo hlavy, nebo charakteristiky hlasu daného člověka, jako je zvýšený hlas nebo šepot.
(19)
I denne forordning bør begrebet offentligt sted forstås som ethvert fysisk sted, der er tilgængeligt for et ubestemt antal fysiske personer, og uanset om det pågældende sted er privatejet eller offentligt ejet, og uanset den aktivitet, som stedet kan anvendes til, såsom til handel, f.eks. butikker, restauranter og caféer, til tjenesteydelser, f.eks. banker, erhvervsmæssige aktiviteter og hotel-, restaurations- og oplevelsesbranchen, til sport, f.eks. svømmebassiner, fitnesscentre og stadioner, til transport, f.eks. bus-, metro- og jernbanestationer, lufthavne og transportmidler, til underholdning, f.eks. biografer, teatre, museer og koncert- og konferencesale, eller til fritid eller andet, f.eks. offentlige veje og pladser, parker, skove og legepladser. Et sted bør også klassificeres som værende offentligt tilgængeligt, hvis adgangen, uanset eventuelle kapacitets- eller sikkerhedsrestriktioner, er underlagt visse forud fastsatte betingelser, som kan opfyldes af et ubestemt antal personer, såsom køb af en billet eller et rejsebevis, forudgående registrering eller det at have en bestemt alder. Derimod bør et sted ikke anses for at være offentligt tilgængeligt, hvis adgangen er begrænset til specifikke og definerede fysiske personer i henhold til enten EU-retten eller national ret, der er direkte knyttet til den offentlige sikkerhed, eller gennem en klar viljestilkendegivelse fra den person, der har den relevante myndighed over stedet. Den faktiske mulighed for adgang alene såsom en ulåst dør eller en åben låge i et hegn indebærer ikke, at stedet er et offentligt sted, hvis der er indikationer eller omstændigheder, der tyder på det modsatte, såsom skilte, der forbyder eller begrænser adgangen. Virksomheds- og fabrikslokaler samt kontorer og arbejdspladser, der kun tilsigtes at være tilgængelige for relevante medarbejdere og tjenesteydere, er ikke offentlige steder. Offentlige steder bør ikke omfatte fængsler eller grænsekontrol. Visse andre områder kan bestå af både offentlige steder og ikkeoffentlige steder såsom forhallen til en privat beboelsesejendom, som det er nødvendigt at gå igennem for at få adgang til en læges kontor, eller en lufthavn. Online steder er ikke omfattet, da der ikke er tale om fysiske steder. Om et givet sted betragtes som offentligt, bør imidlertid afgøres fra sag til sag under hensyntagen til de særlige forhold i den enkelte situation.
(19)
Pro účely tohoto nařízení by se pod pojmem „veřejně přístupný prostor“ měl rozumět jakýkoli fyzický prostor, který je přístupný neurčenému počtu fyzických osob, bez ohledu na to, zda je daný prostor v soukromém, nebo veřejném vlastnictví, bez ohledu na činnost, pro kterou může být prostor využíván, jako je obchodní činnost, například obchody, restaurace, kavárny; služby, například banky, profesní činnosti, pohostinství; sport, například plavecké bazény, tělocvičny, stadiony; doprava, například zastávky autobusu a metra a železniční nádraží, letiště, dopravní prostředky; zábava, například kina, divadla, muzea, koncertní a konferenční haly nebo volný čas či jiné, například veřejné komunikace a náměstí, parky, lesy, hřiště. Prostor by měl být klasifikován jako veřejně přístupný i v případě, že přístup podléhá bez ohledu na potenciální kapacitu nebo bezpečnostní omezení určitým předem stanoveným podmínkám, které mohou být splněny neurčeným počtem osob, jako je nákup jízdenky nebo přepravního dokladu, předchozí registrace nebo dosažení určitého věku. Prostor by naopak neměl být považován za veřejně přístupný, pokud je přístup omezen na konkrétní a vymezené fyzické osoby buď prostřednictvím práva Unie, nebo vnitrostátního práva přímo souvisejícího s veřejnou ochranou a bezpečností, nebo prostřednictvím jasného projevu vůle osobou, která má v daném prostoru příslušnou pravomoc. Samotná faktická možnost přístupu (jako jsou odemčené dveře nebo otevřená brána v plotu) neznamená, že prostor je veřejně přístupný, existují-li indikace nebo okolnosti naznačující opak, jako jsou značky zakazující nebo omezující přístup. Prostory společností a továren, jakož i kanceláře a pracoviště, do nichž mají mít přístup pouze příslušní zaměstnanci a poskytovatelé služeb, jsou prostory, které nejsou veřejně přístupné. Veřejně přístupné prostory by neměly zahrnovat věznice ani stanoviště hraniční kontroly. Některé další prostory mohou zahrnovat jak veřejně nepřístupné, tak veřejně přístupné prostory, jako je hala soukromé obytné budovy, která je nezbytná pro přístup do lékařské ordinace, anebo letiště. Tento pojem nezahrnuje ani on-line prostory, protože se nejedná o prostory fyzické. To, zda je daný prostor přístupný veřejnosti, by však mělo být určováno případ od případu s ohledem na zvláštnosti dané konkrétní situace.
(20)
For at opnå de største fordele ved AI-systemer, samtidig med at de grundlæggende rettigheder, sundheden og sikkerheden beskyttes, og for at muliggøre demokratisk kontrol bør AI-færdigheder udstyre udbydere, idriftsættere og berørte personer med de nødvendige begreber til at træffe informerede beslutninger vedrørende AI-systemer. Disse begreber kan variere med hensyn til den relevante kontekst og kan omfatte forståelse af den korrekte anvendelse af tekniske elementer i AI-systemets udviklingsfase, de foranstaltninger, der skal anvendes under dets anvendelse, passende måder at fortolke AI-systemets output på, og i tilfælde af berørte personer den viden, der er nødvendig for at forstå, hvordan beslutninger truffet med hjælp fra AI vil have indvirkning på dem. I forbindelse med anvendelsen af denne forordning bør AI-færdigheder give alle relevante aktører i AI-værdikæden den indsigt, der er nødvendig for at sikre passende overholdelse og korrekt håndhævelse heraf. Desuden kan den brede gennemførelse af foranstaltninger vedrørende AI-færdigheder og indførelsen af passende opfølgende tiltag bidrage til at forbedre arbejdsvilkårene og i sidste ende understøtte konsoliderings- og innovationsstien for troværdig AI i Unionen. Det Europæiske Udvalg for Kunstig Intelligens (»AI-udvalget«) bør støtte Kommissionen med henblik på at fremme AI-færdighedsværktøjer samt offentlighedens kendskab til og forståelse af fordele, risici, sikkerhedsforanstaltninger, rettigheder og forpligtelser i forbindelse med anvendelsen af AI-systemer. I samarbejde med de relevante interessenter bør Kommissionen og medlemsstaterne lette udarbejdelsen af frivillige adfærdskodekser for at fremme AI-færdigheder blandt personer, der beskæftiger sig med udvikling, drift og anvendelse af AI.
(20)
Aby bylo možné dosáhnout co největších přínosů systémů AI a zároveň chránit základní práva, zdraví a bezpečnost a umožnit demokratickou kontrolu, měli by poskytovatelé, zavádějící subjekty a dotčené osoby získat v tomto ohledu prostřednictvím gramotnosti v oblasti AI nezbytné povědomí, které jim umožní činit ohledně systémů AI informovaná rozhodnutí. Povědomí o těchto otázkách se může lišit s ohledem na příslušný kontext a může obnášet pochopení správného uplatňování technických prvků během fáze vývoje systému AI, opatření, která mají být uplatňována během jeho používání, vhodné způsoby výkladu výstupů systému AI a v případě dotčených osob poznatky nezbytné k pochopení toho, jak na ně budou mít rozhodnutí přijatá s pomocí AI dopad. V souvislosti s uplatňováním tohoto nařízení by prostřednictvím gramotnosti v oblasti AI měli mít všichni příslušní aktéři v hodnotovém řetězci AI poznatky potřebné k zajištění náležitého dodržování ustanovení tohoto nařízení a jeho řádného prosazování. Kromě toho by široké provádění opatření týkajících se gramotnosti v oblasti AI a zavedení vhodných následných opatření mohlo přispět ke zlepšení pracovních podmínek a v konečném důsledku podpořit konsolidaci a inovaci v oblasti důvěryhodné AI v Unii. Evropská rada pro umělou inteligenci (dále jen „rada“) by měla podpořit Komisi s cílem prosazovat nástroje gramotnosti v oblasti AI, informovanost veřejnosti a pochopení přínosů, rizik, záruk, práv a povinností, jež s používáním systémů AI souvisejí. Ve spolupráci s příslušnými zúčastněnými stranami by Komise a členské státy měly usnadnit vypracování dobrovolných kodexů chování pro zvýšení gramotnosti v oblasti AI, pokud jde o osoby, které se zabývají vývojem, provozem a používáním AI.
(21)
For at sikre lige vilkår og en effektiv beskyttelse af fysiske personers rettigheder og friheder i hele Unionen bør de regler, der fastsættes ved denne forordning, finde anvendelse på udbydere af AI-systemer på en ikkeforskelsbehandlende måde, uanset om de er etableret i Unionen eller i et tredjeland, og på idriftsættere af AI-systemer, der er etableret i Unionen.
(21)
V zájmu zajištění rovných podmínek a účinné ochrany práv a svobod jednotlivců v celé Unii by se pravidla stanovená tímto nařízením měla vztahovat na poskytovatele systémů AI nediskriminačním způsobem bez ohledu na to, zda jsou usazeni v Unii, nebo ve třetí zemi, a na subjekty zavádějící systémy AI usazené v Unii.
(22)
I betragtning af deres digitale karakter bør visse AI-systemer være omfattet af denne forordnings anvendelsesområde, selv når de ikke bringes i omsætning, ibrugtages eller anvendes i Unionen. Dette er f.eks. tilfældet, når en operatør, der er etableret i Unionen, indgår kontrakter om visse tjenesteydelser med en operatør, der er etableret i et tredjeland, i forbindelse med en aktivitet, der skal udføres af et AI-system, der kan betegnes som højrisiko. Under disse omstændigheder ville det AI-system, der anvendes i tredjelandet af operatøren, kunne behandle data, der lovligt er indsamlet i og overført fra Unionen, og levere outputtet fra dette AI-systems behandling til den kontraherende operatør i Unionen, uden at dette AI-system bringes i omsætning, ibrugtages eller anvendes i Unionen. For at forhindre omgåelse af denne forordning og sikre en effektiv beskyttelse af fysiske personer i Unionen, bør denne forordning også finde anvendelse på udbydere og idriftsættere af AI-systemer, der er etableret i et tredjeland, i det omfang det output, der produceres af disse systemer, tilsigtes anvendt i Unionen.For at tage hensyn til eksisterende ordninger og særlige behov for fremtidigt samarbejde med udenlandske partnere, med hvem der udveksles oplysninger og bevismateriale, bør denne forordning ikke finde anvendelse på offentlige myndigheder i et tredjeland og internationale organisationer, når disse handler inden for rammerne af samarbejdsaftaler eller internationale aftaler indgået på EU-plan eller nationalt plan om retshåndhævelse og retligt samarbejde med Unionen eller medlemsstaterne, forudsat at det relevante tredjeland eller den relevante internationale organisation giver tilstrækkelige sikkerhedsforanstaltninger med hensyn til beskyttelsen af fysiske personers grundlæggende rettigheder og friheder. Dette kan, hvor relevant, omfatte aktiviteter udført af enheder, som af tredjelande har fået overdraget ansvaret for at udføre specifikke opgaver til støtte for en sådan retshåndhævelse og et sådant retligt samarbejde. Sådanne samarbejdsrammer eller aftaler er oprettet bilateralt mellem medlemsstaterne og tredjelande eller mellem Den Europæiske Union, Europol og andre EU-agenturer og tredjelande og internationale organisationer. De myndigheder, der har kompetence til at føre tilsyn med de retshåndhævende og retslige myndigheder i henhold til denne forordning, bør vurdere, om disse samarbejdsrammer eller internationale aftaler indeholder tilstrækkelige sikkerhedsforanstaltninger med hensyn til beskyttelse af fysiske personers grundlæggende rettigheder og friheder. De modtagende nationale myndigheder og EU-institutioner, -organer, -kontorer og -agenturer, der anvender sådanne output i Unionen, forbliver ansvarlige for at sikre, at deres anvendelse overholder EU-retten. Når disse internationale aftaler revideres, eller der indgås nye i fremtiden, bør de kontraherende parter gøre deres yderste for at tilpasse disse aftaler til kravene i denne forordning.
(22)
Určité systémy AI by s ohledem na svou digitální povahu měly spadat do oblasti působnosti tohoto nařízení i tehdy, pokud nejsou uvedeny na trh nebo do provozu v Unii nebo pokud nejsou používány v Unii. Jedná se například o případ, kdy provozovatel usazený v Unii smluvně zadává určité služby provozovateli usazenému ve třetí zemi v souvislosti s činností, kterou má provádět systém AI, jejž by bylo možno kvalifikovat jako vysoce rizikový. Za těchto okolností by systém AI, který provozovatel používá ve třetí zemi, mohl zpracovávat údaje zákonně shromážděné v Unii a přesunuté z Unie a poskytovat zadávajícímu provozovateli v Unii výstup z tohoto systému AI vyplývající z uvedeného zpracování, aniž by byl tento systém AI uveden na trh nebo do provozu v Unii nebo v ní byl používán. Aby se předešlo obcházení tohoto nařízení a aby byla zajištěna účinná ochrana fyzických osob nacházejících se v Unii, mělo by se toto nařízení vztahovat také na poskytovatele a subjekty zavádějící systémy AI, kteří jsou usazeni ve třetí zemi, pokud jsou výstupy vytvořené těmito systémy zamýšleny k používání v Unii. S ohledem na již existující ujednání a na zvláštní potřeby budoucí spolupráce se zahraničními partnery, s nimiž probíhá výměna informací a důkazů, by se však toto nařízení nemělo vztahovat na veřejné orgány třetí země a na mezinárodní organizace, pokud jednají v rámci spolupráce nebo mezinárodních dohod uzavřených na unijní nebo vnitrostátní úrovni za účelem spolupráce v oblasti vymáhání práva a justiční spolupráce s Unií nebo členskými státy, pokud daná třetí země či mezinárodní organizace poskytne přiměřené záruky, pokud jde o ochranu základních práv a svobod fyzických osob. V příslušných případech se může jednat o činnosti subjektů pověřených třetími zeměmi prováděním zvláštních úkolů na podporu této spolupráce v oblasti vymáhání práva a justiční spolupráce. Tyto rámce pro spolupráci či dohody byly uzavřeny dvoustranně mezi členskými státy a třetími zeměmi nebo mezi Evropskou unií, Europolem a dalšími agenturami Unie a třetími zeměmi a mezinárodními organizacemi. Orgány příslušné pro dohled nad donucovacími a justičními orgány podle tohoto nařízení by měly posoudit, zda tyto rámce pro spolupráci nebo mezinárodní dohody obsahují přiměřené záruky, pokud jde o ochranu základních práv a svobod fyzických osob. Přijímající vnitrostátní orgány a orgány, instituce a jiné subjekty Unie, které tyto výstupy v Unii využívají, jsou i nadále odpovědné za zajištění toho, aby jejich používání bylo v souladu s právem Unie. Při revizi těchto mezinárodních dohod nebo při uzavírání nových dohod v budoucnu by smluvní strany měly vyvinout maximální úsilí, aby tyto dohody uvedly do souladu s požadavky tohoto nařízení.
(23)
Denne forordning bør også finde anvendelse på EU-institutioner, -organer, -kontorer og -agenturer, når de fungerer som udbyder eller idriftsætter af et AI-system.
(23)
Toto nařízení by se mělo vztahovat také na orgány, instituce a jiné subjekty Unie, pokud jednají jako poskytovatel systému AI nebo subjekt zavádějící tento systém.
(24)
Hvis og i det omfang AI-systemer bringes i omsætning, ibrugtages eller anvendes med eller uden ændringer af sådanne systemer til militære formål, forsvarsformål eller formål vedrørende national sikkerhed, bør disse udelukkes fra denne forordnings anvendelsesområde, uanset hvilken type enhed der udfører disse aktiviteter, f.eks. om det er en offentlig eller privat enhed. For så vidt angår militære og forsvarsmæssige formål begrundes en sådan udelukkelse både i medfør af artikel 4, stk. 2, i TEU, og i de særlige forhold, der gør sig gældende for medlemsstaternes forsvarspolitik og den fælles EU-forsvarspolitik, der er omfattet af afsnit V, kapitel 2, i TEU, og som er underlagt folkeretten, og som derfor er den mest hensigtsmæssige retlige ramme for regulering af AI-systemer i forbindelse med anvendelsen af dødbringende magtanvendelse og andre AI-systemer i forbindelse med militære og forsvarsmæssige aktiviteter. For så vidt angår formål vedrørende den nationale sikkerhed begrundes udelukkelsen både i den omstændighed, at den nationale sikkerhed forbliver medlemsstaternes eneansvar i overensstemmelse med artikel 4, stk. 2, i TEU, og i den særlige karakter af og de operationelle behov i forbindelse med aktiviteter vedrørende den nationale sikkerhed og specifikke nationale regler, der finder anvendelse på disse aktiviteter. Hvis et AI-system, der er udviklet, bragt i omsætning, ibrugtaget eller anvendt til militære formål, forsvarsformål eller formål vedrørende den nationale sikkerhed, anvendes uden for disse midlertidigt eller permanent til andre formål, f.eks. civile eller humanitære formål, retshåndhævelsesformål eller hensynet til den offentlige sikkerhed, vil et sådant system ikke desto mindre være omfattet af denne forordnings anvendelsesområde. I så fald bør den enhed, der anvender AI-systemet til andre formål end militære formål, forsvarsformål eller formål vedrørende den nationale sikkerhed, sikre, at AI-systemet overholder denne forordning, medmindre systemet allerede overholder denne forordning. AI-systemer, der bringes i omsætning eller ibrugtages til et udelukket formål, dvs. militært formål, forsvarsformål eller formål vedrørende den nationale sikkerhed, og et eller flere ikkeudelukkede formål, f.eks. civile formål eller retshåndhævelse, falder ind under denne forordnings anvendelsesområde, og udbydere af disse systemer bør sikre overholdelse af denne forordning. I disse tilfælde bør det forhold, at et AI-system kan være omfattet af denne forordnings anvendelsesområde, ikke berøre muligheden for, at enheder, der udfører aktiviteter vedrørende den nationale sikkerhed, forsvarsaktiviteter og militæraktiviteter, uanset hvilken type enhed der udfører disse aktiviteter, anvender AI-systemer til formål vedrørende den nationale sikkerhed, militære formål og forsvarsformål, idet en sådan anvendelse er udelukket fra denne forordnings anvendelsesområde. Et AI-system, der bringes i omsætning til civile formål eller retshåndhævelsesformål, og som anvendes med eller uden ændringer til militære formål, forsvarsformål eller formål vedrørende den nationale sikkerhed, bør ikke være omfattet af denne forordnings anvendelsesområde, uanset hvilken type enhed der udfører disse aktiviteter.
(24)
Pokud, a v míře v jaké jsou systémy AI uvedeny na trh nebo do provozu nebo jsou používány se změnami těchto systémů nebo bez nich pro vojenské nebo obranné účely nebo pro účely národní bezpečnosti, měly by být z oblasti působnosti tohoto nařízení vyloučeny bez ohledu na to, jaký typ subjektu tyto činnosti provádí, například zda se jedná o veřejný, nebo soukromý subjekt. Pokud jde o vojenské a obranné účely, je toto vyloučení odůvodněno jak čl. 4 odst. 2 Smlouvy o Evropské unii, tak specifiky obranné politiky členských států a společné obranné politiky Unie, na něž se vztahuje hlava V kapitola 2 Smlouvy o Evropské unii a jež podléhají mezinárodnímu právu veřejnému, což je pak vhodnější právní rámec pro regulaci systémů AI v kontextu použití smrticí síly a jiných systémů AI v souvislosti s vojenskými a obrannými činnostmi. Pokud jde o účely národní bezpečnosti, je vyloučení odůvodněno jak skutečností, že národní bezpečnost zůstává v souladu s čl. 4 odst. 2 Smlouvy o Evropské unii výhradní odpovědností členských států, tak zvláštní povahou a operativními potřebami činností v oblasti národní bezpečnosti a zvláštními vnitrostátními pravidly použitelnými na tyto činnosti. Pokud je však systém AI vyvinutý, uvedený na trh nebo do provozu nebo používaný pro vojenské nebo obranné účely nebo pro účely národní bezpečnosti používán dočasně nebo trvale pro jiné účely, například pro civilní nebo humanitární účely, pro účely vymáhání práva nebo pro účely veřejné bezpečnosti, do oblasti působnosti tohoto nařízení by spadal. V takovém případě by subjekt, který systém AI používá pro jiné než vojenské nebo obranné účely nebo účely národní bezpečnosti, měl zajistit soulad systému AI s tímto nařízením, pokud systém dosud v souladu s tímto nařízením není. Systémy AI uváděné na trh nebo do provozu pro vyloučené účely, tedy vojenské nebo obranné účely nebo účely národní bezpečnosti, a jeden nebo více účelů, které vyloučeny nejsou, jako jsou civilní účely či vymáhání práva, do oblasti působnosti tohoto nařízení spadají a poskytovatelé těchto systémů by měli zajistit soulad s tímto nařízením. V těchto případech by skutečností, že systém AI může spadat do oblasti působnosti tohoto nařízení, neměla být dotčena možnost, aby subjekty provádějící činnosti v oblasti národní bezpečnosti nebo obranné a vojenské činnosti, bez ohledu na typ subjektu, který tyto činnosti provádí, používaly systémy AI pro účely národní bezpečnosti nebo vojenské a obranné účely, jejichž použití je z oblasti působnosti tohoto nařízení vyloučeno. Systém AI uváděný na trh pro civilní účely nebo pro účely vymáhání práva, který se používá se změnami nebo bez nich pro vojenské nebo obranné účely nebo pro účely národní bezpečnosti, by do oblasti působnosti tohoto nařízení spadat neměl, a to bez ohledu na typ subjektu, který tyto činnosti provádí.
(25)
Denne forordning bør støtte innovation, bør respektere forskningsfriheden og bør ikke undergrave forsknings- og udviklingsaktivitet. Det er derfor nødvendigt at udelukke AI-systemer og -modeller, der specifikt er udviklet og ibrugtaget udelukkende med henblik på videnskabelig forskning og udvikling. Det er desuden nødvendigt at sikre, at denne forordning ikke på anden måde påvirker videnskabelig forsknings- og udviklingsaktivitet med AI-systemer eller -modeller, inden de bringes i omsætning eller ibrugtages. Med hensyn til produktorienteret forsknings-, afprøvnings- og udviklingsaktivitet vedrørende AI-systemer eller -modeller bør bestemmelserne i denne forordning heller ikke finde anvendelse, inden disse systemer og modeller ibrugtages eller bringes i omsætning. Denne udelukkelse berører ikke forpligtelsen til at overholde denne forordning, når et AI-system, der falder ind under denne forordnings anvendelsesområde, bringes i omsætning eller ibrugtages som følge af en sådan forsknings- og udviklingsaktivitet, eller anvendelsen af bestemmelser om reguleringsmæssige AI-sandkasser og afprøvning under faktiske forhold. Uden at det berører udelukkelsen af AI-systemer, der specifikt er udviklet og ibrugtaget udelukkende med henblik på videnskabelig forskning og udvikling, bør ethvert andet AI-system, der kan anvendes til udførelse af enhver forsknings- og udviklingsaktivitet, desuden fortsat være omfattet af bestemmelserne i denne forordning. Under alle omstændigheder bør enhver forsknings- og udviklingsaktivitet udføres i overensstemmelse med anerkendte etiske og professionelle standarder for videnskabelig forskning og bør gennemføres i overensstemmelse med gældende EU-ret.
(25)
Toto nařízení by mělo podporovat inovace, respektovat svobodu vědy a nemělo by narušovat činnosti v oblasti výzkumu a vývoje. Je proto nezbytné vyloučit z jeho oblasti působnosti systémy a modely AI, které byly speciálně vyvinuty a uvedeny do provozu výhradně za účelem vědeckého výzkumu a vývoje. Kromě toho je nezbytné zajistit, aby toto nařízení nemělo žádný jiný vliv na činnost v oblasti vědeckého výzkumu a vývoje systémů AI před jejich uvedením na trh nebo do provozu. Pokud jde o činnost v oblasti výzkumu, testování a vývoje zaměřenou na produkty a týkající se systémů nebo modelů AI, ustanovení tohoto nařízení by se rovněž neměla použít před uvedením těchto systémů a modelů do provozu nebo na trh. Tímto vyloučením není dotčena povinnost dodržovat toto nařízení, pokud je systém AI spadající do oblasti působnosti tohoto nařízení uveden na trh nebo do provozu jako výsledek této výzkumné a vývojové činnosti, ani uplatňování ustanovení o regulačních sandboxech pro AI a testování v reálných podmínkách. Aniž je dotčeno vyloučení, pokud jde o systémy AI speciálně vyvinuté a uvedené do provozu výhradně za účelem vědeckého výzkumu a vývoje, měla by se ustanovení tohoto nařízení i nadále vztahovat rovněž na jakýkoli jiný systém AI, který může být použit k provádění jakékoli výzkumné a vývojové činnosti. Za všech okolností by měla být veškerá výzkumná a vývojová činnost prováděna v souladu s uznávanými etickými a profesními normami vědeckého výzkumu a v souladu s platným právem Unie.
(26)
For at indføre et forholdsmæssigt og effektivt sæt bindende regler for AI-systemer bør der anvendes en klart defineret risikobaseret tilgang. Denne tilgang bør tilpasse typen og indholdet af sådanne regler til graden og omfanget af de risici, som AI-systemer kan generere. Det er derfor nødvendigt at forbyde visse former for uacceptabel AI-praksis, at fastsætte krav til højrisiko-AI-systemer og forpligtelser for de relevante operatører og at fastsætte gennemsigtighedsforpligtelser for visse AI-systemer.
(26)
Aby bylo možné zavést přiměřený a účinný soubor závazných pravidel pro systémy AI, měl by být dodržován jasně definovaný přístup založený na posouzení rizik. Tento přístup by měl přizpůsobit typ a obsah těchto pravidel intenzitě a rozsahu rizik, která mohou systémy AI vytvářet. Je proto nezbytné zakázat některé nepřijatelné postupy v oblasti AI a stanovit požadavky na vysoce rizikové systémy AI a povinnosti příslušných provozovatelů, jakož i povinnosti transparentnosti pro určité systémy AI.
(27)
Selv om den risikobaserede tilgang danner grundlag for et forholdsmæssigt og effektivt sæt bindende regler, er det vigtigt at minde om de etiske retningslinjer for troværdig kunstig intelligens fra 2019, der er udarbejdet af den uafhængige AI-ekspertgruppe, som Kommissionen har udpeget. I disse retningslinjer udviklede AI-ekspertgruppen syv ikkebindende etiske principper for AI, som tilsigter at bidrage til at sikre, at AI er troværdig og etisk forsvarlig. De syv principper omfatter: menneskelig handlemulighed og menneskeligt tilsyn, teknologisk robusthed og sikkerhed, privatlivets fred og datastyring, gennemsigtighed, mangfoldighed, ikkeforskelsbehandling og retfærdighed, social og miljømæssig velfærd samt ansvarlighed. Uden at det berører de retligt bindende krav i denne forordning og anden gældende EU-ret, bidrager disse retningslinjer til udformningen af sammenhængende, troværdig og menneskecentreret AI i overensstemmelse med chartret og med de værdier, som Unionen bygger på. Ifølge AI-ekspertgruppens retningslinjer forstås der ved menneskelig handlemulighed og menneskeligt tilsyn, at AI-systemer udvikles og anvendes som et redskab, der betjener mennesker, respekterer menneskers værdighed og personlige uafhængighed, og som fungerer på en måde, der kan styres og tilses af mennesker på passende vis. Ved teknisk robusthed og sikkerhed forstås, at AI-systemer udvikles og anvendes på en måde, der giver mulighed for robusthed i tilfælde af problemer og modstandsdygtighed over for forsøg på at ændre AI-systemets anvendelse eller ydeevne, således at tredjeparters ulovlige anvendelse tillades, og minimerer utilsigtet skade. Ved privatlivets fred og datastyring forstås, at AI-systemer udvikles og anvendes i overensstemmelse med reglerne for beskyttelse af privatlivets fred og databeskyttelse, samtidig med at behandlingen af data lever op til høje standarder for kvalitet og integritet. Ved gennemsigtighed forstås, at AI-systemer udvikles og anvendes på en måde, der giver mulighed for passende sporbarhed og forklarlighed, samtidig med at personer gøres opmærksom på, at de kommunikerer eller interagerer med et AI-system, og at idriftsætterne informeres behørigt om det pågældende AI-systems kapacitet og begrænsninger og berørte personer om deres rettigheder. Ved mangfoldighed, ikkeforskelsbehandling og retfærdighed forstås, at AI-systemer udvikles og anvendes på en måde, der inkluderer forskellige aktører og fremmer lige adgang, ligestilling mellem kønnene og kulturel mangfoldighed, samtidig med at forskelsbehandlende virkninger og urimelige bias, der er forbudt i henhold til EU-retten eller national ret, undgås. Ved social og miljømæssig velfærd forstås, at AI-systemer udvikles og anvendes på en bæredygtig og miljøvenlig måde og på en måde, der gavner alle mennesker, samtidig med at de langsigtede virkninger for den enkelte, samfundet og demokratiet overvåges og vurderes. Anvendelsen af disse principper bør så vidt muligt omsættes i udformningen og anvendelsen af AI-modeller. De bør under alle omstændigheder tjene som grundlag for udarbejdelsen af adfærdskodekser i henhold til denne forordning. Alle interessenter, herunder industrien, den akademiske verden, civilsamfundet og standardiseringsorganisationer, opfordres til i relevant omfang at tage hensyn til de etiske principper ved udviklingen af frivillig bedste praksis og standarder.
(27)
Ačkoli přístup založený na posouzení rizik je základem pro přiměřený a účinný soubor závazných pravidel, je důležité připomenout Etické pokyny pro zajištění důvěryhodnosti UI z roku 2019, které vypracovala nezávislá Expertní skupina na vysoké úrovni pro AI jmenovaná Komisí. V těchto pokynech vypracovala uvedená skupina sedm nezávazných etických zásad týkajících se AI, které mají pomoci zajistit, aby byla AI důvěryhodná a vyhovovala požadavkům etiky. Předmětných sedm zásad obsahuje lidský faktor a dohled; technickou spolehlivost a bezpečnost; ochranu soukromí a správu dat; transparentnost; rozmanitost, nediskriminaci a spravedlnost; dobré sociální a environmentální podmínky; odpovědnost. Aniž jsou dotčeny právně závazné požadavky tohoto nařízení a jakékoli jiné použitelné právo předpisů Unie, přispívají uvedené pokyny k navrhování soudržné, důvěryhodné AI zaměřené na člověka v souladu s Listinou a s hodnotami, na nichž je Unie založena. Podle pokynů skupiny AI HLEG lidský faktor a dohled spočívá v tom, že systémy AI jsou vyvíjeny a používány jako nástroj, který slouží lidem, respektuje lidskou důstojnost a osobní autonomii a který funguje způsobem, jenž může být řádně ovládán a kontrolován člověkem. Technická spolehlivost a bezpečnost znamená, že systémy AI jsou vyvíjeny a používány takovým způsobem, jenž zajistí jejich spolehlivost v případě problémů a odolnost vůči pokusům změnit jejich použití nebo výkonnost tak, aby bylo umožněno protiprávní použití třetími stranami, a jímž je minimalizována neúmyslná újma. Ochranou soukromí a správou dat se rozumí, že systémy AI jsou vyvíjeny a používány v souladu s pravidly pro ochranu soukromí a osobních údajů při současném zpracovávání údajů, které splňují vysoké standardy kvality a integrity. Transparentností se rozumí, že systémy AI jsou vyvíjeny a používány tak, aby umožňovaly patřičnou sledovatelnost a vysvětlitelnost, aby lidé byli informováni o tom, že komunikují nebo interagují se systémem AI, a aby zavádějící subjekty byly řádně informovány o schopnostech a omezeních daného systému AI a dotčené osoby o svých právech. Rozmanitostí, zákazem diskriminace a spravedlností se rozumí, že systémy AI jsou vyvíjeny a používány tak, aby zahrnovaly nejrůznější aktéry a podporovaly rovný přístup, genderovou rovnost a kulturní rozmanitost a zároveň bránily diskriminačním dopadům a nespravedlivé zaujatosti, které jsou podle práva Unie a členských států zakázány. Dobrými sociálními a environmentálními podmínkami se rozumí, že systémy AI jsou vyvíjeny a používány udržitelným způsobem šetrným k životnímu prostředí, jakož i ve prospěch všech lidí při současném sledování a posuzování dlouhodobých dopadů na jednotlivce, společnost a demokracii. Uplatňování těchto zásad by se mělo pokud možno promítnout v rámci navrhování a používání modelů AI. V každém případě by měly sloužit jako základ pro vypracování kodexů chování podle tohoto nařízení. Všechny zúčastněné strany, včetně průmyslu, akademické obce, občanské společnosti a normalizačních organizací, se vyzývají, aby uvedené etické zásady ve vhodných případech zohledňovaly při vypracovávání dobrovolných osvědčených postupů a norem.
(28)
Ud over de mange nyttige anvendelser af AI kan den også misbruges og resultere i nye og effektive værktøjer til manipulerende, udnyttende og socialt kontrollerende former for praksis. Sådanne former for praksis er særlig skadelige og krænkende og bør forbydes, fordi de er i modstrid med Unionens værdier om respekt for menneskelig værdighed, frihed, ligestilling, demokrati og retsstatsprincippet og de grundlæggende rettigheder, der er nedfældet i chartret, herunder retten til beskyttelse mod forskelsbehandling, retten til databeskyttelse og retten til privatlivets fred og børns rettigheder.
(28)
Přestože využívání AI přináší celou řadu výhod, AI může být i zneužita a stát se zdrojem nových a výkonných nástrojů umožňujících praktiky spočívající v manipulaci, vykořisťování a sociální kontrole. Tyto praktiky jsou mimořádně škodlivé a nekalé a měly by být zakázány, neboť jsou v rozporu s hodnotami Unie, jimiž je úcta k lidské důstojnosti, svoboda, rovnost, demokracie a právní stát, a se základními právy zakotvenými v Listině, včetně práva na zákaz diskriminace, na ochranu údajů a soukromí a práv dítěte.
(29)
AI-baserede manipulerende teknikker kan anvendes til at overtale personer til at udvise uønsket adfærd eller til at vildlede dem ved at nudge dem til at træffe beslutninger på en måde, der undergraver og hæmmer deres autonomi, beslutningstagning og frie valg. Omsætning, ibrugtagning eller anvendelse af visse AI-systemer med det formål eller den virkning i væsentlig grad at fordreje menneskers adfærd, hvorved der sandsynligvis vil opstå betydelige skader, der navnlig kan have tilstrækkeligt vigtige negative indvirkninger på fysisk eller psykisk sundhed eller finansielle interesser, er særligt farlige og bør derfor forbydes. Sådanne AI-systemer anvender subliminale komponenter såsom lyd-, billed- eller videostimuli, som mennesker ikke kan opfatte, eftersom disse stimuli ligger uden for den menneskelige opfattelsesevne, eller andre manipulerende eller vildledende teknikker, der undergraver eller svækker menneskers autonomi, beslutningstagning eller frie valg på måder, hvor mennesker ikke er bevidste om disse teknikker, eller, hvis de er bevidste om dem, stadig kan blive vildledt eller ikke er i stand til at kontrollere eller modstå dem. Dette kan lettes f.eks. ved hjælp af maskine-hjerne-grænseflader eller virtuel virkelighed, da de giver mulighed for en højere grad af kontrol over, hvilke stimuli der præsenteres for personer, for så vidt som de i væsentlig grad kan fordreje deres adfærd på betydelig skadelig vis. Desuden kan AI-systemer også på anden måde udnytte sårbarheder hos en person eller en specifik gruppe af mennesker på grund af deres alder, handicap som omhandlet i Europa-Parlamentets og Rådets direktiv (EU) 2019/882 (16) eller en specifik social eller økonomisk situation, der sandsynligvis vil gøre disse personer mere sårbare over for udnyttelse, såsom personer, der lever i ekstrem fattigdom, og etniske eller religiøse mindretal.Sådanne AI-systemer kan bringes i omsætning, ibrugtages eller anvendes med den hensigt eller det resultat i væsentlig grad at fordreje en persons adfærd og på en måde, der forvolder eller med rimelig sandsynlighed kan forventes at ville forvolde den pågældende eller en anden person eller persongrupper betydelig skade, herunder skade, der kan akkumuleres over tid, og bør derfor forbydes. Det er ikke nødvendigvis muligt at antage, at der er en hensigt om at fordreje adfærd, hvis fordrejningen skyldes faktorer uden for AI-systemet, som er uden for udbyderens eller idriftsætterens kontrol, dvs. faktorer, der ikke med rimelighed kan forudses, og som udbyderen eller idriftsætteren af AI-systemet derfor ikke kan afbøde. Under alle omstændigheder er det ikke nødvendigt, at udbyderen eller idriftsætteren har til hensigt at forvolde betydelig skade, forudsat at en sådan skade er resultatet af AI-baserede manipulerende eller udnyttende former for praksis. Forbuddene mod sådanne former for AI-praksis supplerer bestemmelserne i Europa-Parlamentets og Rådets direktiv 2005/29/EF (17), navnlig at urimelig handelspraksis, der forårsager økonomisk eller finansiel skade for forbrugerne, er forbudt under alle omstændigheder, uanset om den indføres ved hjælp af AI-systemer eller på anden måde. Forbuddene mod manipulerende og udnyttende former for praksis i denne forordning bør ikke berøre lovlig praksis i forbindelse med lægebehandling såsom psykologbehandling af psykisk sygdom eller fysisk rehabilitering, når disse former for praksis udføres i overensstemmelse med gældende ret og medicinske standarder, for eksempel enkeltpersoners eller deres retlige repræsentanters udtrykkelige samtykke. Desuden bør almindelig og legitim handelspraksis, for eksempel på reklameområdet, der overholder gældende ret, ikke i sig selv anses for at udgøre skadelige AI-baserede manipulerende former for praksis.
(29)
Manipulativní techniky založené na AI lze použít k přesvědčování osob k nežádoucímu chování nebo k jejich klamání tím, že je podněcují k přijímání rozhodnutí tak, že je podkopávána a narušována jejich autonomie, rozhodování a svobodná volba. Uvádění na trh nebo do provozu nebo používání určitých systémů AI s cílem podstatně ovlivnit lidské chování nebo s takovým účinkem, kdy je pravděpodobné, že bude dotčeným osobám způsobena značná újma, zejména pokud jde o dostatečně významné nepříznivé dopady na fyzické či psychické zdraví nebo finanční zájmy, je obzvláště nebezpečné, a proto by mělo být zakázáno. Tyto systémy AI využívají podprahové signály, jako jsou zvukové a obrazové stimuly a videostimuly, které člověk není schopen vnímat, neboť jsou mimo rámec lidského vnímání, nebo jiné manipulativní nebo klamavé techniky, které narušují nebo oslabují autonomii, schopnost rozhodování nebo svobodnou volbu člověka tak, že tento vliv vědomě nezaznamená, nebo pokud si jej uvědomí, přesto se nechá oklamat nebo není schopen tyto techniky ovlivnit nebo jim odolat. To by mohlo být usnadněno například rozhraními stroj–mozek nebo virtuální realitou, neboť umožňují větší kontrolu nad tím, jakým stimulům je jedinec vystaven, pokud mohou tyto stimuly značnou měrou a výrazně škodlivým způsobem narušit jejich chování. Systémy AI mohou kromě toho zneužívat zranitelnost jednotlivců či určité skupiny osob i jiným způsobem, z důvodu jejich věku, zdravotního postižení ve smyslu směrnice Evropského parlamentu a Rady (EU) 2019/882 (16) nebo zvláštní sociální nebo ekonomické situace, v jejímž důsledku mohou být tyto osoby, jako jsou osoby žijící v extrémní chudobě nebo etnické nebo náboženské menšiny, více zranitelné vůči zneužívání. Tyto systémy mohou být uváděny na trh nebo do provozu nebo používány s cílem podstatně ovlivnit chování určitého jednotlivce nebo s takovým účinkem, a to takovým způsobem, že je dotčenému jednotlivci nebo jiné osobě nebo skupinám osob způsobena značná újma nebo lze takovou újmu důvodně předpokládat, přičemž se může jednat i o újmy, které v průběhu času kumulují; proto by měly být tyto systémy zakázány. Může se stát, že úmysl ovlivnit chování není možné předpokládat, pokud je takovéto ovlivnění způsobeno faktory mimo systém AI, které jsou mimo kontrolu poskytovatele nebo zavádějícího subjektu, konkrétně pokud jde o faktory, které nemusí být rozumně předvídatelné, a tudíž je poskytovatel nebo subjekt zavádějící systém AI nemohou zmírnit. V každém případě nemusí mít poskytovatel nebo zavádějící subjekt v úmyslu způsobit značnou újmu, pokud tato újma vyplývá z manipulativních nebo vykořisťujících praktik založených na AI. Zákazy těchto praktik AI se doplňují ustanovení obsažená ve směrnici Evropského parlamentu a Rady 2005/29/ES (17), zejména pokud jde o to, že nekalé obchodní praktiky vedoucí k hospodářské nebo finanční újmě pro spotřebitele jsou zakázány za všech okolností bez ohledu na to, zda jsou zavedeny prostřednictvím systémů AI, nebo jinak. Zákazy manipulativních a vykořisťujících praktik stanovené v tomto nařízení by neměly mít vliv na zákonné postupy v souvislosti s lékařskou péčí, jako je psychologická léčba duševní nemoci nebo tělesná rehabilitace, jsou-li tyto praktiky prováděny v souladu s platným právem a lékařskými normami, například pokud jde o výslovný souhlas osob nebo jejich právních zástupců. Kromě toho by za škodlivé manipulativní praktiky založené na AI neměly být samy o sobě považovány běžné a legitimní obchodní praktiky, například v oblasti reklamy, které jsou v souladu s platným právem.
(30)
Systemer til biometrisk kategorisering, der er baseret på fysiske personers biometriske data, såsom en persons ansigt eller fingeraftryk, med henblik på at udlede en persons politiske anskuelser, fagforeningsmedlemskab, religiøse eller filosofiske overbevisning, race, seksuelle forhold eller seksuelle orientering, bør forbydes. Dette forbud bør ikke omfatte lovlig mærkning, filtrering eller kategorisering af biometriske datasæt, der er indhentet i overensstemmelse med EU-retten eller national ret i henhold til biometriske data, såsom sortering af billeder efter hårfarve eller øjenfarve, som f.eks. kan anvendes inden for retshåndhævelse.
(30)
Měly by být zakázány systémy biometrické kategorizace, které jsou založeny na biometrických údajích fyzických osob, jako je obličej nebo otisky prstů jednotlivců, za účelem odvozování či vyvozování politických názorů jednotlivců, členství v odborových organizacích, náboženského nebo filozofického přesvědčení, rasy, sexuálního života nebo sexuální orientace. Tento zákaz by se neměl vztahovat na zákonné označování, filtrování nebo kategorizaci souborů biometrických údajů získaných v souladu s právem Unie nebo vnitrostátním právem na základě biometrických údajů, jako je třídění zobrazení podle barvy vlasů nebo očí, které lze použít například v oblasti vymáhání práva.
(31)
AI-systemer, hvor offentlige eller private aktører gør brug af social bedømmelse af fysiske personer, kan føre til forskelsbehandlende resultater og udelukkelse af visse grupper. De kan dermed krænke retten til værdighed og ikkeforskelsbehandling og værdierne lighed og retfærdighed. Sådanne AI-systemer evaluerer eller klassificerer fysiske personer eller grupper heraf på grundlag af en lang række datapunkter i tilknytning til deres sociale adfærd i flere sammenhænge eller kendte, udledte eller forudsagte personlige egenskaber eller personlighedstræk over en vis periode. Den sociale bedømmelse, der leveres af sådanne AI-systemer, kan føre til skadelig eller ugunstig behandling af fysiske personer eller hele grupper heraf i sociale sammenhænge, som ikke har noget at gøre med den sammenhæng, i hvilken dataene oprindeligt blev genereret eller indsamlet, eller til skadelig behandling, der er uforholdsmæssig eller uberettiget i forhold til betydningen af deres sociale adfærd. AI-systemer, der indebærer sådanne uacceptable former for bedømmelsespraksis, og som fører til et sådant skadeligt eller ugunstigt udfald, bør derfor forbydes. Dette forbud bør ikke berøre lovlige former for praksis med evaluering af fysiske personer, der udføres med et specifikt formål i overensstemmelse med EU-retten og national ret.
(31)
Systémy AI umožňující hodnocení sociálního kreditu fyzických osob ze strany veřejných či soukromých aktérů mohou vést k diskriminačním výsledkům a k vyloučení určitých skupin. Mohou porušovat právo na důstojnost a zákaz diskriminace a hodnoty rovnosti a spravedlnosti. Tyto systémy AI hodnotí nebo klasifikují fyzické osoby nebo skupiny fyzických osob na základě vícedatových bodů týkajících se jejich sociálního chování v různých kontextech nebo známých, odvozených či předvídaných osobních či osobnostních vlastností v průběhu určitého časového období. Sociální kredit získaný na základě těchto systémů AI může vést ke znevýhodňujícímu nebo nepříznivému zacházení s fyzickými osobami nebo s celými skupinami fyzických osob v sociálních kontextech nesouvisejících s kontextem, ve kterém byly dané údaje původně vytvořeny nebo shromážděny, případně ke znevýhodňujícímu zacházení, které je nepřiměřené nebo neodůvodněné s ohledem na závažnost jejich sociálního chování. Systémy AI, které tyto nepřijatelné postupy hodnocení zahrnují a vedou k takovým znevýhodňujícím nebo nepříznivým výsledkům, by proto měly být zakázány. Tímto zákazem by neměly být dotčeny zákonné postupy posuzování fyzických osob prováděné za zvláštním účelem v souladu s unijním či vnitrostátním právem.
(32)
Anvendelsen af AI-systemer til biometrisk fjernidentifikation i realtid af fysiske personer på offentlige steder med henblik på retshåndhævelse er særligt indgribende i de berørte personers rettigheder og friheder, for så vidt som det kan påvirke privatlivets fred for en stor del af befolkningen, skabe en følelse af konstant overvågning og indirekte afskrække fra udøvelsen af forsamlingsfriheden og andre grundlæggende rettigheder. Tekniske unøjagtigheder i AI-systemer, der er tilsigtet biometrisk fjernidentifikation af fysiske personer, kan føre til resultater behæftet med bias og have forskelsbehandlende virkning. Sådanne mulige resultater behæftet med bias og forskelsbehandlende virkninger er særligt relevante med hensyn til alder, etnicitet, race, køn og handicap. Desuden indebærer den øjeblikkelige virkning og de begrænsede muligheder for yderligere kontrol eller justeringer i forbindelse med anvendelsen af sådanne systemer, der fungerer i realtid, øgede risici for rettigheder og friheder for de berørte personer i forbindelse med eller påvirket af retshåndhævelsesaktiviteter.
(32)
Využívání systémů AI pro biometrickou identifikaci fyzických osob na dálku „v reálném čase“ ve veřejně přístupných prostorech pro účely vymáhání práva obzvláště zasahuje do práv a svobod dotčených osob, neboť může ovlivnit soukromý život velké části populace, vyvolávat pocit neustálého sledování a nepřímo odrazovat od využívání svobody shromažďování a dalších základních práv. Technické nepřesnosti systémů AI určených pro biometrickou identifikaci fyzických osob na dálku mohou vést ke zkresleným výsledkům a mít diskriminační účinky. Tyto případné zkreslené výsledky a diskriminační účinky jsou obzvláště relevantní, pokud jde o věk, etnickou příslušnost, rasu, pohlaví nebo zdravotní postižení. Bezprostřednost dopadu a omezené možnosti dalších kontrol nebo oprav v souvislosti s používáním těchto systémů fungujících v reálném čase s sebou navíc nesou zvýšené riziko z hlediska práv a svobod osob, kterých se týkají činnosti v oblasti vymáhání práva nebo jsou jimi dotčeny.
(33)
Anvendelsen af disse systemer med henblik på retshåndhævelse bør derfor forbydes, undtagen i udtømmende opregnede og snævert definerede situationer, hvor anvendelsen er strengt nødvendig for at opfylde en væsentlig samfundsinteresse, hvis betydning vejer tungere end risiciene. Disse situationer omfatter eftersøgning af visse ofre for kriminalitet, herunder forsvundne personer, visse trusler mod fysiske personers liv eller fysiske sikkerhed eller om et terrorangreb, samt lokalisering eller identifikation af gerningsmænd, der har begået, eller af personer, der mistænkes for at have begået, de strafbare handlinger, der er opført i et bilag til denne forordning, hvis disse strafbare handlinger i den berørte medlemsstat kan straffes med frihedsstraf eller en anden frihedsberøvende foranstaltning af en maksimal varighed på mindst fire år, og som de er defineret i denne medlemsstats ret. En sådan tærskel for frihedsstraf eller anden frihedsberøvende foranstaltning i overensstemmelse med national ret bidrager til at sikre, at lovovertrædelsen er af tilstrækkelig alvorlig karakter til potentielt at berettige anvendelsen af systemer til biometrisk fjernidentifikation i realtid. Desuden er listen over strafbare handlinger fastlagt i et bilag til denne forordning baseret på de 32 strafbare handlinger, der er opregnet i Rådets rammeafgørelse 2002/584/RIA (18), og tager hensyn til, at nogle af disse strafbare handlinger i praksis er mere relevante end andre, idet anvendelsen af biometrisk fjernidentifikation i realtid sandsynligvis i meget varierende grad kan være nødvendig og forholdsmæssig med henblik på lokalisering eller identifikation af en gerningsmand, der har begået, eller af en person, der mistænkes for at have begået, strafbare handlinger, der er opført på listen, og under hensyntagen til de sandsynlige forskelle i alvorligheden, sandsynligheden og omfanget af skaden eller mulige negative konsekvenser. En overhængende fare for fysiske personers liv eller fysiske sikkerhed kan også hidrøre fra en alvorlig afbrydelse af kritisk infrastruktur som defineret i artikel 2, nr. 4), i Europa-Parlamentets og Rådets direktiv (EU) 2022/2557 (19), hvor afbrydelse eller ødelæggelse af en sådan kritisk infrastruktur ville medføre overhængende fare for en persons liv eller fysiske sikkerhed, herunder gennem alvorlig skade på forsyningen af befolkningen med grundlæggende fornødenheder eller på udøvelsen af statens centrale funktion. Desuden bør denne forordning bevare de retshåndhævende myndigheders, grænsekontrolmyndighedernes, indvandringsmyndighedernes eller asylmyndighedernes mulighed for at foretage identitetskontrol under tilstedeværelse af den pågældende person i overensstemmelse med de betingelser, der er fastsat i EU-retten og national ret for en sådan kontrol. Navnlig bør retshåndhævende myndigheder, grænsekontrolmyndigheder, indvandringsmyndigheder eller asylmyndigheder kunne anvende informationssystemer i overensstemmelse med EU-retten eller national ret til at identificere personer, der under en identitetskontrol enten nægter at blive identificeret eller ikke er i stand til at oplyse eller bevise deres identitet, uden at det i henhold til denne forordning kræves, at der indhentes forhåndstilladelse. Dette kan f.eks. være en person, der er involveret i en forbrydelse, og som er uvillig eller ude af stand til på grund af en ulykke eller en helbredstilstand at afsløre sin identitet over for de retshåndhævende myndigheder.
(33)
Používání těchto systémů pro účely vymáhání práva by proto mělo být zakázáno s výjimkou taxativně vyjmenovaných a úzce definovaných situací, kdy je toto použití nezbytně nutné k dosažení významného veřejného zájmu, jehož význam převažuje nad uvedenými riziky. Tyto situace zahrnují hledání určitých obětí trestných činů, včetně pohřešovaných osob, některé případy ohrožení života nebo fyzické bezpečnosti fyzických osob nebo hrozby teroristického útoku a lokalizaci nebo identifikaci pachatelů nebo osob podezřelých ze spáchání trestných činů uvedených v příloze tohoto nařízení, pokud lze za tyto trestné činy uložit v dotčeném členském státě trest odnětí svobody s horní hranicí v délce nejméně čtyři roky nebo ochranné opatření spojené se zbavením osobní svobody ve stejné délce v souladu s právem tohoto členského státu. Tato hranice pro trest odnětí svobody nebo ochranné opatření spojené se zbavením osobní svobody v souladu s vnitrostátním právem přispívá k zajištění toho, že použití systémů biometrické identifikace na dálku v reálném čase bude možno potenciálně odůvodnit jen dostatečnou závažností daného trestného činu. Kromě toho je seznam trestných činů uvedený v příloze tohoto nařízení založen na seznamu 32 trestných činů uvedených v rámcovém rozhodnutí Rady 2002/584/SVV (18), přičemž je zohledněna skutečnost, že některé z těchto trestných činů budou v praxi pravděpodobně relevantnější než jiné v tom smyslu, že nezbytnost a přiměřenost využívání biometrické identifikace na dálku v reálném čase může být pravděpodobně velmi různorodá jak z hlediska praktické snahy o lokalizaci či identifikaci pachatelů jednotlivých trestných činů uvedených na seznamu nebo osob podezřelých z jejich spáchání, tak s ohledem na pravděpodobné rozdíly v závažnosti, pravděpodobnosti a rozsahu způsobené újmy nebo možných negativních důsledků. Bezprostřední ohrožení života nebo fyzické bezpečnosti fyzických osob by mohlo být rovněž důsledkem vážného narušení kritické infrastruktury ve smyslu čl. 2 bodu 4 směrnice Evropského parlamentu a Rady (EU) 2022/2557 (19), pokud by narušení nebo zničení této kritické infrastruktury vedlo k bezprostřednímu ohrožení života nebo fyzické bezpečnosti určité osoby, a to i v důsledku vážného narušení poskytování základních dodávek obyvatelstvu nebo výkonu základních funkcí státu. Kromě toho by toto nařízení mělo zachovat schopnost donucovacích orgánů, orgánů odpovědných za ochranu hranic, imigračních nebo azylových orgánů provádět kontroly totožnosti za přítomnosti dotčené osoby v souladu s podmínkami stanovenými pro tyto kontroly v právu Unie a vnitrostátním právu. Donucovací orgány, orgány odpovědné za ochranu hranic, imigrační nebo azylové orgány by zejména měly mít možnost používat informační systémy v souladu s právem Unie nebo vnitrostátním právem k identifikaci osob, které během kontroly totožnosti buď odmítnou být identifikovány, nebo nejsou schopny uvést či prokázat svou totožnost, aniž by tyto orgány byly podle tohoto nařízení povinny získat předchozí povolení. Může se jednat například o osobu zapojenou do trestného činu, která není ochotna nebo z důvodu nehody nebo zdravotního stavu schopna sdělit svou totožnost donucovacím orgánům.
(34)
For at sikre at disse systemer anvendes på en ansvarlig og forholdsmæssig måde, er det også vigtigt at fastslå, at der i hver af disse udtømmende opregnede og snævert definerede situationer bør tages hensyn til visse elementer, navnlig med hensyn til situationens karakter, som ligger til grund for anmodningen, og konsekvenserne af anvendelsen for alle berørte personers rettigheder og friheder samt de sikkerhedsforanstaltninger og betingelser, der er fastsat for brugen. Anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør kun idriftsættes til at bekræfte den specifikt målrettede persons identitet og bør begrænses til, hvad der er strengt nødvendigt for så vidt angår tidsperioden samt det geografiske og personmæssige anvendelsesområde, navnlig med hensyn til beviserne eller indikationerne vedrørende truslerne, ofrene eller gerningsmanden. Anvendelsen af systemet til biometrisk fjernidentifikation i realtid på offentlige steder bør kun tillades, hvis den relevante retshåndhævende myndighed har gennemført en konsekvensanalyse vedrørende grundlæggende rettigheder og, medmindre andet er fastsat i denne forordning, har registreret systemet i databasen som fastsat i denne forordning. Referencedatabasen over personer bør være passende for hvert enkelt anvendelsestilfælde i hver af de ovennævnte situationer.
(34)
Aby bylo zajištěno odpovědné a přiměřené používání těchto systémů, je rovněž důležité stanovit, že v každé z těchto taxativně vyjmenovaných a úzce definovaných situací je třeba zohlednit určité prvky, zejména pokud jde o povahu situace, která vedla k žádosti, o důsledky užití těchto systémů pro práva a svobody všech dotčených osob a o záruky a podmínky zajištěné při tomto použití. Kromě toho by používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva mělo být nasazeno pouze k potvrzení totožnosti konkrétně cílené fyzické osoby a mělo by být omezeno na to, co je nezbytně nutné, pokud jde o dobu, jakož i zeměpisný a osobní rozsah, zejména s ohledem na důkazy nebo údaje týkající se daných hrozeb, obětí nebo pachatele. Používání systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech by mělo být povoleno pouze v případě, že příslušný donucovací orgán dokončil posouzení dopadů na základní práva, a nestanoví-li toto nařízení jinak, zaregistroval systém v databázi podle tohoto nařízení. Pro každý případ použití v každé z výše uvedených situací by mělo být vhodné využití referenční databáze osob.
(35)
Enhver anvendelse af et system til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse bør være betinget af en udtrykkelig og specifik tilladelse fra en medlemsstats judicielle myndighed eller uafhængige administrative myndighed, hvis afgørelse er bindende. En sådan tilladelse bør i princippet indhentes forud for anvendelsen af AI- systemet med henblik på at identificere en eller flere personer. Undtagelser fra denne regel bør tillades i behørigt begrundede hastende tilfælde, dvs. i situationer, hvor behovet for at anvende de pågældende systemer er af en sådan art, at det er praktisk og objektivt umuligt at indhente en tilladelse, inden anvendelsen af AI-systemet påbegyndes. I sådanne hastende situationer bør anvendelsen af AI-systemet begrænses til det absolut nødvendige minimum og bør være underlagt passende sikkerhedsforanstaltninger og betingelser som fastsat i national ret og præciseret i forbindelse med hver enkelt hastesag af den retshåndhævende myndighed selv. Desuden bør den retshåndhævende myndighed i sådanne situationer anmode om en sådan tilladelse og samtidig begrunde, hvorfor den ikke har været i stand til at anmode om den tidligere, uden unødigt ophold og senest inden for 24 timer. Hvis en sådan tilladelse afvises, bør anvendelsen af systemer til biometrisk identifikation i realtid, der er knyttet til den pågældende tilladelse, indstilles med øjeblikkelig virkning, og alle data vedrørende en sådan anvendelse bør kasseres og slettes. Sådanne data omfatter inputdata, der er erhvervet direkte af et AI-system ved anvendelsen af et sådant system, samt resultater og output af den anvendelse, der er knyttet til den pågældende tilladelse. Det bør ikke omfatte input, der er erhvervet lovligt i overensstemmelse med anden EU-ret eller national ret. Under alle omstændigheder bør der ikke træffes nogen afgørelse, der har negative retsvirkninger for en person, udelukkende baseret på outputtet af systemet til biometrisk fjernidentifikation.
(35)
Každé použití systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva by mělo podléhat výslovnému a konkrétnímu povolení justičního orgánu nebo nezávislého správního orgánu členského státu, jehož rozhodnutí je závazné. Toto povolení by mělo být v zásadě získáno před použitím systému AI za účelem identifikace určité osoby nebo osob. Výjimky z tohoto pravidla by měly být povoleny v řádně odůvodněných situacích z důvodu naléhavosti, tedy v situacích, kdy je potřeba použít dotčené systémy tak naléhavá, že je fakticky a objektivně nemožné získat povolení před zahájením tohoto použití. V těchto naléhavých situacích by použití systému AI mělo být omezeno na absolutně nezbytné minimum a mělo by podléhat příslušným zárukám a podmínkám, které stanoví vnitrostátní právo a které konkrétně určuje v souvislosti s každým jednotlivým případem naléhavého použití samotný donucovací orgán. Kromě toho by měl donucovací orgán v uvedených situacích o toto povolení požádat a uvést důvody, proč o ně nemohl požádat dříve, bez zbytečného odkladu, nejpozději však do 24 hodin. Je-li takové povolení zamítnuto, mělo by být použití systémů biometrické identifikace v reálném čase spojené s tímto povolením zastaveno s okamžitým účinkem a veškeré údaje související s tímto použitím by měly být vyřazeny a vymazány. Uvedené údaje zahrnují vstupní údaje přímo získané systémem AI v průběhu jeho používání, jakož i výsledky a výstupy použití spojeného s tímto povolením. Neměly by zahrnovat vstupy, které jsou zákonně získány v souladu s jiným unijním nebo vnitrostátním právem. Výlučně na základě výstupu systému biometrické identifikace na dálku by každopádně nemělo být přijato žádné rozhodnutí, které má pro určitou osobu nepříznivé právní účinky.
(36)
Den relevante markedsovervågningsmyndighed og den nationale databeskyttelsesmyndighed bør for at kunne udføre deres opgaver i overensstemmelse med kravene fastsat i denne forordning og i de nationale regler underrettes om hver anvendelse af »systemet til biometrisk identifikation i realtid«. Markedsovervågningsmyndighederne og de nationale databeskyttelsesmyndigheder, der er blevet underrettet, bør forelægge Kommissionen en årlig rapport om anvendelsen af systemer til biometrisk identifikation i realtid.
(36)
Aby mohl plnit své úkoly v souladu s požadavky stanovenými v tomto nařízení a ve vnitrostátních předpisech, měl by být příslušný orgán dozoru nad trhem a vnitrostátní orgán pro ochranu osobních údajů o každém použití systému biometrické identifikace v reálném čase informován. Orgány dozoru nad trhem a vnitrostátní orgány pro ochranu osobních údajů, které byly o tomto použití informovány, by měly k používání systémů biometrické identifikace v reálném čase předložit Komisi výroční zprávu.
(37)
Endvidere bør det inden for denne forordnings udtømmende rammer fastsættes, at en sådan anvendelse på en medlemsstats område i overensstemmelse med denne forordning kun bør være mulig, hvis og i det omfang den pågældende medlemsstat har besluttet udtrykkeligt at give mulighed for at tillade en sådan anvendelse i sine detaljerede bestemmelser i national ret. Det står derfor medlemsstaterne frit for i henhold til denne forordning slet ikke at fastsætte en sådan mulighed eller kun at fastsætte en sådan mulighed med hensyn til nogle af de mål, der i henhold til denne forordning kan begrunde en godkendt anvendelse. Sådanne nationale regler bør meddeles Kommissionen inden for 30 dage efter deres vedtagelse.
(37)
Dále je vhodné v rámci taxativně vymezeném tímto nařízením stanovit, že toto použití na území členského státu v souladu s tímto nařízením by mělo být možné pouze v případě, že se dotčený členský stát rozhodl výslovně stanovit možnost povolit toto použití v podrobných pravidlech svého vnitrostátního práva, a v míře stanovené tamtéž. V důsledku toho se členské státy mohou podle tohoto nařízení i nadále dle vlastního uvážení rozhodnout, že tuto možnost vůbec nestanoví, případně že ji stanoví pouze ve vztahu k některým cílům, které mohou povolené použití určené v tomto nařízení odůvodnit. Tato vnitrostátní pravidla by měla být oznámena Komisi do 30 dnů od přijetí.
(38)
Anvendelsen af AI-systemer til biometrisk fjernidentifikation i realtid af fysiske personer på offentlige steder med henblik på retshåndhævelse indebærer nødvendigvis behandling af biometriske data. De bestemmelser i denne forordning, der med forbehold af visse undtagelser forbyder en sådan anvendelse, og som har grundlag i artikel 16 i TEUF, bør finde anvendelse som lex specialis, for så vidt angår reglerne om behandling af biometriske data i artikel 10 i direktiv (EU) 2016/680 og således regulere anvendelsen og behandlingen af biometriske data på en udtømmende måde. En sådan anvendelse og behandling bør derfor kun være mulig, i det omfang det er foreneligt med den ramme, der er fastsat i denne forordning, uden at der uden for denne ramme er mulighed for, at de kompetente myndigheder, når de handler med henblik på retshåndhævelse, kan anvende sådanne systemer og i forbindelse hermed behandle sådanne data af de grunde, der er anført i artikel 10 i direktiv (EU) 2016/680. I denne sammenhæng har denne forordning ikke til formål at tilvejebringe retsgrundlaget for behandling af personoplysninger i henhold til artikel 8 i direktiv (EU) 2016/680. Anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder til andre formål end retshåndhævelse, herunder af kompetente myndigheder, bør imidlertid ikke være omfattet af den specifikke ramme for en sådan anvendelse med henblik på retshåndhævelse som fastsat i denne forordning. En sådan anvendelse til andre formål end retshåndhævelse bør derfor ikke være underlagt kravet om en tilladelse i henhold til denne forordning og de gældende detaljerede bestemmelser i national ret, der kan give denne tilladelse virkning.
(38)
Používání systémů AI pro biometrickou identifikaci fyzických osob na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva nutně zahrnuje i zpracování biometrických údajů. Pravidla tohoto nařízení, která toto použití až na určité výjimky zakazují a která jsou založena na článku 16 Smlouvy o fungování Evropské unie, by se měla použít jako lex specialis, pokud jde o pravidla zpracování biometrických údajů uvedená v článku 10 směrnice (EU) 2016/680, což by toto použití a zpracování dotčených biometrických údajů vyčerpávajícím způsobem upravovalo. Toto použití a zpracování by proto mělo být možné jen v případě, že je slučitelné s rámcem stanoveným tímto nařízením, a mimo tento rámec by neměl existovat prostor pro to, aby příslušné orgány, pokud jednají za účelem vymáhání práva, tyto systémy používaly a zpracovávaly v souvislosti s nimi uvedené údaje z důvodů uvedených v článku 10 směrnice (EU) 2016/680. V této souvislosti není cílem tohoto nařízení poskytnout právní základ pro zpracování osobních údajů podle článku 8 směrnice (EU) 2016/680. Na používání systémů biometrické identifikace na dálku v reálném čase na veřejně přístupných prostorech pro jiné účely než vymáhání práva, a to i příslušnými orgány, by se však zvláštní rámec stanovený tímto nařízením pro používání uvedených systémů pro účely vymáhání práva vztahovat neměl. Toto použití pro jiné účely než vymáhání práva by proto nemělo podléhat požadavku na povolení podle tohoto nařízení a použitelným podrobným pravidlům vnitrostátního práva, která mohou toto povolení uvést v účinnost.
(39)
Enhver behandling af biometriske data og andre personoplysninger i forbindelse med anvendelsen af AI-systemer til biometrisk identifikation, undtagen i forbindelse med anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse som reguleret ved denne forordning, bør fortsat overholde alle de krav, der følger af artikel 10 i direktiv (EU) 2016/680. Med henblik på andre formål end retshåndhævelse forbyder artikel 9, stk. 1, i forordning (EU) 2016/679 og artikel 10, stk. 1, i forordning (EU) 2018/1725 behandling af biometriske data med begrænsede undtagelser som fastsat i disse artikler. I henhold til artikel 9, stk. 1, i forordning (EU) 2016/679 har anvendelsen af biometrisk fjernidentifikation til andre formål end retshåndhævelse allerede været genstand for forbudsafgørelser fra nationale databeskyttelsesmyndigheder.
(39)
Jakékoli zpracování biometrických údajů a dalších osobních údajů související s používáním systémů AI pro účely biometrické identifikace jinak než v souvislosti s používáním systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva podle tohoto nařízení by mělo i nadále splňovat všechny požadavky vyplývající z článku 10 směrnice (EU) 2016/680. Pro jiné účely než vymáhání práva zakazují čl. 9 odst. 1 nařízení (EU) 2016/679 a čl. 10 odst. 1 nařízení (EU) 2018/1725 zpracování biometrických údajů s výhradou omezených výjimek stanovených v uvedených článcích Vnitrostátní orgány pro ochranu osobních údajů již při uplatňování čl. 9 odst. 1 nařízení (EU) 2016/679 vydaly rozhodnutí, jejichž předmětem byl zákaz použití biometrické identifikace na dálku pro jiné účely než pro účely vymáhání práva.
(40)
I medfør af artikel 6a i protokol nr. 21 om Det Forenede Kongeriges og Irlands stilling, for så vidt angår området med frihed, sikkerhed og retfærdighed, der er knyttet som bilag til TEU og TEUF, er Irland ikke bundet af regler fastsat i denne forordnings artikel 5, stk. 1, første afsnit, litra g), i det omfang den finder anvendelse på brugen af systemer til biometrisk kategorisering til aktiviteter inden for politisamarbejde og retligt samarbejde i straffesager, artikel 5, stk. 1, første afsnit, litra d), i det omfang den finder anvendelse på brugen af AI-systemer, der er omfattet af nævnte bestemmelse, artikel 5, stk. 1, første afsnit, litra h), og stk. 2-6, og artikel 26, stk. 10, der er vedtaget på grundlag af artikel 16 i TEUF vedrørende medlemsstaternes behandling af personoplysninger under udøvelsen af aktiviteter, der er omfattet af tredje del, afsnit V, kapitel 4 eller 5, i TEUF, når Irland ikke er bundet af regler vedrørende former for strafferetligt samarbejde eller politisamarbejde, der kræver overholdelse af de bestemmelser, der er fastsat på grundlag af artikel 16 i TEUF.
(40)
V souladu s článkem 6a Protokolu č. 21 o postavení Spojeného království a Irska s ohledem na prostor svobody, bezpečnosti a práva, připojeného ke Smlouvě o EU a Smlouvě o fungování EU, není Irsko vázáno pravidly stanovenými v čl. 5 odst. 1 prvním pododstavci písm. g) v rozsahu, v němž se vztahují na používání systémů biometrické kategorizace k činnostem v oblasti policejní spolupráce a justiční spolupráce v trestních věcech, v čl. 5 odst. 1 prvním pododstavci písm. d) v rozsahu, v němž se vztahují na použití systémů AI, na něž se vztahuje uvedené ustanovení, v čl. 5 odst. 1 prvním pododstavci písm. h), v čl. 5 odst.2 až 6 a v čl. 26 odst. 10 tohoto nařízení přijatého na základě článku 16 Smlouvy o fungování EU, která se týkají zpracování osobních údajů členskými státy, vykonávají-li činnosti spadající do oblasti působnosti části třetí hlavy V kapitoly 4 nebo 5 Smlouvy o fungování EU, pokud není Irsko vázáno pravidly upravujícími formy justiční spolupráce v trestních věcech nebo policejní spolupráce, v jejichž rámci musí být dodržována ustanovení stanovená na základě článku 16 Smlouvy o fungování EU.
(41)
I medfør af artikel 2 og 2a i protokol nr. 22 om Danmarks stilling, der er knyttet som bilag til TEU og TEUF, er de regler, der er fastsat i denne forordnings artikel 5, stk. 1, første afsnit, litra g), i det omfang den finder anvendelse på brugen af systemer til biometrisk kategorisering til aktiviteter inden for politisamarbejde og retligt samarbejde i straffesager, artikel5, stk. 1, første afsnit, litra d), i det omfang den finder anvendelse på brugen af AI-systemer, der er omfattet af nævnte bestemmelse, artikel 5, stk. 1, første afsnit, litra h), og stk. 2-6, og artikel 26, stk. 10, der er vedtaget på grundlag af artikel 16 i TEUF vedrørende medlemsstaternes behandling af personoplysninger under udøvelsen af aktiviteter, der er omfattet af tredje del, afsnit V, kapitel 4 eller 5, i TEUF, ikke bindende for og finder ikke anvendelse i Danmark.
(41)
V souladu s články 2 a 2a Protokolu č. 22 o postavení Dánska, připojeného ke Smlouvě o EU a Smlouvě o fungování EU, nejsou pro Dánsko závazná ani použitelná pravidla stanovená čl. 5 odst. 1 prvním pododstavci písm. g) v rozsahu, v němž se vztahují na používání systémů biometrické kategorizace k činnostem v oblasti policejní spolupráce a justiční spolupráce v trestních věcech, v čl. 5 odst. 1 prvním pododstavci písm. d) v rozsahu, v němž se vztahují na použití systémů AI, na něž se vztahuje uvedené ustanovení, v čl. 5 odst. 1 prvním pododstavci písm. h), v čl. 5 odst.2 až 6 a čl. 26 odst. 10 tohoto nařízení přijatého na základě článku 16 Smlouvy o fungování EU, která se týkají zpracování osobních údajů členskými státy, vykonávají-li činnosti spadající do oblasti působnosti části třetí hlavy V kapitoly 4 nebo 5 Smlouvy o fungování EU.
(42)
I overensstemmelse med uskyldsformodningen bør fysiske personer i Unionen altid dømmes på grundlag af deres faktiske adfærd. Fysiske personer bør aldrig dømmes på grundlag af AI-forudsagt adfærd, der alene er baseret på deres profilering, personlighedstræk eller personlige egenskaber såsom nationalitet, fødested, bopæl, antal børn, gældsbyrde eller biltype, uden at der er begrundet mistanke om, at den pågældende person er involveret i kriminel aktivitet baseret på objektive verificerbare kendsgerninger, og uden menneskelig vurdering heraf. Risikovurderinger, der udføres med hensyn til fysiske personer med det formål at vurdere risikoen for, at de begår lovovertrædelser, eller forudsige forekomsten af en faktisk eller potentiel strafbar handling alene baseret på profilering af dem eller vurdering af deres personlighedstræk og personlige egenskaber, bør derfor forbydes. Under alle omstændigheder henviser dette forbud ikke til eller berører ikke risikoanalyser, der ikke er baseret på profilering af enkeltpersoner eller på enkeltpersoners personlighedstræk og personlige egenskaber, såsom AI-systemer, der anvender risikoanalyser til at vurdere sandsynligheden for virksomheders økonomiske svig på grundlag af mistænkelige transaktioner eller risikoanalyseværktøjer til at forudsige sandsynligheden for toldmyndighedernes lokalisering af narkotika eller ulovlige varer, f.eks. på grundlag af kendte narkotikaruter.
(42)
V souladu s presumpcí neviny by fyzické osoby v Unii měly být vždy posuzovány podle svého skutečného chování. Fyzické osoby by nikdy neměly být posuzovány na základě chování předvídaného AI pouze na základě jejich profilování, osobnostních rysů nebo charakteristik, jako je státní příslušnost, místo narození, místo bydliště, počet dětí, výše dluhu nebo typ vozidla, aniž by na základě objektivních ověřitelných skutečností existovalo důvodné podezření, že se dotčená osoba podílí na trestné činnosti, a aniž by bylo provedeno posouzení člověkem. Proto by mělo být zakázáno provádět posouzení rizik ve vztahu k fyzickým osobám za účelem posouzení pravděpodobnosti spáchání trestného činu těmito osobami nebo předvídání skutečného nebo potenciálního trestného činu pouze na základě profilování těchto osob nebo posouzení jejich osobnostních rysů a charakteristik. V každém případě se tento zákaz nevztahuje na analýzy rizik, které nejsou založeny na profilování jednotlivců nebo na osobnostních rysech a charakteristikách jednotlivců, jako jsou systémy AI využívající analýzu rizik k posouzení pravděpodobnosti finančních podvodů ze strany podniků na základě podezřelých transakcí nebo nástroje analýzy rizik, které umožňují předvídat pravděpodobnost lokalizace omamných látek nebo nezákonného zboží celními orgány, například na základě známých tras využívaných k obchodování s těmito látkami či zbožím, a tyto analýzy jím nejsou dotčeny.
(43)
Omsætning, ibrugtagning til dette specifikke formål eller anvendelse af AI-systemer, der opretter eller udvider ansigtsgenkendelsesdatabaser gennem ikkemålrettet indsamling af ansigtsbilleder fra internettet eller kameraovervågning, bør forbydes, da denne praksis øger følelsen af masseovervågning og kan føre til grove krænkelser af de grundlæggende rettigheder, herunder retten til privatlivets fred.
(43)
Uvádění na trh nebo do provozu pro tento konkrétní účel nebo používání systémů AI, které vytvářejí nebo rozšiřují databáze rozpoznávání obličeje prostřednictvím necíleného získávání zobrazení obličeje z internetu nebo záznamů CCTV, by mělo být zakázáno, protože tato praxe přispívá k pocitu hromadného sledování a může vést k hrubému porušování základních práv, včetně práva na soukromí.
(44)
Der er alvorlig bekymring over det videnskabelige grundlag for AI-systemer, der har til formål at identificere eller udlede følelser, navnlig da følelser varierer betydeligt på tværs af kulturer og situationer og endda hos en enkelt person. Blandt de vigtigste mangler ved sådanne systemer er den begrænsede pålidelighed, manglen på specificitet og den begrænsede generaliserbarhed. AI-systemer, der identificerer eller udleder fysiske personers følelser eller hensigter på grundlag af deres biometriske data, kan derfor føre til forskelsbehandlende resultater og kan være indgribende i de berørte personers rettigheder og friheder. Sådanne systemer kan i betragtning af den ulige magtfordeling på arbejdspladsen eller uddannelsesstedet, kombineret med disse systemers indgribende karakter, føre til skadelig eller ugunstig behandling af visse fysiske personer eller hele grupper heraf. Omsætningen, ibrugtagningen eller anvendelsen af AI-systemer, der er tilsigtet at påvise enkeltpersoners følelsesmæssige tilstand i situationer, der vedrører arbejdspladsen og uddannelsesstedet, bør derfor forbydes. Dette forbud bør ikke omfatte AI-systemer, der bringes i omsætning udelukkende af medicinske eller sikkerhedsmæssige årsager, såsom systemer tilsigtet terapeutisk brug.
(44)
Existují vážné obavy ohledně vědeckého základu systémů AI, jejichž cílem je zjišťovat nebo odvozovat emoce, zejména z toho důvodu, že vyjádření emocí se v jednotlivých kulturách a situacích značně liší, a dokonce i u téhož jednotlivce. Mezi hlavní nedostatky těchto systémů patří omezená spolehlivost, nedostatečná specifičnost a omezená možnost zobecňování. Systémy AI, které zjišťují nebo odvozují emoce nebo záměry fyzických osob na základě jejich biometrických údajů, proto mohou vést k diskriminačním výsledkům a mohou zasahovat do práv a svobod dotčených osob. Vzhledem k nerovnováze moci v kontextu práce nebo vzdělávání ve spojení s invazivní povahou těchto systémů by tyto systémy mohly vést ke znevýhodňujícímu nebo nepříznivému zacházení s některými fyzickými osobami nebo celými skupinami fyzických osob. Uvádění na trh, uvádění do provozu nebo používání systémů AI určených k použití za účelem zjišťování emočního stavu jednotlivců v situacích souvisejících s prací a vzděláváním by proto mělo být zakázáno. Tento zákaz by se neměl vztahovat na systémy AI uváděné na trh výhradně z lékařských nebo bezpečnostních důvodů, jako jsou systémy určené k terapeutickému použití.
(45)
Former for praksis, der er forbudt i henhold til EU-retten, herunder databeskyttelsesretten, retten om ikkeforskelsbehandling, forbrugerbeskyttelsesretten og konkurrenceretten, bør ikke berøres af denne forordning.
(45)
Tímto nařízením by neměly být dotčeny postupy, které jsou zakázány právem Unie, včetně práva v oblasti ochrany údajů, nediskriminace, ochrany spotřebitele a hospodářské soutěže.
(46)
Højrisiko-AI-systemer bør kun bringes i omsætning på EU-markedet, ibrugtages eller anvendes, hvis de overholder visse obligatoriske krav. Disse krav bør sikre, at højrisiko-AI-systemer, der er tilgængelige i Unionen, eller hvis output på anden måde anvendes i Unionen, ikke udgør uacceptable risici for vigtige samfundsinteresser i Unionen som anerkendt og beskyttet i EU-retten. På grundlag af den nye lovgivningsmæssige ramme, som præciseret i Kommissionens meddelelse om den blå vejledning om gennemførelsen af EU's produktregler 2022 (20), er den generelle regel, at mere end én EU-harmoniseringslovgivningsretsakt såsom Europa-Parlamentets og Rådets forordning (EU) 2017/745 (21) og (EU) 2017/746 (22) eller Europa-Parlamentets og Rådets direktiv 2006/42/EF (23) kan finde anvendelse på ét produkt, da tilgængeliggørelsen eller ibrugtagningen kun kan finde sted, når produktet overholder al gældende EU-harmoniseringslovgivning. For at sikre konsekvens og undgå unødvendige administrative byrder eller omkostninger bør udbydere af et produkt, der indeholder et eller flere højrisiko-AI-systemer, som kravene i nærværende forordning og kravene i EU-harmoniseringslovgivningen opført i et bilag til nærværende forordning, finder anvendelse på, have fleksibilitet med hensyn til at træffe operationelle beslutninger om, hvordan det sikres, at et produkt, der indeholder et eller flere AI-systemer, overholder alle gældende krav i EU-harmoniseringslovgivningen på en optimal måde. AI-systemer, der identificeres som højrisiko, bør begrænses til systemer, der har en betydelig skadelig indvirkning på personers sundhed, sikkerhed og grundlæggende rettigheder i Unionen, og en sådan begrænsning bør minimere enhver potentiel restriktion for international handel.
(46)
Vysoce rizikové systémy AI by měly být uváděny na trh Unie, do provozu nebo používány pouze v případě, že splňují určité závazné požadavky. Tyto požadavky by měly zajistit, aby vysoce rizikové systémy AI, které jsou dostupné v Unii nebo jejichž výstupy jsou v Unii jinak využívány, nepředstavovaly nepřijatelné riziko pro důležité veřejné zájmy Unie uznané a chráněné právem Unie. Na základě nového legislativního rámce, jak je objasněno ve sdělení Komise „Modrá příručka“ k provádění pravidel EU pro výrobky (2022) (20), je obecným pravidlem, že na jeden produkt může být použitelný více než jeden právní akt náležející mezi harmonizační právní předpis Unie, jako jsou nařízení Evropského parlamentu a Rady (EU) 2017/745 (21) a 2017/746 (22) nebo směrnice Evropského parlamentu a Rady 2006/42/ES (23), neboť k dodání na trh nebo uvedení do provozu může dojít pouze v případě, že je produkt v souladu se všemi platnými harmonizačními právními předpisy Unie. Aby byla zajištěna soudržnost a zabránilo se zbytečné administrativní zátěži nebo nákladům, poskytovatelé produktu, který obsahuje jeden nebo více vysoce rizikových systémů AI, na něž se vztahují požadavky tohoto nařízení a harmonizačních právních předpisů Unie uvedených v příloze tohoto nařízení, by měli být flexibilní, pokud jde o přijímání provozních rozhodnutí o tom, jak optimálně zajistit soulad produktu obsahujícího jeden nebo více systémů AI se všemi platnými požadavky harmonizačních právních předpisů Unie. Označení systémů AI jako vysoce rizikové by mělo být omezeno na systémy, které mají významný škodlivý dopad na zdraví, bezpečnost a základní práva osob v Unii, a tímto omezením by se mělo minimalizovat jakékoli případné omezení mezinárodního obchodu.
(47)
AI-systemer kan have negative virkninger for personers sundhed og sikkerhed, navnlig når sådanne systemer anvendes som produkters sikkerhedskomponenter. I overensstemmelse med målene for EU-harmoniseringslovgivningen om at lette den frie bevægelighed for produkter i det indre marked og sørge for, at kun sikre produkter, der desuden overholder alle de stillede krav, kommer ind på markedet, er det vigtigt, at de sikkerhedsrisici, som et produkt som helhed kan udgøre på grund af dets digitale komponenter, herunder AI-systemer, behørigt forebygges og afbødes. F.eks. bør stadig mere autonome robotter, hvad enten det er i forbindelse med fremstilling eller personlig bistand og pleje, være i stand til at fungere sikkert og udføre deres funktioner i komplekse miljøer. Også i sundhedssektoren, hvor det drejer sig direkte om liv og sundhed, bør stadig mere avancerede diagnosesystemer og systemer, der understøtter menneskers beslutninger, være pålidelige og nøjagtige.
(47)
Systémy AI by mohly mít nepříznivý dopad na zdraví a bezpečnost osob, zejména pokud tyto systémy fungují jako bezpečnostní komponenty. V souladu s cíli harmonizačních právních předpisů Unie, které mají usnadnit volný pohyb produktů na vnitřním trhu a zajistit, aby se na trh dostávaly pouze produkty bezpečné a jinak vyhovující, je důležitá náležitá prevence a zmírňování bezpečnostních rizik, která mohou případně vyplývat z produktu jako celku v důsledku jeho digitálních prvků, včetně systémů AI. Například stále autonomnější roboti, ať už v kontextu výroby, nebo osobní asistence a péče, by měli být schopni bezpečně fungovat a vykonávat své funkce ve složitých prostředích. Obdobně ve zdravotnictví, kde jsou život a zdraví vystaveny obzvláště vysokému riziku, by měly být stále sofistikovanější diagnostické systémy a systémy podporující lidská rozhodnutí spolehlivé a přesné.
(48)
Omfanget af et AI-systems negative indvirkning på de grundlæggende rettigheder, der er beskyttet af chartret, er særlig relevant, når et AI-system klassificeres som højrisiko. Disse rettigheder omfatter retten til menneskelig værdighed, respekt for privatliv og familieliv, beskyttelse af personoplysninger, ytrings- og informationsfrihed, forsamlings- og foreningsfrihed, retten til ikkeforskelsbehandling, retten til uddannelse, forbrugerbeskyttelse, arbejdstagerrettigheder, rettigheder for personer med handicap, ligestilling mellem kønnene, intellektuelle ejendomsrettigheder, retten til effektive retsmidler og til en retfærdig rettergang, retten til et forsvar og uskyldsformodningen samt retten til god forvaltning. Ud over disse rettigheder er det vigtigt at fremhæve det forhold, at børn har specifikke rettigheder som fastsat i artikel 24 i chartret og i De Forenede Nationers konvention om barnets rettigheder, yderligere udviklet i generel bemærkning nr. 25 vedrørende det digitale miljø fra FN's Komité for Barnets Rettigheder, som begge kræver, at der tages hensyn til børns sårbarhed, og at der ydes den beskyttelse og omsorg, der er nødvendig for deres trivsel. Den grundlæggende ret til et højt miljøbeskyttelsesniveau, der er nedfældet i chartret og gennemført i Unionens politikker, bør også tages i betragtning ved vurderingen af alvorligheden af den skade, som et AI-system kan forvolde, herunder i forbindelse med personers sundhed og sikkerhed.
(48)
Pro klasifikaci určitého systému AI jako vysoce rizikového je zvláště relevantní míra nepříznivého dopadu takového systému AI na základní práva chráněná Listinou. Tato práva zahrnují právo na lidskou důstojnost, respektování soukromého a rodinného života, ochranu osobních údajů, svobodu projevu a informací, svobodu shromažďování a sdružování, právo na nediskriminaci, právo na vzdělání, ochranu spotřebitele, práva pracovníků, práva osob se zdravotním postižením, genderovou rovnost, práva duševního vlastnictví, právo na účinnou právní ochranu a spravedlivý proces, právo na obhajobu a presumpci neviny a právo na řádnou správu. Kromě těchto práv je třeba zdůraznit skutečnost, že v článku 24 Listiny a v Úmluvě OSN o právech dítěte jsou zakotvena zvláštní práva dětí, dále rozpracovaná ve vztahu k digitálnímu prostředí v obecné připomínce č. 25 k Úmluvě o právech dítěte, přičemž oba dokumenty vyžadují zohlednění zranitelnosti dětí a poskytnutí takové ochrany a péče, která je nezbytná pro jejich blaho. Při posuzování závažnosti újmy, kterou může systém AI způsobit, a to i ve vztahu ke zdraví a bezpečnosti osob, by mělo být zohledněno také základní právo na vysokou úroveň ochrany životního prostředí zakotvené v Listině a provedené do politik Unie.
(49)
For så vidt angår højrisiko-AI-systemer, der er sikkerhedskomponenter i produkter eller systemer, eller som selv er produkter eller systemer, der er omfattet af anvendelsesområdet for Europa-Parlamentets og Rådets forordning (EF) nr. 300/2008 (24), Europa-Parlamentets og Rådets forordning (EU) nr. 167/2013 (25), Europa-Parlamentets og Rådets forordning (EU) nr. 168/2013 (26), Europa-Parlamentets og Rådets direktiv 2014/90/EU (27), Europa-Parlamentets og Rådets direktiv (EU) 2016/797 (28), Europa-Parlamentets og Rådets forordning (EU) 2018/858 (29), Europa-Parlamentets og Rådets forordning (EU) 2018/1139 (30) og Europa-Parlamentets og Rådets forordning (EU) 2019/2144 (31), bør disse retsakter ændres for at sikre, at Kommissionen, på grundlag af de særlige tekniske og reguleringsmæssige forhold i hver enkelt sektor og uden at gribe ind i de eksisterende forvaltnings-, overensstemmelsesvurderings- og håndhævelsesmekanismer og myndigheder, der er fastsat heri, tager hensyn til de obligatoriske krav til højrisiko-AI-systemer, der er fastsat i nærværende forordning, når den vedtager relevante delegerede retsakter eller gennemførelsesretsakter på grundlag af disse retsakter.
(49)
Pokud jde o vysoce rizikové systémy AI, které jsou bezpečnostními komponentami produktů nebo systémů, případně které jsou samy produkty nebo systémy spadajícími do působnosti nařízení Evropského parlamentu a Rady (ES) č. 300/2008 (24), nařízení Evropského parlamentu a Rady (EU) č. 167/2013 (25), nařízení Evropského parlamentu a Rady (EU) č. 168/2013 (26), směrnice Evropského parlamentu a Rady 2014/90/EU (27), směrnice Evropského parlamentu a Rady (EU) 2016/797 (28), nařízení Evropského parlamentu a Rady (EU) 2018/858 (29), nařízení Evropského parlamentu a Rady (EU) 2018/1139 (30) a nařízení Evropského parlamentu a Rady (EU) 2019/2144 (31), je vhodné tyto akty pozměnit s cílem zajistit, aby Komise při přijímání jakýchkoli relevantních aktů v přenesené pravomoci nebo prováděcích aktů na základě výše uvedených aktů zohledňovala povinné požadavky na vysoce rizikové systémy AI stanovené v tomto nařízení na základě technických a regulačních specifik jednotlivých odvětví, aniž by zasahovala do stávajících mechanismů správy, posuzování shody a prosazování ani do orgánů zřízených v rámci uvedených aktů.
(50)
For så vidt angår AI-systemer, der er sikkerhedskomponenter i produkter, eller som selv er produkter, der er omfattet af anvendelsesområdet for en vis EU-harmoniseringslovgivning, der er opført i et bilag til denne forordning, er det hensigtsmæssigt at klassificere dem som højrisiko i henhold til denne forordning, hvis det pågældende produkt overensstemmelsesvurderes af en tredjeparts overensstemmelsesvurderingsorgan i henhold til den relevante EU-harmoniseringslovgivning. Sådanne produkter er navnlig maskiner, legetøj, elevatorer, udstyr og sikringssystemer tilsigtet anvendelse i eksplosionsfarlig atmosfære, radioudstyr, trykudstyr, udstyr til fritidsfartøjer, tovbaneanlæg, gasapparater, medicinsk udstyr, in vitro-diagnostisk medicinsk udstyr, bilindustrien og luftfart.
(50)
Pokud jde o systémy AI, které jsou bezpečnostními komponentami produktů nebo jsou produkty samy o sobě a které spadají do oblasti působnosti některých harmonizačních právních předpisů Unie uvedených v příloze tohoto nařízení, je vhodné je podle tohoto nařízení klasifikovat jako vysoce rizikové, pokud u dotyčného produktu provádí postup posuzování shody subjekt, který činnosti posuzování shody vykonává jakožto třetí strana podle příslušných harmonizačních právních předpisů Unie. Těmito produkty jsou zejména strojní zařízení, hračky, výtahy, zařízení a ochranné systémy určené k použití v prostředí s nebezpečím výbuchu, rádiová zařízení, tlaková zařízení, zařízení pro rekreační plavidla, lanové dráhy, spotřebiče plynných paliv, zdravotnické prostředky a diagnostické zdravotnické prostředky in vitro a automobilový průmysl a letectví.
(51)
Klassificeringen af et AI-system som højrisiko i henhold til denne forordning bør ikke nødvendigvis betyde, at det produkt, hvori AI-systemet indgår som sikkerhedskomponent, eller selve AI-systemet som produkt betragtes som højrisiko i henhold til de kriterier, der er fastsat i den relevante EU-harmoniseringslovgivning, der finder anvendelse på produktet. Dette er navnlig tilfældet med forordning (EU) 2017/745 og (EU) 2017/746, hvor en tredjepart foretager overensstemmelsesvurderinger af mellemrisiko- og højrisikoprodukter.
(51)
Klasifikace určitého systému AI jako vysoce rizikového podle tohoto nařízení by neměla nutně znamenat, že produkt, jehož je daný systém AI bezpečnostní komponentou, případně tento samotný systém AI jako produkt, je považován za vysoce rizikový podle kritérií stanovených v příslušných harmonizačních právních předpisech Unie, které se na tento produkt vztahují. To platí zejména pro nařízení (EU) 2017/745 a (EU) 2017/746, kde je pro produkty se středním a vysokým rizikem vyžadováno posuzování shody subjektem, který vykonává činnosti posuzování shody jakožto třetí strana.
(52)
For så vidt angår selvstændige AI-systemer, dvs. andre højrisiko-AI-systemer end dem, der er produkters sikkerhedskomponenter, eller selv er produkter, bør de klassificeres som højrisiko, hvis de set i lyset af deres tilsigtede formål udgør en høj risiko for skade på sundhed og sikkerhed eller personers grundlæggende rettigheder, idet der tages hensyn til både sandsynligheden for den mulige skade og dens alvorlighed, og hvis de anvendes på en række specifikt foruddefinerede områder, der er angivet i denne forordning. Disse systemer udpeges ved hjælp af den samme metode og ud fra de samme kriterier som i forbindelse med eventuelle fremtidige ændringer af listen over højrisiko-AI-systemer, som Kommissionen bør tillægges beføjelser til at vedtage ved hjælp af delegerede retsakter for at tage hensyn til den hurtige teknologiske udvikling samt de potentielle ændringer i anvendelsen af AI-systemer.
(52)
Pokud jde o samostatné systémy AI, konkrétně vysoce rizikové systémy AI s výjimkou těch, které představují bezpečnostní komponenty produktů nebo které jsou samy produkty, je vhodné je klasifikovat jako vysoce rizikové, pokud s ohledem na zamýšlený účel představují vysoké riziko újmy na zdraví a bezpečnosti nebo na základních právech osob s přihlédnutím jak k závažnosti možné újmy, tak k pravděpodobnosti, že nastane, a pokud jsou využívány v celé řadě oblastí uvedených v tomto nařízení, které jsou výslovně definovány předem. Identifikace těchto systémů je založena na stejné metodice a kritériích, jaké se předpokládají i u jakýchkoli budoucích změn seznamu vysoce rizikových systémů AI, k jejichž přijímání by měla být Komise zmocněna prostřednictvím aktů v přenesené pravomoci s cílem zohlednit rychlé tempo technologického vývoje, jakož i možné změny v používání systémů AI.
(53)
Det er også vigtigt at præcisere, at der kan være særlige tilfælde, hvor AI-systemer, der henvises til i foruddefinerede områder som angivet i denne forordning, ikke medfører en væsentlig risiko for at skade de retlige interesser, der beskyttes på disse områder, fordi de ikke i væsentlig grad påvirker beslutningstagningen eller ikke skader disse interesser væsentligt. Med henblik på denne forordning bør et AI-system, der ikke i væsentlig grad påvirker resultatet af beslutningstagning, forstås som et AI-system, der ikke har indvirkning på substansen og dermed resultatet af beslutningstagning, uanset om den er menneskelig eller automatiseret. Et AI-system, der ikke i væsentlig grad påvirker resultatet af beslutningstagning, kan omfatte situationer, hvor en eller flere af følgende betingelser er opfyldt. Den første sådanne betingelse bør være, at AI-systemet er tilsigtet at udføre en snæver proceduremæssig opgave, f.eks. et AI-system, der omdanner ustrukturerede data til strukturerede data, et AI-system, der klassificerer indgående dokumenter i kategorier, eller et AI-system, der anvendes til at påvise duplikater blandt et stort antal ansøgninger. Disse opgaver er så snævre og begrænsede, at de kun udgør begrænsede risici, som ikke øges som følge af anvendelsen af et AI-system i en af de sammenhænge, der er opført som en højrisikoanvendelse i et bilag til denne forordning. Den anden betingelse bør være, at den opgave, AI-systemet udfører, er tilsigtet at forbedre resultatet af en tidligere afsluttet menneskelig aktivitet, der kan være relevant med henblik på de højrisikoanvendelser, der er opført i et bilag til denne forordning. I betragtning af disse karakteristika tilføjer AI-systemet kun et ekstra lag til en menneskelig aktivitet og udgør dermed en lavere risiko. Denne betingelse ville f.eks. gælde AI-systemer, der er tilsigtet at forbedre det sprog, der er anvendt i tidligere udarbejdede dokumenter, f.eks. hvad angår professionel tone og akademisk sprogbrug eller ved at tilpasse teksten til et bestemt produktbudskab. Den tredje betingelse bør være, at AI-systemet er tilsigtet at påvise beslutningsmønstre eller afvigelser fra tidligere beslutningsmønstre. Risikoen vil være lavere, fordi anvendelsen af AI-systemet følger efter en tidligere afsluttet menneskelig vurdering, som det ikke er tiltænkt at skulle erstatte eller påvirke uden en ordentlig menneskelig gennemgang. Sådanne AI-systemer omfatter f.eks. systemer, der ud fra en lærers bestemte bedømmelsesmønster kan anvendes til efterfølgende at kontrollere, om læreren kan have afveget fra bedømmelsesmønstret, således at potentielle uoverensstemmelser eller uregelmæssigheder identificeres. Den fjerde betingelse bør være, at AI-systemet er tilsigtet kun at udføre en forberedende opgave inden en vurdering, der er relevant med henblik på de AI-systemer, der er opført i et bilag til denne forordning, hvilket gør den mulige virkning af systemets output meget lav med hensyn til at udgøre en risiko for den efterfølgende vurdering. Denne betingelse omfatter bl.a. intelligente løsninger til filhåndtering, som indeholder forskellige funktioner såsom indeksering, søgning, tekst- og talebehandling eller sammenkobling af data til andre datakilder, eller AI-systemer, der anvendes til oversættelse af oprindelige dokumenter. Under alle omstændigheder bør AI-systemer, som anvendes i tilfælde af højrisikoanvendelser, der er opført i et bilag til denne forordning, betragtes som at udgøre en betydelig risiko for skade på fysiske personers sundhed, sikkerhed eller grundlæggende rettigheder, hvis AI-systemet indebærer profilering som omhandlet i artikel 4, nr. 4), i forordning (EU) 2016/679, eller artikel 3, nr. 4), i direktiv (EU) 2016/680 eller artikel 3, nr. 5), i forordning (EU) 2018/1725. For at sikre sporbarhed og gennemsigtighed bør en udbyder, der skønner, at et AI-system ikke udgør en høj risiko på grundlag af de ovenfor omhandlede betingelser, udarbejde dokumentation for vurderingen, inden systemet bringes i omsætning eller ibrugtages, og bør efter anmodning forelægge denne dokumentation for de nationale kompetente myndigheder. En sådan udbyder bør være forpligtet til at registrere AI-systemet i den EU-database, der oprettes i henhold til nærværende forordning. Med henblik på at give yderligere vejledning om den praktiske gennemførelse af de betingelser, i henhold til hvilke de AI-systemer, der er opført i et bilag til nærværende forordning, undtagelsesvis er ikkehøjrisiko, bør Kommissionen efter høring af AI-udvalget udarbejde retningslinjer, der præciserer denne praktiske gennemførelse, suppleret med en omfattende liste over praktiske eksempler på anvendelsestilfælde af AI-systemer, der er højrisiko, og anvendelsestilfælde, der ikke er.
(53)
Je rovněž důležité vyjasnit, že mohou existovat zvláštní případy, kdy systémy AI uvedené v předem vymezených oblastech specifikovaných v tomto nařízení nezakládají významné riziko poškození právních zájmů, které jsou v těchto oblastech chráněny, protože nemají podstatný vliv na rozhodování nebo tyto zájmy podstatně nepoškozují. Pro účely tohoto nařízení by se systémem AI, který nemá podstatný vliv na výsledek rozhodování, měl rozumět systém AI, který nemá vliv na podstatu, a tím ani na výsledek rozhodování, ať už jde o lidské, nebo automatizované rozhodování. Systém AI, který podstatně neovlivňuje výsledek rozhodování, by mohl zahrnovat situace, kdy je splněna jedna nebo více z následujících podmínek. Prvním takovou podmínkou by mělo být, že je daný systém AI určen k plnění úzce vymezeného procedurálního úkolu, jako je systém AI, který přeměňuje nestrukturovaná data na data strukturovaná, systém AI, který třídí příchozí dokumenty do kategorií, nebo systém AI, který se používá k odhalování duplicit mezi velkým počtem žádostí. Tyto úkoly jsou natolik úzké a omezené povahy, že představují pouze omezená rizika, která se použitím systému AI v kontextu uvedeném na seznamu v příloze tohoto nařízení jako vysoce rizikové použití nezvyšují. Druhou podmínkou by mělo být, že úkol prováděný daným systémem AI je určen ke zlepšení výsledku dříve dokončené lidské činnosti, která může být relevantní pro účely vysoce rizikového použití uvedeného v seznamu v příloze tohoto nařízení. Vzhledem k těmto vlastnostem přidává takový systém AI pouze další vrstvu k lidské činnosti, a riziko je tudíž nízké. Tato podmínka by se například vztahovala na systémy AI, které mají zdokonalit formulace použité v dříve vypracovaných dokumentech, například z hlediska odborného vyjadřování, akademického stylu nebo přizpůsobení textu určitému sdělení značky. Třetí podmínkou by mělo být, že je daný systém AI určen k odhalování vzorců rozhodování nebo odchylek od předchozích vzorců rozhodování. Riziko by bylo sníženo, protože použití takového systému AI následuje po dříve dokončeném lidském posouzení, které jím nemá být bez řádného lidského přezkumu nahrazeno ani ovlivněno. Mezi takové systémy AI patří například ty, které mohou být při určitém způsobu známkování ze strany učitele použity k následné kontrole, zda se učitel od tohoto způsobu známkování mohl odchýlit, a upozornit tak na možné nesrovnalosti nebo anomálie. Čtvrtou podmínkou by mělo být, že je daný systém AI určen k plnění úkolu, který je pouze přípravou k posouzení relevantnímu pro účely systémů AI uvedených v příloze tohoto nařízení, a možný dopad výstupu systému z hlediska rizika, jež pro následné posouzení představuje, je tudíž velmi nízký. Tato podmínka se vztahuje mimo jiné na inteligentní řešení pro zpracování souborů, která zahrnují různé funkce jako indexování, vyhledávání, zpracování textu a řeči nebo propojení dat s jinými zdroji údajů, nebo systémy AI používané pro překlad výchozích dokumentů. V každém případě by se mělo mít za to, že tyto systémy AI používané v případech vysoce rizikového použití uvedených v příloze tohoto nařízení představují významné riziko poškození zdraví, bezpečnosti nebo základních práv, pokud systém AI zahrnuje profilování ve smyslu čl. 4 bodu. 4 nařízení (EU) 2016/679, čl. 3 bodu 4 směrnice (EU) 2016/680 nebo čl. 3 bodu 5 nařízení 2018/1725. Aby byla zajištěna sledovatelnost a transparentnost, měl by poskytovatel, který se na základě výše uvedených podmínek domnívá, že určitý systém AI vysoce rizikový není, vypracovat dokumentaci o posouzení před uvedením tohoto systému na trh nebo do provozu a měl by tuto dokumentaci na požádání poskytnout příslušným vnitrostátním orgánům. Tento poskytovatel by měl mít povinnost zaregistrovat systém AI v databázi EU zřízené podle tohoto nařízení. Jako další pokyny pro praktické provádění podmínek, podle nichž systémy AI uvedené v příloze tohoto nařízení vysoce rizikové výjimečně nejsou, by Komise měla po konzultaci s radou poskytnout pokyny upřesňující toto praktické provádění doplněné komplexním seznamem praktických příkladů použití vysoce rizikových systémů AI a příkladů použití systémů AI, jež vysoce rizikové nejsou.
(54)
Da biometriske data udgør en særlig kategori af personoplysninger, er det hensigtsmæssigt at klassificere flere kritiske anvendelsestilfælde af biometriske systemer som højrisiko, for så vidt som deres anvendelse er tilladt i henhold til relevant EU-ret og national ret. Tekniske unøjagtigheder i AI-systemer, der er tilsigtet biometrisk fjernidentifikation af fysiske personer, kan føre til resultater behæftet med bias og have forskelsbehandlende virkning. Risikoen for sådanne mulige resultater behæftet med bias og forskelsbehandlende virkninger er særligt relevante med hensyn til alder, etnicitet, race, køn og handicap. Systemer til biometrisk fjernidentifikation bør derfor klassificeres som højrisiko i betragtning af de risici, systemerne udgør. En sådan klassificering udelukker AI-systemer, der tilsigtes anvendt til biometrisk verifikation, herunder autentifikation, hvis eneste formål er at bekræfte, at en bestemt fysisk person er den person, vedkommende hævder at være, og bekræfte en fysisk persons identitet udelukkende med det formål at få adgang til en tjeneste, låse udstyr op eller have sikker adgang til lokaler. Desuden bør AI-systemer, der tilsigtes anvendt til biometrisk kategorisering ifølge følsomme egenskaber eller karakteristika, som er beskyttet i henhold til artikel 9, stk. 1, i forordning (EU) 2016/679, på grundlag af biometriske data, for så vidt som disse ikke er forbudt i henhold til nærværende forordning, og systemer til følelsesgenkendelse, der ikke er forbudt i henhold til nærværende forordning, klassificeres som højrisiko. Biometriske systemer, der udelukkende er tilsigtet anvendt til at muliggøre cybersikkerhedsforanstaltninger og foranstaltninger til beskyttelse af personoplysninger, bør ikke betragtes som højrisiko-AI-systemer.
(54)
Vzhledem k tomu, že zvláštní kategorii osobních údajů představují biometrické údaje, je vhodné klasifikovat jako vysoce rizikové několik případů kritického použití biometrických systémů, pokud je jejich používání povoleno podle příslušného práva Unie a vnitrostátního práva. Technické nepřesnosti systémů AI určených pro biometrickou identifikaci fyzických osob na dálku mohou vést ke zkresleným výsledkům a mít diskriminační účinky. Riziko takto předpojatých výsledků a diskriminačních účinků je obzvláště relevantní ve vztahu k věku, etnické příslušnosti, rase, pohlaví nebo zdravotnímu postižení. Systémy biometrické identifikace na dálku by proto s ohledem na rizika, která představují, měly být klasifikovány jako vysoce rizikové. Taková klasifikace se nevztahuje na systémy AI určené k biometrickému ověřování, včetně autentizace, jejichž jediným účelem je potvrdit, zda je konkrétní fyzická osoba osobou, za niž se prohlašuje, a systémy, které se používají k potvrzení totožnosti fyzické osoby za jediným účelem, kterým je získání přístupu ke službě, odblokování zařízení nebo získání bezpečného přístupu k prostorám. Kromě toho by jako vysoce rizikové měly být klasifikovány systémy AI určené k použití pro biometrickou kategorizaci podle citlivých atributů nebo vlastností chráněných podle čl. 9 odst. 1 nařízení (EU) 2016/679 na základě biometrických údajů, pokud nejsou tímto nařízením zakázány, a systémy rozpoznávání emocí, které nejsou tímto nařízením zakázány. Biometrické systémy, které jsou určeny k použití výhradně za účelem podpory opatření v oblasti kybernetické bezpečnosti a ochrany osobních údajů, by za vysoce rizikové systémy AI považovány být neměly.
(55)
For så vidt angår forvaltning og drift af kritisk infrastruktur bør AI-systemer, der tilsigtes anvendt som sikkerhedskomponenter i forvaltningen og driften af kritisk digital infrastruktur som opført i bilaget, punkt 8, til direktiv (EU) 2022/2557, vejtrafik og forsyning af vand, gas, varme og elektricitet, klassificeres som højrisiko, da svigt eller funktionsfejl i disse systemer kan bringe menneskers liv og sundhed i fare i stor målestok og føre til betydelige forstyrrelser i de sociale og økonomiske aktiviteter. Sikkerhedskomponenter i kritisk infrastruktur, herunder kritisk digital infrastruktur, er systemer, der anvendes til direkte at beskytte den kritiske infrastrukturs fysiske integritet eller personers sundhed og sikkerhed og ejendom, men som ikke er nødvendige for, at systemet kan fungere. Svigt eller funktionsfejl i sådanne komponenter kan direkte medføre risici for den kritiske infrastrukturs fysiske integritet og dermed risici for personers sundhed og sikkerhed og ejendom. Komponenter, der udelukkende tilsigtes anvendt til cybersikkerhedsformål, bør ikke betragtes som sikkerhedskomponenter. Eksempler på sikkerhedskomponenter i en sådan kritisk infrastruktur kan omfatte systemer til overvågning af vandtryk eller brandalarmkontrolsystemer i cloudcomputingcentre.
(55)
Pokud jde o správu a provoz kritické infrastruktury, je vhodné klasifikovat jako vysoce rizikové takové systémy AI, které jsou určeny k použití jako bezpečnostní komponenty při řízení a provozu kritické digitální infrastruktury, jak je uvedeno v bodu 8 přílohy směrnice (EU) 2022/2557, silniční dopravy a při zásobování vodou, plynem, teplem a elektřinou, protože jejich porucha nebo chybné fungování může ohrozit život a zdraví osob ve velkém rozsahu a vést ke značnému narušení běžného provozu sociálních a hospodářských činností. Bezpečnostní komponenty kritické infrastruktury, včetně kritické digitální infrastruktury, jsou systémy používané k přímé ochraně fyzické integrity kritické infrastruktury nebo zdraví a bezpečnosti osob a majetku, které však nemusí být nutně v zájmu zajištění funkčnosti systému. Selhání nebo špatné fungování těchto komponent může přímo vést k ohrožení fyzické integrity kritické infrastruktury, a tím i k ohrožení zdraví a bezpečnosti osob a majetku. Komponenty určené k použití výhradně pro účely kybernetické bezpečnosti by neměly být považovány za bezpečnostní komponenty. Mezi příklady bezpečnostních komponent takové kritické infrastruktury mohou patřit systémy pro monitorování tlaku vody nebo systémy řízení požárního poplachu ve střediscích cloud computingu.
(56)
Det er vigtigt at idriftsætte AI-systemer inden for uddannelse for at fremme digital uddannelse og træning af høj kvalitet og for at give alle lærende og lærere mulighed for at tilegne sig og dele de nødvendige digitale færdigheder og kompetencer, herunder mediekendskab, og kritisk tænkning, til at deltage aktivt i økonomien, samfundet og de demokratiske processer. AI-systemer, der anvendes inden for uddannelse eller erhvervsuddannelse, navnlig til at bestemme adgang eller optagelse, til at fordele personer på uddannelsesinstitutioner eller uddannelser på alle niveauer, til at evaluere personers læringsudbytte, til at bedømme en persons nødvendige uddannelsesniveau og væsentligt påvirke den uddannelse, som den pågældende person vil modtage eller vil kunne få adgang til, eller til at overvåge og opdage forbudt adfærd blandt studerende under prøver, bør dog klassificeres som højrisiko-AI-systemer, da de kan afgøre en persons uddannelsesmæssige og arbejdsmæssige livsforløb og dermed kan påvirke denne persons mulighed for at sikre sig et livsgrundlag. Hvis sådanne systemer udformes og anvendes forkert, kan de være særligt indgribende og krænke retten til uddannelse samt retten til ikke at blive forskelsbehandlet og gøre historiske forskelsbehandlingsmønstre permanente, f.eks. mod kvinder, bestemte aldersgrupper, personer med handicap eller personer af bestemt racemæssig eller etnisk oprindelse eller med en bestemt seksuel orientering.
(56)
Ve vzdělávání je zavádění systémů AI důležité pro podporu vysoce kvalitního digitálního vzdělávání a odborné přípravy a pro to, aby všichni účastníci vzdělávání a učitelé mohli získat a sdílet nezbytné digitální dovednosti a kompetence, včetně mediální gramotnosti a kritického myšlení, a mohli se tak aktivně zapojit do ekonomiky, společnosti a demokratických procesů. Jako vysoce rizikové by však měly být klasifikovány systémy AI používané ve vzdělávání nebo v odborné přípravě, zejména při určování přístupu osob do školských institucí a programů nebo institucí nebo programů odborného vzdělávání, jejich přijímání nebo přidělování do těchto institucí nebo programů na všech úrovních nebo pro hodnocení výsledků učení osob, pro posouzení vhodné úrovně vzdělávání jednotlivce a věcného vlivu úrovně vzdělávání a odborné přípravy, které tito jedinci obdrží, nebo pro určení přístupu nebo pro monitorování a detekci zakázaného chování studentů během testů, neboť takovéto systémy mohou určovat vzdělávací a profesní průběh života určité osoby, a tím mohou ovlivňovat její schopnost zajišťovat si živobytí. Pokud budou tyto systémy navrženy a používány nesprávně, mohou být mimořádně invazivní a mohou porušovat právo na vzdělávání a odbornou přípravu i právo nebýt diskriminován a fixovat historické vzorce diskriminace, například vůči ženám, určitým věkovým skupinám, osobám se zdravotním postižením nebo osobám určitého rasového nebo etnického původu nebo sexuální orientace.
(57)
AI-systemer, der anvendes inden for beskæftigelse, forvaltning af arbejdskraft og adgang til selvstændig erhvervsvirksomhed, navnlig til rekruttering og udvælgelse af personer, til at træffe beslutninger, der påvirker vilkårene for det arbejdsrelaterede forhold, forfremmelse og ophør af arbejdsmæssige kontraktforhold, til fordeling af opgaver på grundlag af individuel adfærd, personlighedstræk eller personlige egenskaber og til overvågning og evaluering af personer i arbejdsmæssige kontraktforhold, bør også klassificeres som højrisiko, da de kan have en betydelig indvirkning på disse personers fremtidige karrieremuligheder, livsgrundlag og arbejdstagerrettigheder. De relevante arbejdsmæssige kontraktforhold bør på en meningsfuld måde omfatte ansatte og personer, der leverer tjenesteydelser via platforme som omhandlet i Kommissionens arbejdsprogram for 2021. Gennem hele rekrutteringsprocessen og i forbindelse med evaluering, forfremmelse eller fastholdelse af personer i arbejdsrelaterede kontraktforhold kan sådanne systemer gøre historiske forskelsbehandlingsmønstre permanente, f.eks. mod kvinder, bestemte aldersgrupper, personer med handicap eller personer af bestemt racemæssig eller etnisk oprindelse eller med en bestemt seksuel orientering. AI-systemer, der anvendes til at overvåge disse personers præstationer og adfærd, kan også underminere deres grundlæggende ret til databeskyttelse og ret til privatlivets fred.
(57)
Jako vysoce rizikové by měly být klasifikovány rovněž systémy AI používané při zaměstnávání, řízení pracovníků a při přístupu k samostatné výdělečné činnosti, zejména při náboru a výběru osob, při rozhodováních ovlivňujících podmínky pracovního poměru, povýšení a ukončení smluvních pracovněprávních vztahů, při přidělování úkolů na základě individuálního chování, osobnostních rysů či vlastností a při monitorování nebo hodnocení osob ve smluvních pracovněprávních vztazích, protože mohou významně ovlivnit budoucí kariérní vyhlídky, živobytí těchto osob a práva pracovníků. Příslušné smluvní pracovněprávní vztahy by měly smysluplně zahrnovat zaměstnance a osoby poskytující služby prostřednictvím platforem, jak je uvedeno v pracovním programu Komise na rok 2021. Tyto systémy mohou v průběhu celého procesu náboru a při hodnocení, povyšování nebo udržování osob ve smluvních pracovněprávních vztazích fixovat historické vzorce diskriminace, například vůči ženám, určitým věkovým skupinám, osobám se zdravotním postižením nebo osobám určitého rasového nebo etnického původu nebo sexuální orientace. Systémy AI používané k monitorování výkonnosti a chování těchto osob mohou rovněž ohrožovat jejich základní práva na ochranu údajů a soukromí.
(58)
Et andet område, hvor anvendelsen af AI-systemer kræver særlig opmærksomhed, er adgangen til og benyttelsen af visse væsentlige private og offentlige tjenester og de ydelser, der er nødvendige for, at mennesker kan deltage fuldt ud i samfundet eller forbedre deres levestandard. Navnlig er fysiske personer, der ansøger om eller modtager væsentlige offentlige bistandsydelser og -tjenester fra offentlige myndigheder, dvs. sundhedstjenester, socialsikringsydelser, sociale tjenester, der yder beskyttelse i tilfælde af barsel, sygdom, arbejdsulykker, afhængighed eller alderdom og tab af beskæftigelse samt social bistand og boligstøtte, typisk afhængige af sådanne ydelser og tjenester og befinder sig i en sårbar situation i forhold til de ansvarlige myndigheder. Hvis der anvendes AI-systemer til at afgøre, om der skal gives afslag på sådanne ydelser og tjenester, eller om de skal tildeles, nedsættes, tilbagekaldes eller kræves tilbagebetalt af myndighederne, herunder om modtagerne reelt er berettigede til disse ydelser eller tjenester, kan disse systemer have en betydelig indvirkning på menneskers livsgrundlag og kan krænke deres grundlæggende rettigheder såsom retten til social beskyttelse, ikkeforskelsbehandling, menneskelig værdighed eller adgang til effektive retsmidler, og de bør derfor klassificeres som højrisiko. Ikke desto mindre bør denne forordning ikke hindre udviklingen eller anvendelsen af innovative tilgange i den offentlige forvaltning, som står til at kunne drage fordel af en bredere anvendelse af AI-systemer, der er i overensstemmelse med reglerne og er sikre, forudsat at de ikke indebærer en høj risiko for juridiske og fysiske personer. Desuden bør AI-systemer, der anvendes til at evaluere fysiske personers kreditvurdering eller kreditværdighed, klassificeres som højrisiko-AI-systemer, da de afgør menneskers adgang til finansielle ressourcer eller væsentlige tjenester såsom bolig, elektricitet og telekommunikationstjenester. AI-systemer, der anvendes til disse formål, kan føre til forskelsbehandling mellem personer eller grupper og kan gøre historiske forskelsbehandlingsmønstre permanente, f.eks. på grundlag af racemæssig eller etnisk oprindelse, køn, handicap, alder eller seksuel orientering, eller være med til at skabe nye former for forskelsbehandlende virkning. AI-systemer, der er fastsat i EU-retten med henblik på at afsløre svig i forbindelse med tilbud af finansielle tjenesteydelser og for i tilsynsøjemed at beregne kreditinstitutters og forsikringsselskabers kapitalkrav, bør dog ikke betragtes som højrisiko i henhold til denne forordning. Desuden kan AI-systemer, der tilsigtes anvendt til risikovurdering og prisfastsættelse i forbindelse med fysiske personer for så vidt angår syge- og livsforsikring, også have en betydelig indvirkning på menneskers livsgrundlag og kan, hvis de ikke udformes, udvikles og anvendes behørigt, krænke deres grundlæggende rettigheder og have alvorlige konsekvenser for menneskers liv og sundhed, herunder økonomisk udstødelse og forskelsbehandling. Endelig bør AI-systemer, der anvendes til at vurdere og klassificere fysiske personers nødopkald eller til at udsende beredskabstjenester i nødsituationer eller til at tildele prioriteter i forbindelse hermed, herunder fra politi, brandmænd og lægehjælp, samt patientsorteringssystemer for førstehjælp, også klassificeres som højrisiko, da de træffer beslutninger i situationer, der er meget kritiske for menneskers liv og sundhed og for deres ejendom.
(58)
Další oblastí, ve které si používání systémů AI zaslouží zvláštní pozornost, je přístup k určitým základním soukromým a veřejným službám a výhodám nezbytným pro plné zapojení osob do společnosti nebo pro zlepšení jejich životní úrovně. Zejména fyzické osoby, které žádají o základní dávky sociálního zabezpečení a veřejné asistenční služby u veřejných orgánů, případně kterým jsou tyto dávky a služby poskytovány, konkrétně služby zdravotní péče, dávky sociálního zabezpečení, sociální služby zajišťující ochranu v takových případech, jako je mateřství, nemoc, pracovní úrazy, závislost nebo stáří, jakož i v případě ztráty zaměstnání a sociální pomoci a pomoci v oblasti bydlení, jsou zpravidla na těchto dávkách a službách závislé a nacházejí se ve vztahu k odpovědným orgánům ve zranitelném postavení. Jsou-li systémy AI používány k určování toho, zda by tyto orgány měly tyto dávky a služby poskytnout, zamítnout, omezit, zrušit nebo žádat jejich navrácení, včetně toho, zda mají příjemci na tyto dávky nebo služby legitimní nárok, mohou tyto systémy mít významný dopad na živobytí daných osob a mohou porušovat jejich základní práva, jako je právo na sociální ochranu, na zákaz diskriminace, na lidskou důstojnost nebo na účinnou právní ochranu, a měly by proto být klasifikovány jako vysoce rizikové. Toto nařízení by však nemělo bránit rozvoji a používání inovativních přístupů ve veřejné správě, pro kterou by mohlo být širší používání vyhovujících a bezpečných systémů AI prospěšné, pokud tyto systémy nepředstavují vysoké riziko pro právnické a fyzické osoby. Kromě toho by jako vysoce rizikové systémy AI by měly být klasifikovány systémy AI používané k hodnocení rizika úvěrů nebo úvěruschopnosti fyzických osob, protože určují přístup těchto osob k finančním zdrojům nebo k základním službám, jako je bydlení, elektřina a telekomunikační služby. Systémy AI používané pro tyto účely mohou vést k diskriminaci mezi osobami nebo skupinami a mohou fixovat historické vzorce diskriminace, například na základě rasového nebo etnického původu, genderu, zdravotního postižení, věku a sexuální orientace, nebo mohou vytvářet nové formy diskriminačních dopadů. Systémy AI stanovené právem Unie pro účely odhalování podvodů při nabízení finančních služeb a pro účely obezřetnosti za účelem výpočtu kapitálových požadavků úvěrových institucí a pojišťoven, by však neměly být podle tohoto nařízení považovány za vysoce rizikové. Kromě toho systémy AI určené k použití pro posuzování rizik a stanovování cen ve vztahu k fyzickým osobám pro účely zdravotního a životního pojištění mohou mít rovněž významný dopad na živobytí osob, a pokud nejsou řádně navrženy, vyvinuty a používány, mohou porušovat jejich základní práva a mohou mít závažné důsledky pro život a zdraví lidí, včetně finančního vyloučení a diskriminace. A konečně by měly být jako vysoce rizikové klasifikovány rovněž systémy AI používané pro hodnocení a klasifikaci tísňových volání fyzických osob nebo při dispečinku pohotovostních služeb nebo stanovení priorit při tomto dispečinku, včetně policie, hasičů a lékařské pomoci, jakož i systémy třídění pacientů ve zdravotnictví, protože rozhodují v situacích, které jsou velmi kritické pro život a zdraví osob a jejich majetek.
(59)
I betragtning af deres rolle og ansvar, er retshåndhævende myndigheders tiltag, der omfatter visse anvendelser af AI-systemer, kendetegnet ved en betydelig magtubalance og kan føre til overvågning, anholdelse eller frihedsberøvelse af fysiske personer samt have andre negative indvirkninger på de grundlæggende rettigheder, der er sikret i chartret. Navnlig kan AI-systemer udvælge personer på forskelsbehandlende eller anden ukorrekt eller uretfærdig måde, hvis de ikke er trænet med data af høj kvalitet, ikke opfylder passende krav med hensyn til deres ydeevne, nøjagtighed og robusthed eller ikke er korrekt udformet og afprøvet, før de bringes i omsætning eller på anden måde ibrugtages. Desuden kan udøvelsen af vigtige processuelle grundlæggende rettigheder såsom retten til adgang til effektive retsmidler, retten til en retfærdig rettergang og retten til et forsvar samt uskyldsformodningen hindres, navnlig hvis sådanne AI-systemer ikke er tilstrækkeligt gennemsigtige, forklarlige og dokumenterede. Derfor bør en række AI-systemer, der tilsigtes anvendt i retshåndhævelsesmæssig sammenhæng, hvor det er særlig vigtigt med nøjagtighed, pålidelighed og gennemsigtighed for at undgå negative virkninger, bevare offentlighedens tillid og sikre ansvarlighed og effektive retsmidler, klassificeres som højrisiko, for så vidt som deres anvendelse er tilladt i henhold til relevant EU-ret og national ret. I betragtning af aktiviteternes karakter og de risici, der er forbundet hermed, bør disse højrisiko-AI-systemer navnlig omfatte AI-systemer, der er tilsigtet anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til vurdering af risikoen for, at en fysisk person bliver offer for strafbare handlinger, som polygrafer og lignende værktøjer, til vurdering af pålideligheden af bevismateriale i forbindelse med efterforskning eller retsforfølgning af strafbare handlinger og, for så vidt som det ikke er forbudt i henhold til denne forordning, til vurdering af risikoen for, at en fysisk person begår eller på ny begår lovovertrædelser, der ikke udelukkende er baseret på profilering af fysiske personer eller vurdering af fysiske personers eller gruppers personlighedstræk og personlige egenskaber eller tidligere kriminelle adfærd, samt til profilering i forbindelse med afsløring, efterforskning eller retsforfølgelse af strafbare handlinger. AI-systemer, der specifikt er tilsigtet anvendt til skatte- og toldmyndigheders administrative procedurer og til finansielle efterretningstjenesters udførelse af administrative opgaver, der omfatter analyse af oplysninger i henhold til EU-retten om bekæmpelse af hvidvask af penge, bør ikke klassificeres som højrisiko-AI-systemer, der anvendes af retshåndhævende myndigheder med henblik på forebyggelse, afsløring, efterforskning og retsforfølgning af strafbare handlinger. Retshåndhævende og andre relevante myndigheders anvendelse af AI-værktøjer bør ikke blive en faktor, der bidrager til ulighed eller eksklusion. Den indvirkning, som anvendelsen af AI-værktøjer har på mistænktes ret til forsvar, bør ikke ignoreres, navnlig vanskelighederne ved at skaffe meningsfulde oplysninger om, hvordan disse systemer fungerer, og de deraf følgende vanskeligheder ved at anfægte resultaterne heraf i retten, navnlig for fysiske personer, der efterforskes.
(59)
Opatření donucovacích orgánů zahrnující určitá použití systémů AI se s ohledem na jejich úlohu a odpovědnost vyznačují značným stupněm nerovnováhy sil a mohou vést ke sledování fyzické osoby, jejímu zatčení nebo zbavení svobody, jakož i k dalším nepříznivým dopadům na základní práva zaručená Listinou. Zejména v případě, že systém AI nebyl trénován na vysoce kvalitních datech, nesplňuje odpovídající požadavky na výkonnost, přesnost nebo spolehlivost nebo není před uvedením na trh nebo jiným uvedením do provozu řádně navržen a otestován, může dojít k vyčleňování osob diskriminačním nebo jinak nesprávným nebo nespravedlivým způsobem. Kromě toho by mohl být omezen výkon důležitých základních procesních práv, jako je právo na účinnou ochranu a na spravedlivý proces, jakož i právo na obhajobu a presumpce neviny, zejména pokud tyto systémy AI nejsou dostatečně transparentní, vysvětlitelné a zdokumentované. Je proto vhodné klasifikovat jako vysoce rizikové celou řadu systémů AI určených k použití v kontextu vymáhání práva, kde je přesnost, spolehlivost a transparentnost obzvláště důležitá, pokud je jejich používání povoleno podle příslušného práva Unie a vnitrostátního práva, s cílem zabránit nepříznivým dopadům, zachovat důvěru veřejnosti a zajistit odpovědnost a účinné opravné prostředky. S ohledem na povahu činností a na rizika s nimi spojená by tyto vysoce rizikové systémy AI měly zahrnovat zejména systémy AI určené k použití donucovacími orgány nebo jejich jménem nebo orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů při posuzování rizika, že se fyzická osoba stane obětí trestných činů, jako jsou polygrafy a podobné nástroje, k vyhodnocování spolehlivosti důkazů v průběhu vyšetřování nebo stíhání trestných činů, a pokud to není zakázáno tímto nařízením, k posuzování rizika protiprávního jednání nebo opakovaného protiprávního jednání fyzické osoby, a to nejen na základě profilování fyzických osob, ani na základě posuzování osobnostních a povahových rysů nebo předchozí trestné činnosti fyzických osob nebo skupin, k profilování v průběhu odhalování, vyšetřování nebo stíhání trestných činů. Systémy AI výslovně určené k použití daňovými a celními orgány při správním řízení, jakož i finančními zpravodajskými jednotkami provádějícími administrativní úkoly při analýze informací podle práva Unie proti praní peněz, by neměly být klasifikovány jako vysoce rizikové systémy AI používané donucovacími orgány za účelem prevence, odhalování, vyšetřování a stíhání trestných činů. Využívání nástrojů AI donucovacími orgány a dalšími relevantními orgány by se nemělo stát faktorem nerovnosti nebo vyloučení. Dopad používání nástrojů AI na práva podezřelých osob na obhajobu by neměl být opomíjen, zejména pokud jde o obtíže při získávání důležitých informací o fungování těchto systémů a související problémy při vznesení námitek proti jejich výsledkům u soudu, zejména ze strany vyšetřovaných fyzických osob.
(60)
AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol, berører personer, der ofte befinder sig i en særlig sårbar situation, og som er afhængige af resultatet af de kompetente offentlige myndigheders tiltag. Nøjagtigheden, den ikkeforskelsbehandlende karakter og gennemsigtigheden af de AI-systemer, der anvendes i disse sammenhænge, har derfor særlig betydning med hensyn til at sikre, at de berørte personers grundlæggende rettigheder respekteres, navnlig deres ret til fri bevægelighed, ikkeforskelsbehandling, beskyttelse af privatlivets fred og personoplysninger, international beskyttelse og god forvaltning. Derfor bør der, for så vidt som deres anvendelse er tilladt i henhold til relevant EU-ret og national ret, foretages en højrisikoklassificering af AI-systemer, der er tilsigtet anvendt af eller på vegne af de kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer, der er ansvarlige for opgaver inden for migrationsstyring, asylforvaltning og grænsekontrol, som polygrafer og lignende værktøjer, til at vurdere visse risici, som fysiske personer, der indrejser til en medlemsstats område eller ansøger om visum eller asyl, udgør, til at bistå de kompetente offentlige myndigheder i behandlingen, herunder tilhørende vurdering af pålideligheden af bevismateriale, af ansøgninger om asyl, visum og opholdstilladelse og hertil relaterede klager med henblik på at fastslå, om de fysiske personer, der ansøger, er berettigede, med henblik på at opdage, genkende eller identificere fysiske personer i forbindelse med migrationsstyring, asylforvaltning og grænsekontrolforvaltning, bortset fra verificering af rejselegitimation. AI-systemer, der anvendes inden for migrationsstyring, asylforvaltning og grænsekontrol, og som er omfattet af denne forordning, bør overholde de relevante proceduremæssige krav i Europa-Parlamentets og Rådets forordning (EF) nr. 810/2009 (32), Europa-Parlamentets og Rådets direktiv 2013/32/EU (33) og anden relevant EU-ret. Anvendelsen af AI-systemer inden for migrationsstyring, asylforvaltning og grænsekontrol bør under ingen omstændigheder benyttes af medlemsstater eller EU-institutioner, -organer, -kontorer eller -agenturer som en måde at omgå deres internationale forpligtelser i henhold til FN's konvention om flygtninges retsstilling indgået i Genève den 28. juli 1951, som ændret ved protokollen af 31. januar 1967, og de bør heller ikke anvendes på en måde, der krænker princippet om non-refoulement eller nægter sikre og effektive lovlige adgangsveje til Unionens område, herunder retten til international beskyttelse.
(60)
Systémy AI používané pro účely migrace, azylu a řízení ochrany hranic ovlivňují osoby, které jsou často v obzvláště zranitelném postavení a jsou závislé na výsledku činnosti příslušných veřejných orgánů. Přesnost, nediskriminační povaha a transparentnost systémů AI používaných v těchto kontextech jsou proto obzvláště důležité pro zajištění dodržování základních práv dotčených osob, zejména jejich práva na volný pohyb, na zákaz diskriminace, na ochranu soukromého života a osobních údajů, na mezinárodní ochranu a na řádnou správu. Je proto vhodné klasifikovat jako vysoce rizikové ty systémy AI, které jsou určeny k použití příslušnými orgány veřejné moci nebo jejich jménem nebo orgány, institucemi nebo jinými subjekty Unie pověřenými úkoly v oblasti migrace, azylu a řízení ochrany hranic, jako jsou například polygrafy a podobné nástroje, pokud je jejich používání povoleno podle příslušného práva Unie a vnitrostátního práva, k posuzování určitých rizik, která představují fyzické osoby vstupující na území členského státu nebo žádající o vízum nebo azyl, jako pomoc příslušným veřejným orgánům při posuzování žádostí o azyl, vízum a povolení k pobytu a souvisejících stížností, pokud jde o cíl, jímž je zjištění způsobilosti fyzických osob žádajících o určitý status, včetně souvisejícího posouzení spolehlivosti důkazů, pro účely odhalování, uznávání nebo identifikace fyzických osob v souvislosti s migrací, azylem a řízením ochrany hranic, s výjimkou ověřování cestovních dokladů.Systémy AI v oblasti migrace, azylu a řízení ochrany hranic, na které se vztahuje toto nařízení, by měly splňovat příslušné procesní požadavky stanovené nařízením Evropského parlamentu a Rady (ES) č. 810/2009 (32), směrnicí Evropského parlamentu a Rady 2013/32/EU (33) a dalším příslušným právem Unie. Členské státy nebo orgány, instituce nebo jiné subjekty Unie by za žádných okolností neměly používat systémy AI při migraci, azylu a řízení ochrany hranic jako prostředek k obcházení svých mezinárodních závazků vyplývajících z Úmluvy OSN o právním postavení uprchlíků, která byla podepsána v Ženevě dne 28. července 1951, ve znění protokolu ze dne 31. ledna 1967, ani by tyto systémy neměly být využívány k jakémukoli porušování zásady nenavracení nebo k odepření bezpečných a účinných legálních cest na území Unie, včetně práva na mezinárodní ochranu.
(61)
Visse AI-systemer, der er tilsigtet anvendelse inden for retspleje og i demokratiske processer, bør klassificeres som højrisiko i betragtning af deres potentielt betydelige indvirkning på demokratiet, retsstatsprincippet, individets frihedsrettigheder samt retten til adgang til effektive retsmidler og retten til en retfærdig rettergang. Navnlig for at imødegå risikoen for bias, fejl og uigennemsigtighed bør de AI-systemer, der tilsigtes anvendt af judicielle myndigheder eller på deres vegne for at bistå judicielle myndigheder med at fortolke fakta og lovgivningen og anvende lovgivningen på konkrete sagsforhold, klassificeres som højrisiko. AI-systemer, der tilsigtes anvendt af alternative tvistbilæggelsesorganer til disse formål, bør også betragtes som højrisiko, når resultaterne af den alternative tvistbilæggelsesprocedure har retsvirkninger for parterne. Anvendelsen af AI-værktøjer kan understøtte, men bør ikke erstatte dommernes beslutningskompetence eller retsvæsenets uafhængighed, da den endelige beslutningstagning fortsat skal være en menneskedrevet aktivitet. Klassificeringen af AI-systemer som højrisiko bør dog ikke omfatte AI-systemer, der kun tilsigtes supplerende administrative aktiviteter, som ikke har indflydelse på den egentlige retspleje i de enkelte sager, som f.eks. anonymisering eller pseudonymisering af retsafgørelser, dokumenter eller data, kommunikation mellem personale eller administrative opgaver.
(61)
Určité systémy AI určené k výkonu spravedlnosti a demokratických procesů by měly být klasifikovány jako vysoce rizikové s ohledem na jejich potenciálně významný dopad na demokracii, právní stát a individuální svobody, jakož i na právo na účinnou ochranu a na spravedlivý proces. Jako vysoce rizikové je vhodné kvalifikovat systémy AI určené k použití justičním orgánem nebo jeho jménem, jejichž cílem je poskytovat pomoc justičním orgánům při zkoumání a výkladu skutečností a práva a při uplatňování práva na konkrétní soubor skutečností, zejména z důvodu řešení rizik možného zkreslení, chyb a neprůhlednosti. Systémy AI určené k použití subjekty pro alternativní řešení sporů pro tyto účely by měly být rovněž považovány za vysoce rizikové, pokud výsledky postupů alternativního řešení sporů mají pro strany právní účinky. Využívání nástrojů AI může podpořit rozhodovací pravomoci soudců nebo nezávislost soudnictví, ale nemělo by je nahrazovat, neboť konečné rozhodnutí musí i nadále přijímat člověk. Klasifikace systémů AI jako vysoce rizikových by se však neměla vztahovat na systémy AI určené pro čistě pomocné správní činnosti, které neovlivňují faktický výkon spravedlnosti v jednotlivých případech, jako je například anonymizace nebo pseudonymizace soudních rozhodnutí, dokumentů nebo údajů, komunikace mezi zaměstnanci, administrativní úkoly.
(62)
Uden at det berører de regler, der er fastsat i Europa-Parlamentets og Rådets forordning (EU) 2024/900 (34), og for at imødegå risikoen for unødig ekstern indblanding i retten til at stemme, der er nedfældet i chartrets artikel 39, og for negative indvirkninger på demokratiet og retsstatsprincippet bør AI-systemer, der tilsigtes anvendt til at påvirke resultatet af et valg eller en folkeafstemning eller fysiske personers stemmeadfærd i forbindelse med udøvelsen af deres stemme ved valg eller folkeafstemninger, klassificeres som højrisiko-AI-systemer med undtagelse af AI-systemer, hvis output fysiske personer ikke er direkte eksponeret for, såsom værktøjer, der anvendes til at organisere, optimere og strukturere politiske kampagner ud fra et administrativt og logistisk synspunkt.
(62)
Aniž jsou dotčena pravidla stanovená v nařízení Evropského parlamentu a Rady (EU) 2024/900 (34) a s cílem řešit rizika nepřiměřeného vnějšího zasahování do volebního práva zakotveného v článku 39 Listiny a nepříznivých dopadů na demokracii a právní stát by systémy AI, které jsou určeny k ovlivňování výsledku voleb nebo referenda nebo hlasování fyzických osob ve volbách nebo referendech, měly být klasifikovány jako vysoce rizikové systémy AI, s výjimkou systémů AI, jejichž výstupu nejsou fyzické osoby přímo vystaveny, jako jsou nástroje používané k organizaci, optimalizaci a strukturování politických kampaní z administrativního a logistického hlediska.
(63)
Klassificeringen af et AI-system som et højrisiko-AI-system i henhold til denne forordning bør ikke fortolkes således, at anvendelsen af systemet er lovlig i medfør af andre EU-retsakter eller i medfør af national ret, der er forenelig med EU-retten, som f.eks. om beskyttelsen af personoplysninger, brug af polygrafer og lignende værktøjer eller andre systemer til at påvise fysiske personers følelsesmæssige tilstand. Enhver sådan anvendelse bør fortsat udelukkende ske i overensstemmelse med de gældende krav, der følger af chartret og gældende afledt EU-ret og national ret. Denne forordning bør ikke forstås som et retsgrundlag for behandling af personoplysninger, herunder særlige kategorier af personoplysninger, hvis det er relevant, medmindre andet specifikt er fastsat i denne forordning.
(63)
Skutečnost, že daný systém AI je podle tohoto nařízení klasifikován jako vysoce rizikový systém AI, by neměla být vykládána v tom smyslu, že používání tohoto systému je zákonné podle jiných aktů práva Unie nebo podle vnitrostátního práva slučitelného s právem Unie, které se týkají například ochrany osobních údajů, používání polygrafů a podobných nástrojů nebo jiných systémů ke zjišťování emočního stavu fyzických osob. K jakémukoli takovému používání by mělo i nadále docházet pouze v souladu s příslušnými požadavky vyplývajícími z Listiny a z příslušných aktů sekundárního práva Unie a vnitrostátního práva. Toto nařízení by nemělo být chápáno tak, že poskytuje právní základ pro zpracování osobních údajů, v relevantních případech včetně zvláštních kategorií osobních údajů, není-li v tomto nařízení konkrétně stanoveno jinak.
(64)
For at begrænse risiciene fra højrisiko-AI-systemer, der bringes i omsætning eller ibrugtages og for at sikre en høj grad af troværdighed, bør der gælde visse obligatoriske krav for højrisiko-AI-systemer, under hensyntagen til det tilsigtede formål og i forbindelse med anvendelsen af AI-systemet og i overensstemmelse med det risikostyringssystem, som udbyderen skal indføre. De foranstaltninger, som udbyderne vedtager for at overholde de obligatoriske krav i denne forordning, bør tage højde for det generelt anerkendte aktuelle teknologiske niveau inden for AI og være forholdsmæssige og effektive med hensyn til at nå denne forordnings mål. På grundlag af den nye lovgivningsmæssige ramme, som præciseret i Kommissionens meddelelse om den blå vejledning om gennemførelsen af EU's produktregler 2022, er den generelle regel, at mere end én EU-harmoniseringslovgivningsretsakt kan finde anvendelse på ét produkt, da tilgængeliggørelsen eller ibrugtagningen kun kan finde sted, når produktet overholder al gældende EU-harmoniseringslovgivning. Farerne ved de AI-systemer, der er omfattet af kravene i denne forordning, vedrører andre aspekter end den gældende EU-harmoniseringslovgivning, og kravene i denne forordning vil derfor supplere den gældende EU-harmoniseringslovgivning. Maskiner eller medicinsk udstyr, der indeholder et AI-system, kan f.eks. udgøre risici, der ikke er omfattet af de væsentlige sikkerheds- og sundhedskrav i den relevante EU-harmoniseringslovgivning, da denne sektorspecifikke ret ikke omhandler risici, der er specifikke for AI-systemer. Dette kræver, at de forskellige retsakter anvendes samtidigt og på supplerende vis. For at sikre konsekvens og undgå en unødvendig administrativ byrde eller unødvendige omkostninger bør udbydere af et produkt, der indeholder et eller flere højrisiko-AI-systemer, som kravene i denne forordning samt kravene i EU-harmoniseringslovgivningen baseret på den nye lovgivningsmæssige ramme og opført i et bilag til denne forordning finder anvendelse på, have fleksibilitet med hensyn til at træffe operationelle beslutninger om, hvordan det sikres, at et produkt, der indeholder et eller flere AI-systemer, overholder alle gældende krav i denne EU-harmoniseringslovgivning på en optimal måde. Denne fleksibilitet kan f.eks. betyde, at udbyderen beslutter at integrere en del af de nødvendige afprøvnings- og rapporteringsprocesser, oplysninger og dokumentation, der kræves i henhold til denne forordning, i allerede eksisterende dokumentation og procedurer, som kræves i henhold til den gældende EU-harmoniseringslovgivning, der er baseret på den nye lovgivningsmæssige ramme, og som er opført i et bilag til denne forordning. Dette bør på ingen måde underminere udbyderens forpligtelse til at overholde alle gældende krav.
(64)
Ke zmírnění rizik, která vyplývají z vysoce rizikových systémů AI uváděných na trh nebo do provozu, a k zajištění vysoké úrovně důvěryhodnosti by měly být na vysoce rizikové systémy AI uplatňovány určité povinné požadavky s přihlédnutím k zamýšlenému účelu a v souvislosti s používáním systému AI a v souladu se systémem řízení rizik, který stanoví poskytovatel. Opatření přijatá poskytovateli za účelem splnění povinných požadavků tohoto nařízení by měla zohledňovat obecně uznávaný současný stav v oblasti AI a měla by být přiměřená a účinná pro splnění cílů tohoto nařízení. Na základě nového legislativního rámce, jak je objasněno v oznámení Komise, „Modrá příručka“ k provádění pravidel EU pro výrobky (2022), je obecným pravidlem, že na jeden produkt může být použitelný více než jeden právní akt náležející mezi harmonizační právní předpis Unie, neboť k dodání na trh nebo uvedení do provozu může dojít pouze v případě, když je produkt v souladu se všemi platnými harmonizačními právními předpisy Unie. Nebezpečí spojená se systémy AI, na něž se vztahují požadavky tohoto nařízení, se vztahují k jiným aspektům než stávající harmonizační právní předpisy Unie, a proto požadavky tohoto nařízení doplní stávající soubor harmonizačních právních předpisů Unie. Například produkty v podobě strojních zařízení nebo zdravotnických prostředků obsahující systém AI mohou představovat rizika, na která se nevztahují základní požadavky na ochranu zdraví a bezpečnost stanovené v příslušných harmonizovaných právních předpisech Unie, neboť toto odvětvové právo se nezabývá riziky specifickými pro systémy AI. To vyžaduje současné a doplňkové použití různých legislativních aktů. Aby byla zajištěna soudržnost a zabránilo se zbytečné administrativní zátěži nebo zbytečným nákladům, poskytovatelé produktu, který obsahuje jeden nebo více vysoce rizikových systémů AI, na něž se vztahují požadavky tohoto nařízení a harmonizačních právních předpisů Unie založených na novém legislativním rámci a uvedené v příloze tohoto nařízení, by měli být flexibilní, pokud jde o přijímání provozních rozhodnutí o tom, jak optimálně zajistit soulad produktu obsahujícího jeden nebo více systémů AI se všemi platnými požadavky harmonizovaných právních předpisů Unie. Tato flexibilita by mohla obnášet například rozhodnutí poskytovatele začlenit část nezbytných procesů testování a podávání zpráv, informací a dokumentace požadovaných podle tohoto nařízení do již existující dokumentace a postupů požadovaných podle stávajících harmonizačních právních předpisů Unie založených na novém legislativním rámci a uvedených v příloze tohoto nařízení. Tím by neměla být nijak dotčena povinnost poskytovatele dodržovat všechny platné požadavky.
(65)
Risikostyringssystemet bør bestå af en kontinuerlig iterativ proces, der er planlagt og løber i hele højrisiko-AI-systemets livscyklus. Denne proces bør sigte mod at identificere og afbøde de relevante risici ved AI-systemer for sundheden, sikkerheden og de grundlæggende rettigheder. Risikostyringssystemet bør regelmæssigt revideres og ajourføres for at sikre dets fortsatte effektivitet samt begrundelse og dokumentation for eventuelle væsentlige beslutninger og tiltag, der træffes eller foretages i henhold til denne forordning. Denne proces bør sikre, at udbyderen identificerer risici eller negative indvirkninger og gennemfører afbødende foranstaltninger for kendte og rimeligt forudsigelige risici ved AI-systemer for sundheden, sikkerheden og de grundlæggende rettigheder i lyset af deres tilsigtede formål og fejlanvendelse, der med rimelighed kan forudses, herunder de mulige risici som følge af interaktionen mellem AI-systemet og det miljø, som systemet fungerer i. Risikostyringssystemet bør indføre de mest hensigtsmæssige risikostyringsforanstaltninger i lyset af det aktuelle teknologiske niveau inden for AI. Udbyderen bør ved identifikation af de mest hensigtsmæssige risikostyringsforanstaltninger dokumentere og forklare de valg, der er truffet, og, hvis det er relevant, inddrage eksperter og eksterne interessenter. I forbindelse med identifikation af fejlanvendelse, der med rimelighed kan forudses, af højrisiko-AI-systemer bør udbyderen medtage anvendelser af AI-systemer, som, selv om de ikke er direkte omfattet af det tilsigtede formål og fastsat i brugsanvisningen, ikke desto mindre med rimelighed kan forventes at skyldes let forudsigelig menneskelig adfærd i forbindelse med et bestemt AI-systems specifikke karakteristika og anvendelse. Alle kendte eller forudsigelige omstændigheder, som i forbindelse med anvendelse af højrisiko-AI-systemet i overensstemmelse med dets tilsigtede formål eller ved fejlanvendelse, der med rimelighed kan forudses, kan medføre risici for menneskers sundhed og sikkerhed eller grundlæggende rettigheder, bør medtages i den brugsanvisning, som leveres af udbyderen. Dette skal sikre, at idriftsætteren er bekendt med og tager hensyn hertil, når vedkommende anvender højrisiko-AI-systemet. Identifikation og gennemførelse af risikobegrænsende foranstaltninger for forudsigelig fejlanvendelse i henhold til denne forordning bør ikke kræve specifikke yderligere træning for højrisiko-AI-systemet fra udbyderens side for at afhjælpe forudsigelig fejlanvendelse. Udbyderne opfordres imidlertid til at overveje sådanne yderligere træningsforanstaltninger for at afbøde fejlanvendelser, der med rimelighed kan forudses, når det er nødvendigt og hensigtsmæssigt.
(65)
Systém řízení rizik by měl spočívat v nepřetržitém opakujícím se procesu, který je plánovaný a probíhá během celého životního cyklu vysoce rizikového systému AI. Tento proces by měl být zaměřen na identifikaci a zmírnění příslušných rizik systémů AI pro zdraví, bezpečnost a základní práva. Systém řízení rizik by měl být pravidelně přezkoumáván a aktualizován, aby byla zajištěna jeho trvalá účinnost, jakož i odůvodněnost a dokumentace veškerých významných rozhodnutí a opatření přijatých podle tohoto nařízení. Tento proces by měl zajistit, aby poskytovatel identifikoval rizika nebo nepříznivé dopady a zavedl opatření ke zmírnění známých a rozumně předvídatelných rizik systémů AI pro zdraví, bezpečnost a základní práva s ohledem na jeho zamýšlený účel a rozumně předvídatelné nesprávné použití, včetně možných rizik vyplývajících z interakce mezi systémem AI a prostředím, v němž působí. Systém řízení rizik by měl přijmout nejvhodnější opatření k řízení rizik s ohledem na nejnovější vývoj v oblasti AI. Při identifikaci nejvhodnějších opatření k řízení rizik by měl poskytovatel zdokumentovat a vysvětlit provedené volby a případně zapojit odborníky a externí zúčastněné strany. Při identifikaci rozumně předvídatelného nesprávného použití vysoce rizikových systémů AI by měl poskytovatel zahrnout způsoby použití systémů AI, které sice nejsou přímo pokryty zamýšleným účelem a nejsou uvedeny v návodu k použití, nicméně lze důvodně očekávat, že vyplynou ze snadno předvídatelného lidského chování v souvislosti se specifickými vlastnostmi a používáním konkrétního systému AI. V návodu k použití poskytnutém poskytovatelem by měly být uvedeny jakékoli známé nebo předvídatelné okolností související s používáním daného vysoce rizikového systému AI v souladu s jeho zamýšleným účelem nebo za podmínek rozumně předvídatelného nesprávného použití, které mohou vést k rizikům pro zdraví a bezpečnost nebo pro základní práva. Účelem je zajistit, aby si jich byl zavádějící subjekt při používání vysoce rizikového systému AI vědom a zohlednil je. Pro identifikaci a provádění opatření ke zmírnění rizik v případě předvídatelného nesprávného použití vysoce rizikového systému AI podle tohoto nařízení by nemělo být nutné, aby poskytovatel v zájmu řešení předvídatelného nesprávného použití přistupoval ke zvláštním dodatečným školením. Poskytovatelé se však vyzývají, aby taková dodatečná opatření v oblasti školení zvážili, bude-li to pro omezení rozumně předvídatelného použití nezbytné a vhodné.
(66)
Der bør gælde krav for højrisiko-AI-systemer med hensyn til risikostyring, kvaliteten og relevansen af anvendte datasæt, teknisk dokumentation og registrering, gennemsigtighed og formidling af oplysninger til idriftsætterne, menneskeligt tilsyn og robusthed, nøjagtighed og cybersikkerhed. Disse krav er nødvendige for effektivt at mindske risiciene for sundhed, sikkerhed og grundlæggende rettigheder. Da ingen foranstaltninger, der er mindre begrænsende for handelen, er tilgængelige på rimelig vis, er disse krav ikke uberettigede handelsrestriktioner.
(66)
Na vysoce rizikové systémy AI by se měly vztahovat požadavky týkající se řízení rizik, kvality a významu použitých souborů dat, technické dokumentace a uchovávání záznamů, transparentnosti a poskytování informací zavádějícím subjektům, lidského dohledu a spolehlivosti, přesnosti a kybernetické bezpečnosti. Tyto požadavky jsou nezbytným předpokladem účinného zmírňování rizik pro zdraví, bezpečnost a základní práva. Jelikož nejsou žádná další opatření méně omezující obchod rozumně dostupná, tyto požadavky nejsou bezdůvodným omezením obchodu.
(67)
Data af høj kvalitet og adgang til data af høj kvalitet spiller en afgørende rolle med hensyn til at skabe struktur og sikre mange AI-systemers ydeevne, navnlig når der anvendes teknikker, der omfatter træning af modeller, så det sikres, at højrisiko-AI-systemet yder som tilsigtet og på sikker vis og ikke bliver en kilde til forskelsbehandling, som er forbudt i henhold til EU-retten. Datasæt af høj kvalitet til træning, validering og afprøvning kræver, at der indføres passende former for datastyrings- og dataforvaltningspraksis. Datasæt til træning, validering og afprøvning, herunder mærkninger, bør være relevante, tilstrækkeligt repræsentative og i videst muligt omfang fejlfrie og fuldstændige i lyset af AI-systemets tilsigtede formål. For at lette overholdelsen af EU-databeskyttelsesretten såsom forordning (EU) 2016/679 bør datastyrings- og -forvaltningspraksis i tilfælde af personoplysninger omfatte gennemsigtighed med hensyn til det oprindelige formål med dataindsamlingen. Datasættene bør også have de tilstrækkelige statistiske egenskaber, herunder med hensyn til de personer eller grupper af personer, som højrisiko-AI-systemet er tilsigtet at blive anvendt på, med særlig vægt på afbødning af mulige bias i datasættene, som sandsynligvis vil påvirke menneskers sundhed og sikkerhed, have en negativ indvirkning på grundlæggende rettigheder eller føre til forskelsbehandling, der er forbudt i henhold til EU-retten, navnlig hvis dataoutput påvirker input til fremtidige operationer (»feedbacksløjfer«). Bias kan f.eks. være en iboende del af de underliggende datasæt, navnlig når der anvendes historiske data, eller kan genereres, når systemerne implementeres under virkelige forhold. De resultater, der leveres af AI-systemer, kan påvirkes af sådanne iboende bias, som er tilbøjelige til gradvist at øges og derved videreføre og forstærke eksisterende forskelsbehandling, navnlig for personer, der tilhører bestemte sårbare grupper, herunder racemæssige eller etniske grupper. Kravet om, at datasættene så vidt muligt skal være fuldstændige og fejlfrie, bør ikke påvirke anvendelsen af teknikker til beskyttelse af privatlivets fred i forbindelse med udvikling og afprøvning af AI-systemer. Navnlig bør datasæt, i det omfang det er nødvendigt af hensyn til deres tilsigtede formål, tage hensyn til de karakteristiske træk, egenskaber eller elementer, der er særlige for den specifikke geografiske, kontekstuelle, adfærdsmæssige eller funktionelle ramme, inden for hvilken AI-systemet tiltænkes anvendt. Kravene vedrørende datastyring kan overholdes ved at gøre brug af tredjeparter, der tilbyder certificerede overholdelsestjenester, herunder verifikation af datastyring og datasætintegritet samt datatrænings-, validerings- og afprøvningspraksis, for så vidt som det sikres, at datakravene i denne forordning overholdes.
(67)
Při poskytování struktury a zajišťování výkonnosti celé řady systémů AI mají zásadní úlohu vysoce kvalitní data a přístup k nim, zejména pokud jsou používány techniky zahrnující trénování modelů s cílem zajistit, aby vysoce rizikový systém AI fungoval dle předpokladu a bezpečně a aby se nestal zdrojem diskriminace, kterou právo Unie zakazuje. Soubory vysoce kvalitních trénovacích, validačních a testovacích dat vyžadují zavedení vhodných postupů správy a řízení dat. Soubory trénovacích, validačních a testovacích dat, včetně štítků, by měly být relevantní, dostatečně reprezentativní a v nejvyšší možné míře bez chyb a úplné s ohledem na zamýšlený účel systému. Aby se usnadnil soulad s právem Unie v oblasti ochrany údajů, jako je nařízení (EU) 2016/679, měly by postupy správy a řízení dat v případě osobních údajů zahrnovat transparentnost původního účelu shromažďování údajů. Soubory dat by měly mít rovněž odpovídající statistické vlastnosti, a to i pokud jde o osoby nebo skupiny osob, ve vztahu k nimž má být vysoce rizikový systém AI používán, se zvláštním zaměřením na zmírnění možných zkreslení v souborech dat, které by mohly ovlivnit zdraví a bezpečnost osob, mít negativní dopad na základní práva nebo vést k diskriminaci zakázané právem Unie, zejména pokud výstupy dat ovlivňují vstupy pro budoucí operace (dále jen „smyčky zpětné vazby“). Zkreslení mohou být například inherentní součástí základních datových souborů, zejména pokud jsou používána historická data, která byla generována při zavádění systémů v reálných podmínkách.Výsledky poskytnuté systémy AI by mohly být ovlivněny takovýmito zkresleními, která mají tendenci se postupně zvyšovat, a tudíž zachovávat a posilovat existující diskriminaci, zejména v případě osob patřících k určitým zranitelným skupinám, včetně rasových nebo etnických skupin. Požadavek, aby soubory dat byly v nejvyšší možné míře úplné a bez chyb, by neměl mít vliv na používání technik ochrany soukromí v souvislosti s vývojem a testováním systémů AI. Soubory dat by měly především v rozsahu nezbytném pro jejich zamýšlený účel zohledňovat rysy, vlastnosti nebo prvky, které jsou specifické pro konkrétní zeměpisné, kontextuální, behaviorální nebo funkční prostředí, ve kterém má být systém AI používán. Požadavky týkající se správy dat lze splnit využitím služeb třetích stran, které nabízejí certifikované služby dodržování předpisů, včetně ověřování správy dat, integrity datového souboru a postupů trénování, validace a testování dat, pokud je zajištěn soulad s požadavky na data podle tohoto nařízení.
(68)
Med henblik på udvikling og vurdering af højrisiko-AI-systemer bør visse aktører, som for eksempel udbydere, bemyndigede organer og andre relevante enheder såsom europæiske digitale innovationsknudepunkter, afprøvnings- og forsøgsfaciliteter og forskere, have adgang til og kunne anvende datasæt af høj kvalitet inden for aktivitetsområderne for de aktører, som er relateret til denne forordning. Fælles europæiske dataområder, som Kommissionen har oprettet, og lette af datadeling mellem virksomheder og med myndigheder i samfundets interesse vil være afgørende for at sikre pålidelig, ansvarlig og ikkeforskelsbehandlende adgang til data af høj kvalitet til træning, validering og afprøvning af AI-systemer. På sundhedsområdet vil det europæiske sundhedsdataområde for eksempel lette ikkeforskelsbehandlende adgang til sundhedsdata og træning af AI-algoritmer på disse datasæt på en måde, der beskytter privatlivets fred, er sikker, rettidig, gennemsigtig og troværdig og underlagt en passende institutionel styring. Relevante kompetente myndigheder, herunder sektorspecifikke myndigheder, der giver eller understøtter adgang til data, kan også understøtte tilvejebringelsen af data af høj kvalitet til træning, validering og afprøvning af AI-systemer.
(68)
Při vývoji a posuzování vysoce rizikových systémů AI by některé subjekty, jako jsou poskytovatelé, oznámené subjekty a další příslušné subjekty, například evropská centra pro digitální inovace, pokusná zkušební zařízení a výzkumní pracovníci, měly mít přístup k vysoce kvalitním datovým souborům ve svých příslušných oborech činnosti, které souvisejí s tímto nařízením, a měly by je využívat. Zásadní význam pro zajištění důvěryhodného, odpovědného a nediskriminačního přístupu k vysoce kvalitním datům pro účely trénování, validace a testování systémů AI budou mít společné evropské datové prostory vytvořené Komisí, jakož i usnadnění sdílení údajů ve veřejném zájmu mezi podniky a s vládou. Například v oblasti zdraví umožní společný evropský prostor pro data z oblasti veřejného zdraví nediskriminační přístup k údajům o zdraví a trénování algoritmů AI na těchto souborech dat, a to způsobem, který bude chránit soukromí, bude bezpečný, včasný, transparentní a důvěryhodný a bude u něj zajištěna vhodná institucionální správa. Poskytování vysoce kvalitních dat pro účely trénování, validace a testování systémů AI mohou podporovat rovněž odpovídající příslušné orgány, včetně odvětvových, které poskytují nebo podporují přístup k datům.
(69)
Retten til privatlivets fred og til beskyttelse af personoplysninger skal sikres i hele AI-systemets livscyklus. I den forbindelse finder principperne om dataminimering og databeskyttelse gennem design og databeskyttelse gennem standardindstillinger som fastsat i EU-databeskyttelsesretten anvendelse, når personoplysninger behandles. Foranstaltninger, der træffes af udbydere for at sikre overholdelse af disse principper, kan ikke blot omfatte anonymisering og kryptering, men også anvendelse af teknologi, der gør det muligt at overføre algoritmer til data og opnå oplæring af AI-systemer uden overførsel mellem parterne eller kopiering af de rå eller strukturerede data, uden at dette berører kravene til datastyring i denne forordning.
(69)
Během celého životního cyklu systému AI musí být zaručeno právo na soukromí a na ochranu osobních údajů. V tomto ohledu se při zpracování osobních údajů použijí zásady minimalizace údajů a záměrné a standardní ochrany údajů, jak jsou stanoveny v právu Unie v oblasti ochrany údajů. Opatření přijatá poskytovateli k zajištění souladu s těmito zásadami mohou zahrnovat nejen anonymizaci a šifrování, ale také používání technologie, která umožňuje vnášet algoritmy do dat a umožňuje trénování systémů AI bez předávání mezi stranami nebo kopírování samotných nezpracovaných nebo strukturovaných dat, aniž jsou dotčeny požadavky na správu dat stanovené v tomto nařízení.
(70)
For at beskytte andres ret mod den forskelsbehandling, der kan opstå som følge af bias i AI-systemer, bør udbyderne undtagelsesvis, i det omfang det er strengt nødvendigt for at sikre påvisning og korrektion af bias i forbindelse med højrisiko-AI-systemer, med forbehold af passende sikkerhedsforanstaltninger for fysiske personers grundlæggende rettigheder og friheder og efter anvendelse af alle gældende betingelser, der er fastsat i denne forordning, ud over betingelserne i forordning (EU) 2016/679 og (EU) 2018/1725 samt direktiv (EU) 2016/680, også kunne behandle særlige kategorier af personoplysninger som et spørgsmål af væsentlig samfundsinteresse som omhandlet i artikel 9, stk. 2, litra g), i forordning (EU) 2016/679 og artikel 10, stk. 2, litra g), i forordning (EU) 2018/1725.
(70)
V zájmu ochrany práva jiných osob před diskriminací, která by mohla vyplynout ze zkreslení v rámci systémů AI, by poskytovatelé v rozsahu nezbytně nutném pro účely zajištění odhalování a nápravy zkreslení ve vztahu k vysoce rizikovým systémům AI, s výhradou vhodných záruk chránících základní práva a svobody fyzických osob a po uplatnění všech platných podmínek stanovených v tomto nařízení vedle podmínek stanovených v nařízení (EU) 2016/679 a (EU) 2018/1725 a směrnici (EU) 2016/680, měli mít výjimečně možnost zpracovávat také zvláštní kategorie osobních údajů jako záležitost významného veřejného zájmu ve smyslu čl. 9 odst. 2 písm. g) nařízení (EU) 2016/679 a čl. 10 odst. 2 písm. g) nařízení (EU) 2018/1725.
(71)
Det er afgørende, at der foreligger forståelige oplysninger om, hvordan højrisiko-AI-systemer er blevet udviklet, og hvordan de yder i hele deres levetid for at gøre det muligt at spore disse systemer, kontrollere overholdelsen af kravene i denne forordning samt sikre overvågning af deres operationer og overvågning efter omsætningen. Det kræver, at der føres fortegnelser og stilles en teknisk dokumentation til rådighed, som indeholder de oplysninger, der er nødvendige for at vurdere AI-systemets overholdelse af de relevante krav og letter overvågning efter omsætningen. Sådanne oplysninger bør omfatte systemets generelle egenskaber, kapacitet og begrænsninger, algoritmer, data, trænings-, afprøvnings- og valideringsprocesser samt dokumentation for det relevante risikostyringssystem og være udarbejdet på en klar og forståelig måde. Den tekniske dokumentation skal holdes tilstrækkeligt ajour i hele AI-systemets levetid. Højrisiko-AI-systemer bør teknisk muliggøre automatisk registrering af hændelser ved hjælp af logfiler under systemets levetid.
(71)
Pro sledovatelnost těchto systémů, ověření souladu s požadavky tohoto nařízení, jakož i sledování jejich provozu a monitorování po uvedení na trh má zásadní význam, aby byly k dispozici srozumitelné informace o tom, jak byly vysoce rizikové systémy AI vytvořeny a jak fungují po celou dobu své životnosti. To vyžaduje vedení záznamů a dostupnost technické dokumentace obsahující informace nezbytné k posouzení souladu daného systému AI s příslušnými požadavky a usnadnění monitorování po uvedení na trh. Tyto informace by měly zahrnovat obecné vlastnosti, schopnosti a omezení tohoto systému, použité algoritmy, data, postupy při trénování, testování a validaci, jakož i dokumentaci příslušného systému řízení rizik, a měly by být vypracovány jasným a srozumitelným způsobem. Technická dokumentace by měla být řádně aktualizována po celou dobu životního cyklu systému AI. Kromě toho by vysoce rizikové systémy AI měly technicky umožňovat automatické zaznamenávání událostí prostřednictvím protokolů po celou dobu životnosti systému.
(72)
For at imødegå bekymringer vedrørende visse AI-systemers uigennemsigtighed og kompleksitet og hjælpe idriftsættere med at opfylde deres forpligtelser i henhold til denne forordning bør der kræves gennemsigtighed for højrisiko-AI-systemer, inden de bringes i omsætning eller ibrugtages. Højrisiko-AI-systemer bør udformes på en måde, der gør det muligt for idriftsættere at forstå, hvordan AI-systemet fungerer, evaluere dets funktionalitet og forstå dets styrker og begrænsninger. Højrisiko-AI-systemer bør ledsages af passende oplysninger i form af brugsanvisninger. Sådanne oplysninger bør omfatte AI-systemets egenskaber, kapacitet og begrænsninger for dets ydeevne. Disse kan omfatte oplysninger om mulige kendte og forudsigelige omstændigheder i forbindelse med anvendelse af højrisiko-AI-systemet, herunder udbredelsestiltag, der kan påvirke systemets adfærd og ydeevne, under hvilke AI-systemet kan medføre risici for sundhed, sikkerhed og grundlæggende rettigheder, om de ændringer, som udbyderen på forhånd har fastlagt og vurderet med henblik på overensstemmelse, og om de relevante foranstaltninger til menneskeligt tilsyn, herunder foranstaltninger til at lette idriftsætteres fortolkning af AI-systemets output. Gennemsigtighed, herunder den ledsagende brugsanvisning, bør hjælpe idriftsættere med at anvende systemet og støtte deres informerede beslutningstagning. Idriftsættere bør bl.a. være bedre i stand til at træffe det korrekte valg af det system, de har til hensigt at anvende, i lyset af de forpligtelser, der gælder for dem, være informeret om de tilsigtede og udelukkede anvendelser og anvende AI-systemet korrekt og som det er hensigtsmæssigt. For at gøre oplysningerne i brugsanvisningen mere læsbare og tilgængelige, bør der, hvis det er relevant, medtages illustrative eksempler, f.eks. om begrænsninger og om AI-systemets tilsigtede og udelukkede anvendelser. Udbyderne bør sikre, at al dokumentation, herunder brugsanvisningen, indeholder meningsfulde, omfattende, tilgængelige og forståelige oplysninger, der tager hensyn til behov for målgruppen af idriftsættere og deres forventede viden. Brugsanvisningen bør stilles til rådighed på et for målgruppen af idriftsættere letforståeligt sprog, som fastsat af den pågældende medlemsstat.
(72)
S cílem řešit obavy týkající se neprůhlednosti a složitosti některých systémů AI a pomoci zavádějícím subjektům plnit jejich povinnosti podle tohoto nařízení by měla být vyžadována transparentnost u vysoce rizikových systémů AI před jejich uvedením na trh nebo do provozu. Vysoce rizikové systémy AI by měly být navrženy tak, aby zavádějícím subjektům umožnily pochopit, jak systém AI funguje, vyhodnotit jeho funkčnost a porozumět jeho silným stránkám a omezením. K vysoce rizikovým systémům AI by měly být přiloženy příslušné informace ve formě návodu k použití. Tyto informace by měly zahrnovat vlastnosti, schopnosti a omezení výkonnosti systému AI. Měly by obsahovat informace o možných známých a předvídatelných okolnostech souvisejících s používáním vysoce rizikového systému AI, včetně činnosti zavádějícího subjektu, která může ovlivnit chování a výkonnost systému, za nichž může systém AI vést k rizikům pro zdraví, bezpečnost a základní práva, o změnách, které poskytovatel předem stanovil a posoudil z hlediska shody, a o příslušných opatřeních v oblasti lidského dohledu, včetně opatření k usnadnění interpretace výstupů systému AI zavádějícími subjekty. Transparentnost, včetně přiloženého návodu k použití, by měla zavádějícím subjektům pomoci při používání systému a podporovat jejich informované rozhodování. Zavádějící subjekty by měly být mimo jiné lépe schopny správně zvolit systém, který mají v úmyslu používat, s ohledem na povinnosti, které se na ně vztahují, měly by být poučeny o zamýšleném a vyloučeném použití a měly by systém AI používat správně a podle potřeby. Pro zvýšení srozumitelnosti a přístupnosti informací uvedených v návodu k použití, by měly být případně uvedeny ilustrační příklady, například omezení a zamýšlená a vyloučená použití systému AI. Poskytovatelé by měli zajistit, aby veškerá dokumentace, včetně návodu k použití, obsahovala smysluplné, komplexní, přístupné a srozumitelné informace s přihlédnutím k potřebám a předvídatelným znalostem cílových zavádějících subjektů. Návod k použití by měl být k dispozici v jazyce, který je pro cílové zavádějící subjekty snadno srozumitelný, jak určí příslušný členský stát.
(73)
Højrisiko-AI-systemer bør udformes og udvikles på en sådan måde, at fysiske personer kan overvåge deres funktion og sikre, at de anvendes som tilsigtet, og at deres virkninger håndteres i hele systemets livscyklus. Med henblik herpå bør udbyderen af systemet fastlægge passende foranstaltninger til menneskeligt tilsyn, inden systemet bringes i omsætning eller ibrugtages. Hvis det er relevant, bør sådanne foranstaltninger navnlig sikre, at systemet er underlagt indbyggede driftsmæssige begrænsninger, som ikke kan tilsidesættes af systemet selv, og reagerer på den menneskelige operatør, og at de fysiske personer, som har fået til opgave at varetage det menneskelige tilsyn, har den nødvendige kompetence, uddannelse og myndighed til at varetage rollen. Det er også afgørende i relevant omfang at sikre, at højrisiko-AI-systemer indeholder mekanismer, der kan vejlede og informere en fysisk person, som har fået til opgave at varetage det menneskelige tilsyn, til at træffe informerede beslutninger om, hvorvidt, hvornår og hvordan der skal gribes ind for at undgå negative konsekvenser eller risici, eller standse systemet, hvis det ikke fungerer som tilsigtet. I betragtning af de betydelige konsekvenser for personer i tilfælde af et ukorrekt match fra visse systemer til biometrisk identifikation er det hensigtsmæssigt at fastsætte et skærpet krav om menneskeligt tilsyn for disse systemer, således at idriftsætteren ikke foretager tiltag eller træffer beslutninger på grundlag af den identifikation, der er frembragt af systemet, medmindre den er blevet verificeret og bekræftet separat af mindst to fysiske personer. Disse personer kan være fra en eller flere enheder og omfatte den person, der driver eller anvender systemet. Dette krav bør ikke medføre unødvendige byrder eller forsinkelser, og det kan være tilstrækkeligt, at de forskellige personers særskilte verifikationer automatisk registreres i de logfiler, der genereres af systemet. I betragtning af de særlige forhold, der gør sig gældende inden for retshåndhævelse, migration, grænsekontrol og asyl, bør dette krav ikke finde anvendelse, når EU-retten eller national ret anser anvendelsen af dette krav for at være uforholdsmæssig.
(73)
Vysoce rizikové systémy AI by měly být navrhovány a vyvíjeny tak, aby na jejich fungování mohly dohlížet fyzické osoby, aby bylo zajištěno, že budou používány zamýšleným způsobem, a aby jejich dopady byly řešeny během celého životního cyklu systému. Za tímto účelem by měl poskytovatel systému před uvedením systému na trh nebo do provozu stanovit vhodná opatření lidského dohledu. Tato opatření by případně měla zajistit zejména, aby byla do systému zabudována provozní omezení, která samotný systém není schopen překonat a která reagují na lidskou obsluhu, a aby fyzické osoby, které byly lidským dohledem pověřeny, měly odbornou způsobilost, odbornou přípravu a pravomoci nezbytné k výkonu této funkce. Je rovněž nezbytné zajistit, aby vysoce rizikové systémy AI případně zahrnovaly mechanismy, které vedou a informují fyzickou osobu, jež byla lidským dohledem pověřena, aby mohla činit informovaná rozhodnutí, zda, kdy a jak zasáhnout, aby se zabránilo negativním důsledkům nebo rizikům, nebo systém zastavit, pokud nefunguje tak, jak má. Vzhledem k závažným důsledkům pro konkrétní osoby v případě nesprávné shody některých systémů biometrické identifikace je vhodné stanovit požadavek na posílený lidský dohled nad těmito systémy, aby zavádějící subjekt nemohl přijmout žádné opatření nebo rozhodnutí na základě identifikace vyplývající ze systému, pokud ji samostatně neověřily a nepotvrdily alespoň dvě fyzické osoby. Těmito osobami by mohli být zástupci jednoho nebo více subjektů a mohla by mezi ně patřit osoba, která systém provozuje nebo používá. Tento požadavek by neměl představovat zbytečnou zátěž nebo zdržení a mohlo by postačovat, aby byla samostatná ověření různými osobami automaticky zaznamenávána v protokolech generovaných systémem. Vzhledem ke zvláštnostem oblastí vymáhání práva, migrace, ochrany hranic a azylu by se tento požadavek neměl uplatňovat v případech, kdy právo Unie nebo vnitrostátní právo považuje uplatňování tohoto požadavku za nepřiměřené.
(74)
Højrisiko-AI-systemer bør yde konsistent i hele deres livscyklus og have et passende niveau af nøjagtighed, robusthed og cybersikkerhed i lyset af deres tilsigtede formål og i overensstemmelse med det generelt anerkendte aktuelle teknologiske niveau. Kommissionen og relevante organisationer og interessenter opfordres til at tage behørigt hensyn til afbødningen af risici og de negative indvirkninger ved AI-systemet. Det forventede niveau for ydeevneparametre bør angives i den ledsagende brugsanvisning. Udbyderne opfordres indtrængende til at videregive disse oplysninger til idriftsætterne på en klar og letforståelig måde uden misforståelser eller vildledende udsagn. EU-ret om retslig metrologi, herunder Europa-Parlamentets og Rådets direktiv 2014/31/EU (35) og 2014/32/EU (36), har til formål at sikre målingernes nøjagtighed og bidrage til gennemsigtighed og retfærdighed i handelstransaktioner. I denne forbindelse bør Kommissionen, alt efter hvad der er relevant og i samarbejde med relevante interessenter og organisationer såsom metrologi- og benchmarkingmyndigheder, tilskynde til udvikling af benchmarks og målemetoder for AI-systemer. Kommissionen bør herved notere sig og samarbejde med internationale partnere, der arbejder med metrologi og relevante måleindikatorer vedrørende AI.
(74)
Vysoce rizikové systémy AI by měly po celou dobu svého životního cyklu fungovat konzistentně a splňovat příslušnou úroveň přesnosti, spolehlivosti a kybernetické bezpečnosti s ohledem na svůj zamýšlený účel a v souladu s obecně uznávaným nejnovějším vývojem. Komise a příslušné organizace a zúčastněné strany se vyzývají, aby náležitě zohledňovaly zmírnění rizik a negativních dopadů systémů AI. V přiloženém návodu k použití by měla být uvedena očekávaná úroveň metrik výkonnosti. Poskytovatelé se vyzývají, aby tyto informace zavádějícím subjektům sdělili jasným a snadno srozumitelným způsobem, bez nedorozumění nebo zavádějících prohlášení. Cílem práva Unie týkajícího se legální metrologie, včetně směrnic Evropského parlamentu a Rady 2014/31/EU (35) a 2014/32/EU (36), je zajistit přesnost měření a přispět k transparentnosti a poctivosti obchodních transakcí. V této souvislosti by Komise měla ve spolupráci s příslušnými zúčastněnými stranami a organizacemi, jako jsou metrologické a srovnávací orgány, případně podporovat vývoj referenčních hodnot a metodik měření pro systémy AI. Komise by přitom měla vzít na vědomí mezinárodní partnery pracující v oblasti metrologie a příslušných ukazatelů měření týkajících se AI a spolupracovat s nimi.
(75)
Teknisk robusthed er et centralt krav for højrisiko-AI-systemer. De bør være modstandsdygtige i forbindelse med skadelig eller på anden vis uønsket adfærd, der kan skyldes begrænsninger i systemerne eller det miljø, som systemerne fungerer i (f.eks. fejl, svigt, uoverensstemmelser og uventede situationer). Der bør derfor træffes tekniske og organisatoriske foranstaltninger for at sikre højrisiko-AI-systemers robusthed, f.eks. ved at udforme og udvikle passende tekniske løsninger for at forebygge eller minimere denne skadelige eller på anden måde uønskede adfærd. Disse tekniske løsninger kan f.eks. omfatte mekanismer, der gør det muligt for systemet på sikker vis at afbryde dets drift (»fail-safe plans«), hvis der opstår visse uregelmæssigheder, eller hvis driften ligger uden for visse forudbestemte grænser. Manglende beskyttelse mod disse risici kan have sikkerhedsmæssige konsekvenser eller en negativ indvirkning på de grundlæggende rettigheder, f.eks. som følge af fejlagtige beslutninger eller forkerte output eller output behæftet med bias genereret af AI-systemet.
(75)
U vysoce rizikových systémů AI je klíčovým požadavkem technická spolehlivost. Tyto systémy by měly být odolné vůči škodlivému nebo jinak nežádoucímu chování, které může být důsledkem omezení uvnitř systémů nebo prostředí, v němž systémy fungují (např. chyby, závady, nesrovnalosti, neočekávané situace). Proto by měla být přijata technická a organizační opatření k zajištění spolehlivosti vysoce rizikových systémů AI, obnášející například navrhování a vývoj vhodných technických řešení pro prevenci nebo minimalizaci škodlivého nebo jinak nežádoucího chování. Tato technická řešení mohou zahrnovat například mechanismy umožňující systému bezpečně přerušit provoz (plány zajištění proti selhání) v přítomnosti určitých anomálií nebo v případě, že provoz probíhá mimo určité předem stanovené hranice. Neschopnost ochrany před těmito riziky by mohla vést k dopadům na bezpečnost nebo negativně ovlivnit základní práva, například v důsledku chybných rozhodnutí nebo nesprávných či zkreslených výstupů systému AI.
(76)
Cybersikkerhed spiller en afgørende rolle med hensyn til at sikre, at AI-systemer er modstandsdygtige over for ondsindede tredjeparters forsøg på at ændre deres anvendelse, adfærd eller ydeevne eller bringe deres sikkerhedsegenskaber i fare ved at udnytte systemets sårbarheder. Cyberangreb mod AI-systemer kan udnytte AI-specifikke aktiver såsom træningsdatasæt (f.eks. dataforgiftning) eller trænede modeller (f.eks. ondsindede angreb eller »membership inference«) eller udnytte sårbarheder i AI-systemets digitale aktiver eller den underliggende IKT-infrastruktur. For at sikre et cybersikkerhedsniveau, der er passende i forhold til risiciene, bør udbydere af højrisiko-AI-systemer træffe passende foranstaltninger såsom sikkerhedskontroller, idet der også i relevant omfang tages hensyn til den underliggende IKT-infrastruktur.
(76)
Zásadní úlohu při zajišťování odolnosti systémů AI proti pokusům o změnu jejich použití, chování nebo výkonnosti nebo o ohrožení jejich bezpečnostních vlastností třetími stranami, které se škodlivým záměrem zneužívají zranitelných míst tohoto systému, hraje kybernetická bezpečnost. Kybernetické útoky na systémy AI mohou využívat aspekty, jež jsou pro AI specifické, například soubory trénovacích dat (například tzv. data poisoning) nebo trénované modely (například nepřátelské útoky nebo odvozování členství), nebo zneužívat slabých míst digitálních aktiv daného systému AI nebo příslušné infrastruktury IKT. Pro zajištění úrovně kybernetické bezpečnosti odpovídající těmto rizikům by proto poskytovatelé vysoce rizikových systémů AI měli přijmout vhodná opatření, jako jsou bezpečnostní kontroly, případně současně zohlednit i příslušnou infrastrukturu IKT.
(77)
Uden at det berører de krav til robusthed og nøjagtighed, der er fastsat i denne forordning, kan højrisiko-AI-systemer, der er omfattet af anvendelsesområdet for en forordning vedtaget af Europa-Parlamentet og Rådet om horisontale cybersikkerhedskrav til produkter med digitale elementer, i overensstemmelse med nævnte forordning påvise overholdelse af cybersikkerhedskravene i nærværende forordning ved at opfylde de væsentlige cybersikkerhedskrav, der er fastsat i nævnte forordning. Når højrisiko-AI-systemer opfylder de væsentlige krav i en forordning vedtaget af Europa-Parlamentet og Rådet om horisontale cybersikkerhedskrav til produkter med digitale elementer, bør de anses for at overholde cybersikkerhedskravene i nærværende forordning, for så vidt opfyldelsen af disse krav påvises ved EU-overensstemmelseserklæringen eller dele heraf udstedt i henhold til nævnte forordning. Med henblik herpå bør vurderingen af de cybersikkerhedsrisici, der er forbundet med et produkt med digitale elementer klassificeret som et højrisiko-AI-system i henhold til nærværende forordning, og som foretages i henhold til en forordning vedtaget af Europa-Parlamentet og Rådet om horisontale cybersikkerhedskrav til produkter med digitale elementer tage hensyn til risici for et AI-systems cyberrobusthed for så vidt angår uautoriserede tredjeparters forsøg på at ændre dets anvendelse, adfærd eller ydeevne, herunder AI-specifikke sårbarheder såsom dataforgiftning eller ondsindede angreb, samt, hvis det er relevant, risici for grundlæggende rettigheder som krævet i nærværende forordning.
(77)
Aniž jsou dotčeny požadavky týkající se spolehlivosti a přesnosti stanovené v tomto nařízení, mohou vysoce rizikové systémy AI, které spadají do oblasti působnosti nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, v souladu s uvedeným nařízením prokázat soulad s požadavky na kybernetickou bezpečnost podle tohoto nařízení splněním základních požadavků na kybernetickou bezpečnost stanoveným v uvedeném nařízení. Pokud vysoce rizikové systémy AI splňují základní požadavky nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, měly by být považovány za vyhovující požadavkům na kybernetickou bezpečnost stanoveným v tomto nařízení, pokud je splnění těchto požadavků prokázáno v EU prohlášení o shodě nebo jeho částech vydaném podle uvedeného nařízení. Za tímto účelem by posouzení kybernetických bezpečnostních rizik spojených s produktem s digitálními prvky klasifikovanými podle tohoto nařízení jako vysoce rizikový systém AI, prováděné podle nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, mělo zohlednit rizika pro kybernetickou odolnost systému AI, pokud jde o pokusy neoprávněných třetích stran změnit jeho používání, chování nebo výkonnost, včetně zranitelných míst specifických pro AI, jako jsou „tzv. data poisoning“ nebo nepřátelské útoky, jakož i příslušná rizika pro základní práva, jak vyžaduje toto nařízení.
(78)
Overensstemmelsesvurderingsproceduren i denne forordning bør finde anvendelse i forbindelse med de væsentlige cybersikkerhedskrav til et produkt med digitale elementer, der er omfattet af en forordning vedtaget af Europa-Parlamentet og Rådet om horisontale cybersikkerhedskrav til produkter med digitale elementer og klassificeret som et højrisiko-AI-system i henhold til nærværende forordning. Denne regel bør dog ikke resultere i en reduktion af det nødvendige sikkerhedsniveau for kritiske produkter med digitale elementer, der er omfattet af en forordning vedtaget af Europa-Parlamentet og Rådet om horisontale cybersikkerhedskrav til produkter med digitale elementer. Uanset denne regel bør højrisiko-AI-systemer, der er omfattet af anvendelsesområdet for nærværende forordning og også betragtes som vigtige og kritiske produkter med digitale elementer i henhold til en forordning vedtaget af Europa-Parlamentet og Rådet om horisontale cybersikkerhedskrav til produkter med digitale elementer, og som proceduren for overensstemmelsesvurdering baseret på intern kontrol fastsat i et bilag til nærværende forordning finder anvendelse på, derfor være omfattet af bestemmelserne om overensstemmelsesvurdering i en forordning vedtaget af Europa-Parlamentet og Rådet om horisontale cybersikkerhedskrav til produkter med digitale elementer for så vidt angår de væsentlige cybersikkerhedskrav i nævnte forordning. I så fald bør de respektive bestemmelser om overensstemmelsesvurdering baseret på intern kontrol, der er fastsat i et bilag til nærværende forordning, finde anvendelse på alle de øvrige aspekter, der er omfattet af nærværende forordning. På grundlag af ENISA's viden og ekspertise om cybersikkerhedspolitik og de opgaver, som ENISA har fået tildelt i henhold til Europa-Parlamentets og Rådets forordning (EU) 2019/881 (37), bør Kommissionen samarbejde med ENISA om spørgsmål vedrørende cybersikkerhed i forbindelse med AI-systemer.
(78)
Postup posuzování shody stanovený tímto nařízením by se měl použít ve vztahu k základním požadavkům na kybernetickou bezpečnost produktu s digitálními prvky, na něž se vztahuje nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky a který je podle tohoto nařízení klasifikován jako vysoce rizikový systém AI. Toto pravidlo by však nemělo vést ke snížení potřebné míry jistoty u kritických produktů s digitálními prvky, na něž se vztahuje nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky. Odchylně od tohoto pravidla se proto vysoce rizikové systémy AI, které spadají do oblasti působnosti tohoto nařízení a jsou rovněž považovány za důležité a kritické produkty s digitálními prvky podle nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, na něž se vztahuje postup posuzování shody založený na interní kontrole stanovený v příloze tohoto nařízení, řídí ustanoveními nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky o posuzování shody, pokud jde o základní požadavky uvedeného nařízení na kybernetickou bezpečnost. V tomto případě by se na všechny ostatní aspekty, na něž se vztahuje toto nařízení, měla použít příslušná ustanovení o posuzování shody založená na interní kontrole uvedená v příloze tohoto nařízení. Na základě poznatků a odborných znalostí agentury ENISA týkajících se politiky kybernetické bezpečnosti a úkolů svěřených agentuře ENISA podle nařízení Evropského parlamentu a Rady 2019/881 (37) by Komise měla v otázkách souvisejících s kybernetickou bezpečností systémů AI s agenturou ENISA spolupracovat.
(79)
Det er passende, at en bestemt fysisk eller juridisk person, defineret som udbyderen, påtager sig ansvar for omsætningen eller ibrugtagningen af et højrisiko-AI-system, uanset om denne fysiske eller juridiske person er den person, der har udformet eller udviklet systemet.
(79)
Je vhodné, aby za uvedení vysoce rizikového systému AI na trh nebo do provozu převzala odpovědnost konkrétní fyzická nebo právnická osoba definovaná jako poskytovatel bez ohledu na to, zda je tato fyzická nebo právnická osoba totožná s osobou, která tento systém navrhla nebo vyvinula.
(80)
Unionen og alle medlemsstaterne er som underskrivere af De Forenede Nationers konvention om rettigheder for personer med handicap juridisk forpligtede til at beskytte personer med handicap mod forskelsbehandling og fremme deres ligestilling med henblik på at sikre, at personer med handicap har adgang på lige fod med andre til informations- og kommunikationsteknologier og -systemer, og med henblik på at sikre respekten for personer med handicaps privatliv. På grund af den voksende betydning og brug af AI-systemer bør anvendelsen af universelle designprincipper på alle nye teknologier og tjenesteydelser sikre en fuldstændig og ligelig adgang for alle, der potentielt berøres af eller benytter AI-teknologier, herunder personer med handicap, på en måde, der fuldt ud tager hensyn til deres iboende værdighed og mangfoldighed. Det er derfor afgørende, at udbyderne sikrer fuld overholdelse af tilgængelighedskravene, herunder Europa-Parlamentets og Rådets direktiv (EU) 2016/2102 (38) og direktiv (EU) 2019/882. Udbyderne bør sikre overholdelsen af disse krav gennem design. Derfor bør de nødvendige foranstaltninger så vidt muligt integreres i udformningen af højrisiko-AI-systemet.
(80)
Unie a členské státy jsou jakožto signatáři Úmluvy Organizace spojených národů o právech osob se zdravotním postižením ze zákona povinny chránit osoby se zdravotním postižením před diskriminací a podporovat jejich rovnost, zajistit, aby osoby se zdravotním postižením měly na rovnoprávném základě s ostatními přístup k informačním a komunikačním technologiím a systémům, a zaručit respektování soukromí osob se zdravotním postižením. Vzhledem k rostoucímu významu a nárůstu používání systémů AI by uplatňování zásad univerzálního designu na veškeré nové technologie a služby mělo zajistit plný a rovný přístup každému, na koho mohou mít technologie AI vliv nebo kdo je používá, včetně osob se zdravotním postižením, a to způsobem, který by plně zohlednil jejich přirozenou důstojnost a rozmanitost. Je proto nutné, aby poskytovatelé zajistili plný soulad s požadavky na přístupnost, včetně směrnice Evropského parlamentu a Rady (EU) 2016/2102 (38) a směrnice (EU) 2019/882. Poskytovatelé by měli zajistit soulad s těmito požadavky již od fáze návrhu. Nezbytná opatření by proto měla být v co největší míře začleněna již do návrhu vysoce rizikového systému AI.
(81)
Udbyderen bør etablere et solidt kvalitetsstyringssystem, sikre gennemførelsen af den påkrævede overensstemmelsesvurderingsprocedure, udarbejde den relevante dokumentation og etablere et robust system til overvågning efter omsætningen. Udbydere af højrisiko-AI-systemer, der er underlagt forpligtelser vedrørende kvalitetsstyringssystemer i henhold til relevant sektorspecifik EU-ret, bør have mulighed for at medtage elementerne i det kvalitetsstyringssystem, der er fastsat i denne forordning, som en del af det eksisterende kvalitetsstyringssystem, der er fastsat i denne anden sektorspecifikke EU-ret. Komplementariteten mellem denne forordning og eksisterende sektorspecifik EU-ret bør også tages i betragtning i fremtidige standardiseringsaktiviteter eller retningslinjer vedtaget af Kommissionen. Offentlige myndigheder, der ibrugtager højrisiko-AI-systemer til egen brug, kan vedtage og gennemføre reglerne for kvalitetsstyringssystemet som en del af det kvalitetsstyringssystem, der er vedtaget på nationalt eller regionalt plan, alt efter hvad der er relevant, under hensyntagen til de særlige forhold i sektoren og den pågældende offentlige myndigheds kompetencer og organisation.
(81)
Poskytovatel by měl zavést spolehlivý systém řízení kvality, zajistit provedení požadovaného postupu posuzování shody, vypracovat příslušnou dokumentaci a zavést spolehlivý systém monitorování po uvedení na trh. Poskytovatelé vysoce rizikových systémů AI, na něž se vztahují povinnosti týkající se systémů řízení kvality podle příslušného odvětvového práva Unie, by měli mít možnost zahrnout prvky systému řízení kvality stanovené v tomto nařízení do stávajícího systému řízení kvality stanoveného v tomto jiném odvětvovém právu Unie. Doplňkovost mezi tímto nařízením a stávajícím odvětvovým právem Unie by měla být rovněž zohledněna v budoucích normalizačních činnostech nebo pokynech přijatých Komisí. Veřejné orgány, které uvádějí do provozu vysoce rizikové systémy AI pro vlastní potřebu, mohou přijímat a provádět pravidla pro systém řízení kvality jako součást systému řízení kvality přijatého na vnitrostátní nebo regionální úrovni, případně s přihlédnutím ke zvláštnostem daného odvětví a k pravomocím a organizaci dotyčného veřejného orgánu.
(82)
For at muliggøre håndhævelsen af denne forordning og skabe lige vilkår for operatørerne og under hensyntagen til de forskellige former for tilgængeliggørelse af digitale produkter er det vigtigt at sikre, at en person, der er etableret i Unionen, under alle omstændigheder kan give myndighederne alle de nødvendige oplysninger om et AI-systems overensstemmelse med reglerne. Udbydere, der er etableret i tredjelande, bør, inden deres AI-systemer gøres tilgængelige i Unionen, derfor ved skriftligt mandat udpege en bemyndiget repræsentant, der er etableret i Unionen. Denne bemyndigede repræsentant spiller en central rolle med hensyn til at sikre, at højrisiko-AI-systemer, der bringes i omsætning eller ibrugtages i Unionen af disse udbydere, der ikke er etableret i Unionen, overholder kravene, og som deres kontaktperson i Unionen.
(82)
Aby bylo umožněno prosazování tohoto nařízení a byly vytvořeny rovné podmínky pro provozovatele, a rovněž s přihlédnutím k různým formám zpřístupňování digitálních produktů je důležité zajistit, aby osoby usazené v Unii mohly za všech okolností poskytnout orgánům veškeré nezbytné informace o souladu systému AI. Poskytovatelé usazení ve třetích zemích by proto v případě, že dodávají do Unie systémy AI, měly předem jmenovat formou písemného pověření svého zplnomocněného zástupce usazeného v Unii. Tento zplnomocněný zástupce hraje klíčovou roli při zajišťování shody vysoce rizikových systémů AI uváděných na trh nebo do provozu v Unii uvedenými poskytovateli, kteří v Unii usazeni nejsou, a vystupuje jako jejich kontaktní osoba usazená v Unii.
(83)
I lyset af arten og kompleksiteten af værdikæden for AI-systemer og i overensstemmelse med den nye lovgivningsmæssige ramme er det vigtigt at sikre retssikkerheden og lette overholdelsen af denne forordning. Det er derfor nødvendigt at præcisere den rolle og de specifikke forpligtelser, der påhviler relevante operatører i denne værdikæde såsom importører og distributører, der kan bidrage til udviklingen af AI-systemer. I visse situationer kan disse operatører optræde i mere end én rolle på samme tid og bør derfor kumulativt opfylde alle relevante forpligtelser, der er forbundet med disse roller. F.eks. kan en operatør fungere som distributør og importør på samme tid.
(83)
S ohledem na povahu a složitost hodnotového řetězce systémů AI a v souladu s novým legislativním rámcem je nezbytné zajistit právní jistotu a usnadnit soulad s tímto nařízením. Je proto zapotřebí vyjasnit úlohu a konkrétní povinnosti příslušných provozovatelů v celém tomto hodnotovém řetězci, jako jsou dovozci a distributoři, kteří mohou přispívat k vývoji systémů AI. V určitých situacích by tito provozovatelé mohli jednat ve více než jedné roli současně, a měli by proto kumulativně plnit všechny příslušné povinnosti spojené s těmito úlohami. Provozovatel by například mohl jednat současně jako distributor a dovozce.
(84)
For at sikre retssikkerheden er det nødvendigt at præcisere, at enhver distributør, importør, idriftsætter eller anden tredjepart under visse særlige omstændigheder bør betragtes som udbyder af et højrisiko-AI-system og derfor påtage sig alle de relevante forpligtelser. Dette vil være tilfældet, hvis den pågældende part anbringer sit navn eller varemærke på et højrisiko-AI-system, der allerede er bragt i omsætning eller ibrugtaget, uden at det berører kontraktlige ordninger om, at forpligtelserne er fordelt anderledes. Dette vil også være tilfældet, hvis den pågældende part foretager en væsentlig ændring af et højrisiko-AI-system, der allerede er bragt i omsætning eller allerede er ibrugtaget på en sådan måde, at det forbliver et højrisiko-AI-system i overensstemmelse med denne forordning, eller hvis denne ændrer det tilsigtede formål med et AI-system, herunder et AI-system til almen brug, der ikke er blevet klassificeret som højrisiko, og som allerede er bragt i omsætning eller ibrugtaget, på en sådan måde, at AI-systemet bliver et højrisiko-AI-system i overensstemmelse med denne forordning. Disse bestemmelser bør finde anvendelse, uden at det berører mere specifikke bestemmelser, der er fastsat i særlig EU-harmoniseringslovgivning baseret på den nye lovgivningsmæssige ramme, som denne forordning bør finde anvendelse sammen med. F.eks. bør artikel 16, stk. 2, i forordning (EU) 2017/745, der fastsætter, at visse ændringer ikke bør betragtes som ændringer af udstyr, der kan påvirke dets overholdelse af gældende krav, fortsat finde anvendelse på højrisiko-AI-systemer, der er medicinsk udstyr som omhandlet i nævnte forordning.
(84)
V zájmu zajištění právní jistoty je nezbytné vyjasnit, že za určitých zvláštních podmínek by každý distributor, dovozce, zavádějící subjekt nebo jiná třetí strana měli být považováni za poskytovatele vysoce rizikového systému AI, a proto by měli převzít všechny příslušné povinnosti. Tak by tomu mělo být v případě, že daná strana připojí své jméno, název nebo ochrannou známku k vysoce rizikovému systému AI, který již byl uveden na trh nebo do provozu, aniž jsou dotčena smluvní ujednání stanovující jiné rozdělení povinností. Mělo by tomu tak být i v případě, kdy tato strana podstatně změní vysoce rizikový systém AI, který již byl uveden na trh nebo do provozu, přičemž v důsledku této změny daný systém AI zůstává vysoce rizikovým systémem AI v souladu tímto nařízením, nebo pokud změní zamýšlený účel systému AI, včetně obecného systému AI, který nebyl klasifikován jako vysoce rizikový a již byl uveden na trh nebo do provozu, přičemž v důsledku této změny se daný systém AI stává vysoce rizikovým systémem AI v souladu s tímto nařízením. Uvedená ustanovení by se měla použít, aniž by byla dotčena konkrétnější ustanovení zavedená v některých harmonizačních právních předpisech Unie založených na novém legislativním rámci, s nimiž by se toto nařízení mělo společně uplatňovat. Například čl. 16 odst. 2 nařízení (EU) 2017/745, kterým se stanoví, že některé změny by neměly být považovány za úpravy prostředku, které by mohly ovlivnit jeho soulad s platnými požadavky, by se měl i nadále vztahovat na vysoce rizikové systémy AI, které jsou zdravotnickými prostředky ve smyslu uvedeného nařízení.
(85)
AI-systemer til almen brug kan anvendes som højrisiko-AI-systemer i sig selv eller som komponenter i andre højrisiko-AI-systemer. Derfor bør udbydere af sådanne systemer på grund af deres særlige karakter og for at sikre en rimelig ansvarsfordeling i hele AI-værdikæden, uanset om de kan anvendes som højrisiko-AI-systemer som sådan af andre udbydere eller som komponenter i højrisiko-AI-systemer, og medmindre andet er fastsat i denne forordning, arbejde tæt sammen med udbyderne af de relevante højrisiko-AI-systemer, så de kan overholde de relevante forpligtelser i henhold til denne forordning og med de kompetente myndigheder, der er fastsat i henhold til denne forordning.
(85)
Obecné systémy AI mohou být samy o sobě používány jako vysoce rizikové systémy AI nebo mohou být součástí jiných vysoce rizikových systémů AI. Vzhledem k zvláštní povaze těchto systémů a v zájmu zajištění spravedlivého rozdělení odpovědností v celém hodnotovém řetězci AI bez ohledu na to, zda mohou být dané systémy jinými poskytovateli používány jako vysoce rizikové systémy AI jako takové, nebo jako součásti vysoce rizikových systémů AI, a není-li v tomto nařízení stanoveno jinak, měli by poskytovatelé těchto systémů úzce spolupracovat s poskytovateli příslušných vysoce rizikových systémů AI, aby mohli plnit příslušné povinnosti podle tohoto nařízení, a s příslušnými orgány zřízenými podle tohoto nařízení.
(86)
Hvis den udbyder, der oprindeligt bragte AI-systemet i omsætning eller ibrugtog det, på de betingelser, der er fastsat i denne forordning, ikke længere bør anses for at være udbyder i denne forordnings forstand, og når denne udbyder ikke udtrykkeligt har udelukket ændringen af AI-systemet til et højrisiko-AI-system, bør den tidligere udbyder ikke desto mindre arbejde tæt sammen og stille de nødvendige oplysninger til rådighed og give den tekniske adgang og anden bistand, som med rimelighed kan forventes, og som kræves for at opfylde forpligtelserne i denne forordning, navnlig hvad angår overholdelse af overensstemmelsesvurderingen af højrisiko-AI-systemer.
(86)
Pokud by poskytovatel, který původně uvedl systém AI na trh nebo do provozu, za podmínek stanovených v tomto nařízení již neměl být považován za poskytovatele pro účely tohoto nařízení a pokud výslovně nevyloučil změnu systému AI na vysoce rizikový systém AI, měl by tento bývalý poskytovatel přesto úzce spolupracovat, zpřístupnit nezbytné informace a poskytnout rozumně očekávaný technický přístup a další pomoc, které jsou nezbytné pro splnění povinností stanovených v tomto nařízení, zejména pokud jde o soulad s posuzováním shody vysoce rizikových systémů AI.
(87)
Hvis et højrisiko-AI-system, som er en sikkerhedskomponent i et produkt, der er omfattet af anvendelsesområdet for EU-harmoniseringslovgivning baseret på den nye lovgivningsmæssige ramme, desuden ikke bringes i omsætning eller ibrugtages uafhængigt af produktet, bør producenten af produktet defineret i den pågældende lovgivning overholde de forpligtelser, der påhviler udbyderen i henhold til denne forordning, og bør navnlig sikre, at det AI-system, der er indlejret i slutproduktet, overholder kravene i denne forordning.
(87)
Kromě toho pokud vysoce rizikový systém AI, který je bezpečnostní komponentou produktu, jenž spadá do oblasti působnosti harmonizačních právních předpisů Unie založených na novém legislativním rámci, není uveden na trh nebo do provozu nezávisle na tomto produktu, měl by výrobce produktu definovaného v uvedených právních předpisech splňovat povinnosti poskytovatele stanovené v tomto nařízení, a zejména zajistit, aby systém AI zabudovaný do konečného produktu splňoval požadavky tohoto nařízení.
(88)
I AI-værdikæden leverer flere parter ofte AI-systemer, værktøjer og tjenester, men også komponenter eller processer, som udbyderen indarbejder i AI-systemet til forskellige formål, herunder modeltræning, fornyet modeltræning, modelafprøvning og -evaluering, integration i software eller andre aspekter af modeludvikling. Disse parter spiller en vigtig rolle i værdikæden over for udbyderen af det højrisiko-AI-system, som deres AI-systemer, værktøjer, tjenester, komponenter eller processer er integreret i, og bør ved skriftlig aftale give denne udbyder den nødvendige information, kapacitet, tekniske adgang og anden bistand på grundlag af det generelt anerkendte aktuelle teknologiske niveau, således at udbyderen er i stand til fuldt ud at overholde forpligtelserne i denne forordning uden at bringe deres egne intellektuelle ejendomsrettigheder eller forretningshemmeligheder i fare.
(88)
V celém hodnotovém řetězci AI mnoho stran často dodává systémy, nástroje a služby AI, ale také komponenty nebo procesy, které poskytovatel začleňuje do systému AI s různými cíli, včetně trénování modelu, opětovného trénování modelu, testování a hodnocení modelu, integrace do softwaru nebo jiných aspektů vývoje modelu. Tyto strany hrají důležitou úlohu v hodnotovém řetězci ve vztahu k poskytovateli vysoce rizikového systému AI, do něhož jsou jejich systémy, nástroje, služby, součásti nebo procesy AI začleňovány, a měly by na základě písemné dohody tomuto poskytovateli poskytnout nezbytné informace, schopnosti, technický přístup a další pomoc na základě obecně uznávaného stavu techniky, aby poskytovatel mohl plně plnit povinnosti stanovené v tomto nařízení, aniž by byla ohrožena jejich práva duševního vlastnictví nebo obchodní tajemství.
(89)
Tredjeparter, der gør andre værktøjer, tjenester, processer eller AI-komponenter tilgængelige for offentligheden end AI-modeller til almen brug, bør ikke være forpligtet til at overholde krav rettet mod ansvar i hele AI-værdikæden, navnlig mod den udbyder, der har anvendt eller integreret dem, når disse værktøjer, tjenester, processer eller AI-komponenter gøres tilgængelige i henhold til en gratis open source-licens. Udviklere af andre gratis open source-værktøjer, -tjenester, -processer eller -AI-komponenter end AI-modeller til almen brug bør dog tilskyndes til at gennemføre bredt indførte former for dokumentationspraksis såsom modelkort og datablade som en måde at fremskynde informationsdeling i hele AI-værdikæden på og derved fremme troværdige AI-systemer i Unionen.
(89)
Třetí strany, které zpřístupňují veřejnosti nástroje, služby, procesy nebo součásti AI jiné než obecné modely AI, by neměly být povinny dodržovat požadavky vztahující se k odpovědnosti vůči celému hodnotovému řetězci AI, zejména vůči poskytovateli, který tyto nástroje, služby, procesy nebo součásti AI použil nebo začlenil, pokud jsou zpřístupněny na základě svobodné a otevřené licence. Vývojáři svobodných nástrojů, služeb, procesů nebo komponent AI a s otevřeným zdrojovým kódem jiných než obecné modely AI by měli být vybízeni, aby zavedli široce přijaté dokumentační postupy, například modelové karty a datové listy, jako způsob rychlejšího sdílení informací v celém hodnotovém řetězci AI, což umožní podporu důvěryhodných systémů AI v Unii.
(90)
Kommissionen kan udvikle og anbefale frivillige standardaftalevilkår mellem udbydere af højrisiko-AI-systemer og tredjeparter, der leverer værktøjer, tjenester, komponenter eller processer, som anvendes eller integreres i højrisiko-AI-systemer, for at lette samarbejdet i hele værdikæden. Når Kommissionen udarbejder frivillige standardaftalevilkår, tager den også hensyn til eventuelle kontraktlige krav, der gælder i specifikke sektorer eller forretningsscenarier.
(90)
Komise by mohla vypracovat a doporučit dobrovolné vzorové smluvní podmínky mezi poskytovateli vysoce rizikových systémů AI a třetími stranami, které dodávají nástroje, služby, komponenty nebo procesy, jež jsou ve vysoce rizikových systémech AI používány nebo jsou do nich integrovány, a v celém hodnotovém řetězci tak usnadnit spolupráci. Při vypracovávání dobrovolných vzorových smluvních podmínek by Komise měla také zohlednit možné smluvní požadavky použitelné v konkrétních odvětvích nebo obchodních případech.
(91)
I betragtning af AI-systemers karakter og de risici for sikkerheden og de grundlæggende rettigheder, der kan være forbundet med deres anvendelse, herunder behovet for at sikre korrekt overvågning af et AI-systems ydeevne i virkelige rammer, bør der fastsættes specifikke ansvarsområder for idriftsættere. Idriftsættere bør navnlig træffe passende tekniske og organisatoriske foranstaltninger for at sikre, at de anvender højrisiko-AI-systemer i overensstemmelse med brugsanvisningen, og der bør fastsættes visse andre forpligtelser med hensyn til overvågning af AI-systemernes funktion og med hensyn til registrering, alt efter hvad der er relevant. Idriftsættere bør desuden sikre, at de personer, som har fået til opgave at gennemføre brugsanvisningen og det menneskelige tilsyn som fastsat i denne forordning, har den nødvendige kompetence, navnlig et passende niveau af AI-færdigheder, -træning og -myndighed til at udføre disse opgaver korrekt. Disse forpligtelser bør ikke berøre andre af idriftsætterens forpligtelser i forbindelse med højrisiko-AI-systemer i henhold til EU-retten eller national ret.
(91)
Vzhledem k povaze systémů AI a rizikům z hlediska bezpečnosti a základních práv, která mohou souviset s jejich používáním, a to i pokud jde o potřebu zajistit řádné monitorování výkonnosti daného systému AI v reálných podmínkách, je vhodné stanovit konkrétní odpovědnost zavádějících subjektů. Zavádějící subjekty by zejména měly přijmout vhodná technická a organizační opatření, aby zajistily, že budou vysoce rizikové systémy AI používat v souladu s návodem k použití, a měly by být stanoveny některé další povinnosti týkající se monitorování fungování systémů AI a případně uchovávání záznamů. Zavádějící subjekty by dále měly zajistit, aby osoby pověřené uplatňováním návodů k použití a lidským dohledem, jak je stanoveno v tomto nařízení, měly nezbytnou způsobilost, zejména odpovídající úroveň gramotnosti, odborné přípravy a pravomoci v oblasti AI, aby mohly tyto úkoly řádně plnit. Těmito povinnostmi by neměly být dotčeny jiné povinnosti zavádějících subjektů v souvislosti s vysoce rizikovými systémy AI podle práva Unie nebo vnitrostátního práva.
(92)
Denne forordning berører ikke arbejdsgivernes forpligtelser til at informere eller høre arbejdstagerne eller deres repræsentanter i henhold til EU-retten og EU-praksis eller national ret og praksis, herunder Europa-Parlamentets og Rådets direktiv 2002/14/EF (39), om beslutninger om at ibrugtage eller anvende AI-systemer. Det er fortsat nødvendigt at sikre, at arbejdstagerne og deres repræsentanter informeres om den planlagte idriftsættelse af højrisiko-AI-systemer på arbejdspladsen, hvis betingelserne for disse informations- eller informations- og høringsforpligtelser i andre retlige instrumenter ikke er opfyldt. En sådan ret til information er desuden accessorisk og nødvendig i forhold til målet om at beskytte de grundlæggende rettigheder, der ligger til grund for denne forordning. Der bør derfor fastsættes et informationskrav med henblik herpå i denne forordning, uden at det berører arbejdstagernes eksisterende rettigheder.
(92)
Tímto nařízením nejsou dotčeny povinnosti zaměstnavatelů týkající se informování zaměstnanců nebo informování zaměstnanců a projednávání se zaměstnanci nebo jejich zástupci podle práva a praxe Unie nebo vnitrostátního práva a praxe, včetně směrnice Evropského parlamentu a Rady 2002/14/ES (39), o rozhodnutích o uvedení do provozu nebo používání systémů AI. Je i nadále nezbytné zajistit informování zaměstnanců a jejich zástupců o plánovaném zavádění vysoce rizikových systémů AI na pracovišti v případech, kdy nejsou splněny podmínky pro tyto povinnosti týkající se informování nebo informování a projednávání stanovené v jiných právních nástrojích. Toto právo na informace je navíc doplňkové a nezbytné k dosažení cíle ochrany základních práv, na němž je toto nařízení založeno. Proto by měl být v tomto nařízení stanoven požadavek na informování, aniž by byla dotčena stávající práva zaměstnanců.
(93)
Risici i forbindelse med AI-systemer kan være resultatet af den måde, sådanne systemer er udformet på, men risici kan også stamme fra måden, hvorpå sådanne AI-systemer anvendes. Idriftsættere af højrisiko-AI-systemer spiller derfor en afgørende rolle i at sikre, at de grundlæggende rettigheder beskyttes og i at supplere udbyderens forpligtelser i forbindelse med udviklingen af AI-systemet. Idriftsætterne er bedst i stand til at forstå, hvordan højrisiko-AI-systemet vil blive anvendt konkret, og kan derfor afdække potentielle risici, der ikke var forudset i udviklingsfasen, takket være et mere præcist kendskab til anvendelseskonteksten, de personer eller grupper af personer, der kan blive berørt, herunder sårbare grupper. Idriftsættere af de højrisiko-AI-systemer, der er opført i et bilag til denne forordning, spiller også en afgørende rolle med hensyn til at informere fysiske personer og bør, når de træffer beslutninger eller bistår med at træffe beslutninger vedrørende fysiske personer, om nødvendigt underrette de fysiske personer om, at de er omfattet af anvendelsen af højrisiko-AI-systemet. Disse oplysninger bør omfatte det tilsigtede formål og typen af beslutninger, det træffer. Idriftsætteren bør ligeledes oplyse de fysiske personer om deres ret til en forklaring som fastsat i denne forordning. For så vidt angår højrisiko-AI-systemer, der anvendes til retshåndhævelsesformål, bør denne forpligtelse gennemføres i overensstemmelse med artikel 13 i direktiv (EU) 2016/680.
(93)
Rizika spojená se systémy AI mohou vyplývat ze způsobu, jakým jsou tyto systémy navrhovány, avšak mohou rovněž vzniknout v souvislosti s tím, jak jsou tyto systémy používány. Subjekty zavádějící vysoce rizikový systém AI proto hrají zásadní úlohu při zajišťování ochrany základních práv a doplňují povinnosti poskytovatele při vývoji systému AI. Zavádějící subjekty mají nejlepší předpoklady k tomu, aby posoudily, jak bude vysoce rizikový systém AI konkrétně používán, a mohou proto identifikovat potenciální rizika, která se ve fázi vývoje nepředpokládala, a to díky přesnější znalosti kontextu používání a osob nebo skupin osob, na které bude mít systém pravděpodobně dopad, včetně zranitelných skupin. Subjekty zavádějící vysoce rizikové systémy AI uvedené v příloze tohoto nařízení rovněž hrají zásadní úlohu při informování fyzických osob a měly by při přijímání rozhodnutí nebo pomoci při přijímání rozhodnutí týkajících se fyzických osob v příslušných případech tyto fyzické osoby informovat, že jsou použití vysoce rizikového systému AI vystaveny. Tyto informace by měly zahrnovat zamýšlený účel a druh přijímaných rozhodnutí. Zavádějící subjekt by měl rovněž informovat danou fyzickou osobu o jejím právu na vysvětlení uvedeném v tomto nařízení. Pokud jde o vysoce rizikové systémy AI používané pro účely vymáhání práva, měla by být tato povinnost provedena v souladu s článkem 13 směrnice (EU) 2016/680.
(94)
Enhver behandling af biometriske data, der indgår i anvendelsen af AI-systemer til biometrisk identifikation med henblik på retshåndhævelse, skal overholde artikel 10 i direktiv (EU) 2016/680, som kun tillader en sådan behandling, når det er strengt nødvendigt, forudsat at behandlingen er omfattet af de fornødne sikkerhedsforanstaltninger for den registreredes rettigheder og frihedsrettigheder, og hvis hjemlet i EU-retten eller medlemsstaternes nationale ret. En sådan anvendelse skal, når den er tilladt, også overholde principperne i artikel 4, stk. 1, i direktiv (EU) 2016/680, herunder lovlighed, rimelighed og gennemsigtighed, formålsbegrænsning, rigtighed og begrænsning af opbevaring.
(94)
Jakékoli zpracování biometrických údajů související s používáním systémů AI pro biometrickou identifikaci pro účely vymáhání práva musí být v souladu s článkem 10 směrnice (EU) 2016/680, který takové zpracování povoluje pouze ve zcela nezbytných případech, s výhradou vhodných záruk pro práva a svobody subjektů údajů, a pokud je povoleno právem Unie nebo členského státu. Je-li takové použití povoleno, musí rovněž splňovat zásady stanovené v čl. 4 odst. 1 směrnice (EU) 2016/680, včetně zákonnosti, spravedlnosti a transparentnosti, účelového omezení, přesnosti a omezení uložení.
(95)
Uden at det berører gældende EU-ret, navnlig forordning (EU) 2016/679 og direktiv (EU) 2016/680, bør brugen af systemer til efterfølgende biometrisk fjernidentifikation, i betragtning af den indgribende karakter af systemer til efterfølgende biometrisk fjernidentifikation, være underlagt sikkerhedsforanstaltninger. Systemer til efterfølgende biometrisk fjernidentifikation bør altid anvendes på en måde, der er forholdsmæssig, legitim og strengt nødvendig, og dermed, for så vidt angår de personer, der skal identificeres, være målrettet stedet og den tidsmæssige rækkevidde og være baseret på et lukket datasæt af lovligt erhvervede videooptagelser. Under alle omstændigheder bør systemer til efterfølgende biometrisk fjernidentifikation ikke anvendes inden for retshåndhævelse til at føre vilkårlig overvågning. Betingelserne for efterfølgende biometrisk fjernidentifikation bør under alle omstændigheder ikke danne grundlag for at omgå betingelserne for forbuddet mod og de strenge undtagelser for biometrisk fjernidentifikation i realtid.
(95)
Aniž je dotčeno platné právo Unie, zejména nařízení (EU) 2016/679 a směrnice (EU) 2016/680, vzhledem k rušivé povaze systémů následné biometrické identifikace na dálku by používání systémů následné biometrické identifikace na dálku mělo podléhat zárukám. Systémy následné biometrické identifikace by měly být vždy používány způsobem, který je přiměřený, legitimní a nezbytně nutný, a tudíž cílený, pokud jde o osoby, které mají být identifikovány, místo, časový rozsah, a založeny na uzavřeném souboru údajů legálně získaných videozáznamů. V žádném případě by systémy následné biometrické identifikace na dálku neměly být používány v rámci vymáhání práva, aby vedly k nerozlišujícímu sledování. Podmínky pro následnou biometrickou identifikaci na dálku by v žádném případě neměly sloužit jako základ pro obcházení podmínek zákazu a přísných výjimek pro biometrickou identifikaci na dálku v reálném čase.
(96)
For effektivt at sikre, at de grundlæggende rettigheder beskyttes, bør idriftsættere af højrisiko-AI-systemer, der er offentligretlige organer, eller private enheder, der leverer offentlige tjenester, og idriftsættere af visse højrisiko-AI-systemer, der er opført i et bilag til denne forordning, såsom banker eller forsikringsselskaber, foretage en konsekvensanalyse vedrørende grundlæggende rettigheder inden ibrugtagning. Tjenester, der er vigtige for enkeltpersoner, og som er af offentlig karakter, kan også leveres af private enheder. Private enheder, der leverer sådanne offentlige tjenester, er knyttet til samfundsnyttige opgaver såsom. inden for uddannelse, sundhedspleje, sociale tjenester, boliger og retspleje. Formålet med konsekvensanalysen vedrørende grundlæggende rettigheder er, at idriftsætteren skal identificere de specifikke risici for rettighederne for enkeltpersoner eller grupper af enkeltpersoner, der sandsynligvis vil blive berørt, og identificere de foranstaltninger, der skal træffes, hvis disse risici skulle opstå. Konsekvensanalysen bør udføres før idriftsættelse af højrisiko-AI-systemet og bør ajourføres, når idriftsætteren vurderer, at de relevante faktorer har ændret sig. Konsekvensanalysen bør identificere idriftsætterens relevante processer, i hvilke højrisiko-AI-systemet vil blive anvendt i overensstemmelse med dets tilsigtede formål, og bør indeholde en beskrivelse af den periode og hyppighed, hvori systemet tilsigtes anvendt, samt af specifikke kategorier af fysiske personer og grupper, der sandsynligvis vil blive berørt i den specifikke anvendelsessammenhæng. Analysen bør også omfatte kortlægning af specifikke risici for skade, der sandsynligvis vil påvirke disse personers eller gruppers grundlæggende rettigheder. I forbindelse med denne analyse bør idriftsætteren tage hensyn til oplysninger, der er relevante for en korrekt analyse af konsekvenser, herunder, men ikke begrænset til, de oplysninger, som udbyderen af højrisiko-AI-systemet giver i brugsanvisningen. I lyset af de kortlagte risici bør idriftsætteren afgøre, hvilke foranstaltninger der skal træffes, hvis disse risici skulle opstå, herunder f.eks. ledelsesordninger i den specifikke anvendelsessammenhæng, såsom ordninger for menneskeligt tilsyn i henhold til brugsanvisningen eller klagebehandlings- og erstatningsprocedurer, da de kan bidrage til at afbøde risici for grundlæggende rettigheder i konkrete anvendelsestilfælde. Efter at have foretaget denne konsekvensanalyse bør idriftsætteren underrette den relevante markedsovervågningsmyndighed. For at indsamle de relevante oplysninger, der er nødvendige for at foretage konsekvensanalysen, kan idriftsættere af højrisiko-AI-systemer, navnlig når AI-systemer anvendes i den offentlige sektor, inddrage relevante interessenter, herunder repræsentanter for grupper af personer, der sandsynligvis vil blive berørt af AI-systemet, uafhængige eksperter og civilsamfundsorganisationer i gennemførelsen af sådanne konsekvensanalyser og udformningen af foranstaltninger, der skal træffes, hvis risiciene opstår. Det Europæiske Kontor for Kunstig Intelligens (»AI-kontoret«) bør udvikle en skabelon til et spørgeskema for at lette overholdelsen og mindske den administrative byrde for idriftsættere.
(96)
Aby byla účinně zajištěna ochrana základních práv, měly by subjekty zavádějící vysoce rizikové systémy AI, které jsou veřejnoprávními subjekty, nebo soukromé subjekty poskytující veřejné služby a subjekty zavádějící určité vysoce rizikové systémy AI uvedené v příloze tohoto nařízení, jako jsou bankovní nebo pojišťovací subjekty, provést před jejich uvedením do provozu posouzení dopadů na základní práva. Služby důležité pro jednotlivce, které jsou veřejné povahy, mohou poskytovat i soukromé subjekty. Soukromé subjekty poskytující takové veřejné služby jsou spojeni s úkoly ve veřejném zájmu, například v oblastech vzdělávání, zdravotní péče, sociálních služeb, bydlení či výkonu spravedlnosti. Cílem posouzení dopadů na základní práva je, aby zavádějící subjekt určil konkrétní rizika pro práva jednotlivců nebo skupin jednotlivců, která mohou být dotčena, a určil opatření, která je třeba přijmout v případě naplnění tohoto rizika. Posouzení dopadů by mělo být provedeno před prvním zavedením vysoce rizikového systému AI a mělo by být aktualizováno, pokud se zavádějící subjekt domnívá, že se kterýkoli z relevantních faktorů změnil. Posouzení dopadů by mělo určit příslušné procesy zavádějícího subjektu, v nichž bude vysoce rizikový systém AI používán v souladu s jeho zamýšleným účelem, a mělo by zahrnovat popis časového období a četnosti, v nichž má být systém používán, jakož i konkrétní kategorie fyzických osob a skupin, které budou pravděpodobně dotčeny v konkrétním kontextu použití. Posouzení by mělo rovněž zahrnovat identifikaci konkrétních rizik újmy, která by mohla mít dopad na základní práva těchto osob nebo skupin. Při provádění tohoto posouzení by měl zavádějící subjekt zohlednit informace relevantní pro řádné posouzení dopadu, mimo jiné včetně informací uvedených poskytovatelem vysoce rizikového systému AI v návodu k použití. S ohledem na zjištěná rizika by zavádějící subjekty měly určit opatření, která je třeba přijmout v případě naplnění těchto rizik, například systémy správy a řízení v tomto konkrétním kontextu použití včetně opatření pro lidský dohled v souladu s návodem k použití nebo postupů pro vyřizování stížností a zjednávání nápravy, neboť taková opatření by mohla přispět ke zmírnění rizik pro základní práva v konkrétních případech použití. Po provedení tohoto posouzení dopadů by měl zavádějící subjekt informovat příslušný orgán dozoru nad trhem. Za účelem shromáždění relevantních informací nezbytných k provedení posouzení dopadů by subjekty zavádějící vysoce rizikový systém AI, zejména pokud jsou systémy AI používány ve veřejném sektoru, mohly do provádění těchto posouzení dopadů a navrhování opatření, která je třeba přijmout v případě naplnění rizik, případně zapojit příslušné zúčastněné strany, včetně zástupců skupin osob, které by mohly být systémem AI dotčeny, nezávislých odborníků a organizací občanské společnosti. Evropský úřad pro umělou inteligenci (dále jen „úřad pro AI“) by měl vypracovat vzor dotazníku s cílem usnadnit dodržování předpisů a snížit administrativní zátěž pro zavádějící subjekty.
(97)
Begrebet AI-modeller til almen brug bør af hensyn til retssikkerheden defineres klart og adskilles fra begrebet AI-systemer. Definitionen bør baseres på de vigtigste funktionelle karakteristika ved en AI-model til almen brug, navnlig generaliteten og kapaciteten til med kompetence at udføre en lang række forskellige opgaver. Disse modeller trænes typisk med store mængder data ved hjælp af forskellige metoder såsom ved selvovervåget, ikkeovervåget eller forstærket læring. AI-modeller til almen brug kan bringes i omsætning på forskellige måder, herunder via biblioteker eller programmeringsgrænseflader for applikationer (API'er), som direkte download eller som fysisk kopi. Disse modeller kan ændres yderligere eller finjusteres til nye modeller. Selv om AI-modeller er væsentlige komponenter i AI-systemer, udgør de ikke i sig selv AI-systemer. AI-modeller kræver, at der tilføjes yderligere komponenter, f.eks. en brugergrænseflade, for at blive til AI-systemer. AI-modeller er typisk integreret i og udgør en del af AI-systemer. Denne forordning fastsætter specifikke regler for AI-modeller til almen brug og for AI-modeller til almen brug, der udgør systemiske risici, som også bør finde anvendelse, når disse modeller integreres eller indgår i et AI-system. Det forudsættes, at forpligtelserne for udbydere af AI-modeller til almen brug bør finde anvendelse, når AI-modellerne til almen brug er bragt i omsætning.Når udbyderen af en AI-model til almen brug integrerer en egen model i sit eget AI-system, der gøres tilgængeligt på markedet eller ibrugtages, bør den pågældende model betragtes som at være bragt i omsætning, og derfor bør forpligtelserne i denne forordning for modeller fortsat finde anvendelse foruden forpligtelserne for AI-systemer. De forpligtelser, der er fastsat for modeller, bør under alle omstændigheder ikke finde anvendelse, når en egen model anvendes til rent interne processer, som ikke er væsentlige for leveringen af et produkt eller en tjeneste til tredjeparter, og fysiske personers rettigheder ikke berøres. I betragtning af deres potentielt væsentlige negative virkninger bør AI-modeller til almen brug med systemisk risiko altid være underlagt de relevante forpligtelser i henhold til denne forordning. Definitionen bør ikke omfatte AI-modeller, der anvendes, inden de bringes i omsætning, udelukkende med henblik på forsknings-, udviklings- og prototypeaktiviteter. Dette berører ikke forpligtelsen til at overholde denne forordning, når en model bringes i omsætning efter sådanne aktiviteter.
(97)
Měl by být jasně definován pojem „obecné modely AI“ a měl by být odlišen od pojmu „systémy AI“, aby byla zajištěna právní jistota. Definice by měla být založena na klíčových funkčních vlastnostech obecného modelu AI, zejména na obecnosti a schopnosti kompetentně plnit širokou škálu různých úkolů. Tyto modely jsou obvykle trénovány na velkém množství dat, a to prostřednictvím různých metod, jako je učení s učitelem, bez učitele nebo posilované učení. Obecné modely AI mohou být uváděny na trh různými způsoby, mimo jiné prostřednictvím knihoven, aplikačních programovacích rozhraní (API), jako přímé stahování nebo jako fyzická kopie. Tyto modely lze dále upravovat nebo dolaďovat do nových modelů. Ačkoli jsou modely AI základními součástmi systémů AI, nepředstavují samy o sobě systémy AI. Modely AI vyžadují doplnění dalších součástí, jako je například uživatelské rozhraní, aby se z nich staly systémy AI. Modely AI jsou obvykle začleněny do systémů AI a tvoří jejich součást. Toto nařízení stanoví zvláštní pravidla pro obecné modely AI a pro obecné modely AI, které představují systémová rizika, jež by se měla použít i v případě, že jsou tyto modely začleněny nebo jsou součástí systému AI. Mělo by se mít za to, že povinnosti poskytovatelů obecných modelů AI by měly platit, jakmile budou obecné modely AI uvedeny na trh. Pokud poskytovatel obecného modelu AI do svého vlastního systému AI, který je dodáván na trh nebo uváděn do provozu, začlení vlastní model, měl by být tento model považován za uvedený na trh, a proto by se kromě povinností pro systémy AI měly i nadále uplatňovat povinnosti stanovené v tomto nařízení pro modely. Povinnosti stanovené pro modely by se v žádném případě neměly vztahovat na případy, kdy se vlastní model používá pro čistě interní postupy, které nejsou nezbytné pro poskytování produktu nebo služby třetím stranám, a kdy nejsou dotčena práva fyzických osob. Vzhledem k jejich možným výrazně negativním účinkům by se na obecné modely AI se systémovým rizikem vždy měly vztahovat příslušné povinnosti podle tohoto nařízení. Definice by se neměla vztahovat na modely AI používané před jejich uvedením na trh výhradně za účelem výzkumu, vývoje a tvorby prototypů. Tím není dotčena povinnost dodržovat toto nařízení, pokud je model v návaznosti na tyto činnosti na trh uveden.
(98)
Mens en models generalitet blandt andet også kan bestemmes af en række parametre, bør modeller med mindst en milliard parametre, og som er trænet med en stor mængde data ved hjælp af selvovervågning, i stor skala betragtes som at udvise betydelig generalitet og kompetence til at udføre en lang række forskellige opgaver.
(98)
Jelikož obecná povaha modelu by mohla být mimo jiné určena také počtem parametrů, modely s alespoň miliardou parametrů a trénované s velkým množstvím dat za použití rozsáhlé sebekontroly by měly být považovány za modely, které vykazují značnou obecnost a kompetentně plní širokou škálu specifických úkolů.
(99)
Store generative AI-modeller er et typisk eksempel på en AI-model til almen brug, da de giver mulighed for fleksibel generering af indhold, f.eks. i form af tekst, lyd, billeder eller video, der let kan tilpasses en lang række forskellige opgaver.
(99)
Typickým příkladem obecného modelu AI jsou velké generativní modely AI, umožňující flexibilní tvorbu obsahu (například ve formě textu, zvuku, obrázků nebo videa), který může snadno plnit širokou škálu specifických úkolů.
(100)
Hvis en AI-model til almen brug integreres i eller udgør en del af et AI-system, bør dette system betragtes som at være et AI-system til almen brug, når dette system som følge af denne integration har kapacitet til at tjene en række forskellige formål. Et AI-system til almen brug kan anvendes direkte, eller det kan integreres i andre AI-systemer.
(100)
Je-li obecný model AI začleněn do systému AI nebo je jeho součástí, měl by být tento systém považován za obecný systém AI, pokud je tento systém díky tomuto začlenění schopen sloužit různým účelům. Obecný systém AI se může používat přímo nebo může být součástí jiných systémů AI.
(101)
Udbydere af AI-modeller til almen brug har en særlig rolle og et særligt ansvar i AI-værdikæden, da de modeller, de leverer, kan danne grundlag for en række downstreamsystemer, der ofte leveres af downstreamudbydere, og som kræver en god forståelse af modellerne og deres kapacitet, både for at gøre det muligt at integrere sådanne modeller i deres produkter og for at opfylde deres forpligtelser i henhold til denne eller andre forordninger. Der bør derfor fastsættes forholdsmæssige gennemsigtighedsforanstaltninger, herunder udarbejdelse og ajourføring af dokumentation og formidling af oplysninger om AI-modellen til almen brug med henblik på downstreamudbydernes anvendelse heraf. Den tekniske dokumentation bør udarbejdes og ajourføres af udbyderen af AI-modellen til almen brug med henblik på efter anmodning at stille den til rådighed for AI-kontoret og de nationale kompetente myndigheder. Minimumssættet af elementer, der skal medtages i sådan dokumentation, bør fastsættes i særlige bilag til denne forordning. Kommissionen bør have beføjelse til at ændre disse bilag ved hjælp af delegerede retsakter i lyset af den teknologiske udvikling.
(101)
Poskytovatelé obecných modelů AI mají v celém hodnotovém řetězci AI zvláštní úlohu a odpovědnost, neboť modely, které poskytují, mohou tvořit základ pro řadu navazujících systémů, často poskytovaných navazujícími poskytovateli, kteří musejí těmto modelům a jejich schopnostem dobře rozumět, a to jak pro účely začlenění těchto modelů do vlastních produktů, tak v zájmu plnění svých povinností podle tohoto nebo jiných nařízení. Proto by měla být stanovena přiměřená opatření v oblasti transparentnosti, včetně vypracování a aktualizace dokumentace a poskytování informací o obecném modelu AI pro jeho používání navazujícími poskytovateli. Poskytovatel obecného modelu AI by měl technickou dokumentaci připravit a aktualizovat, aby ji na požádání zpřístupnil úřadu pro AI a příslušným vnitrostátním orgánům. Minimální soubor prvků, které mají být v takové dokumentaci obsaženy, by měl být stanoven v konkrétních přílohách tohoto nařízení. Komise by měla být zmocněna měnit tyto přílohy prostřednictvím aktů v přenesené pravomoci s ohledem na vývoj technologií.
(102)
Software og data, herunder modeller frigivet i henhold til en gratis open source-licens, der gør det muligt at dele dem åbent, og hvor brugerne frit kan få adgang til, anvende, ændre og videregive dem eller ændrede versioner heraf, kan bidrage til forskning og innovation på markedet og skabe betydelige vækstmuligheder for Unionens økonomi. AI-modeller til almen brug, som er frigivet i henhold til gratis open source-licenser, bør betragtes som at sikre en høj grad af gennemsigtighed og åbenhed, hvis deres parametre, herunder vægtene, oplysningerne om modelarkitekturen og oplysningerne om modelanvendelsen, gøres offentligt tilgængelige. Licensen bør også betragtes som gratis og open source, når den giver brugerne mulighed for at køre, kopiere, distribuere, undersøge, ændre og forbedre software og data, herunder modeller, forudsat at den oprindelige udbyder af modellen krediteres, og at de identiske eller sammenlignelige distributionsvilkår overholdes.
(102)
Software a data, včetně modelů, zpřístupněné na základě svobodné licence s otevřeným zdrojovým kódem, která umožňuje jejich otevřené sdílení a v jejichž rámci mohou uživatelé k nim nebo jejich změněným verzím volně přistupovat, používat je, upravovat a přerozdělovat, mohou přispět k výzkumu a inovacím na trhu a mohou hospodářství Unie poskytnout významné příležitosti k růstu. Obecné modely AI zpřístupněné na základě svobodných licencí s otevřeným zdrojovým kódem by měly být považovány za modely zajišťující vysokou úroveň transparentnosti a otevřenosti, pokud jsou jejich parametry, včetně vah, informací o architektuře modelu a informací o používání modelů veřejně dostupné. Licence by měla být považována za svobodnou s otevřeným zdrojovým kódem i v případě, že umožňuje uživatelům provozovat, kopírovat, distribuovat, studovat, měnit a vylepšovat software a data, včetně modelů za podmínky, že je připsána původnímu poskytovateli modelu a že jsou dodrženy totožné nebo srovnatelné podmínky distribuce.
(103)
Gratis open source-AI-komponenter omfatter software og data, herunder modeller og AI-modeller til almen brug, værktøjer, tjenester eller processer i et AI-system. Gratis open source-AI-komponenter kan leveres gennem forskellige kanaler, herunder deres udvikling i åbne databaser. Med henblik på denne forordning bør AI-komponenter, der leveres mod en pris, eller som der på anden vis tjenes penge på, herunder gennem levering af teknisk støtte eller andre tjenester, bl.a. gennem en softwareplatform, i forbindelse med AI-komponenten, eller anvendelse af personoplysninger af andre årsager end udelukkende for at forbedre softwarens sikkerhed, kompatibilitet eller interoperabilitet, med undtagelse af transaktioner mellem mikrovirksomheder, ikke være omfattet af undtagelserne for gratis open source-AI-komponenter. Det forhold, at AI-komponenter stilles til rådighed gennem åbne databaser, bør ikke i sig selv udgøre en monetarisering.
(103)
Svobodné komponenty AI s otevřeným zdrojovým kódem zahrnují software a data, včetně modelů a obecných modelů AI, nástrojů, služeb nebo procesů systému AI. Svobodné komponenty AI s otevřeným zdrojovým kódem lze poskytovat prostřednictvím různých kanálů, včetně jejich vývoje na otevřených úložištích. Pro účely tohoto nařízení by se výjimky poskytované pro svobodné komponenty AI s otevřeným zdrojovým kódem neměly vztahovat na součásti AI, které jsou poskytovány za cenu nebo jinak zpeněženy, včetně poskytování technické podpory nebo jiných služeb souvisejících s předmětnou komponentou AI, a to i prostřednictvím softwarové platformy, nebo používání osobních údajů z jiných důvodů než výhradně za účelem zlepšení bezpečnosti, kompatibility nebo interoperability softwaru, s výjimkou transakcí mezi mikropodniky. Zpřístupnění komponent AI prostřednictvím otevřených úložišť by samo o sobě nemělo představovat zpeněžení.
(104)
Udbydere af AI-modeller til almen brug, der frigives i henhold til en gratis open source-licens, og hvis parametre, herunder vægtene, oplysningerne om modelarkitekturen og oplysningerne om modelanvendelsen, gøres offentligt tilgængelige, bør være omfattet af undtagelser for så vidt angår de krav om gennemsigtighed, der stilles til AI-modeller til almen brug, medmindre de kan anses for at udgøre en systemisk risiko, i hvilket tilfælde det forhold, at modellen er gennemsigtig og ledsaget af en open source-licens, ikke bør betragtes som tilstrækkelig grund til at udelukke, at forpligtelserne i henhold til denne forordning overholdes. I betragtning af at frigivelsen af AI-modeller til almen brug i henhold til en gratis open source-licens ikke nødvendigvis afslører væsentlige oplysninger om det datasæt, der anvendes til træning eller finjustering af modellen, og om hvordan overholdelsen af ophavsretten derved blev sikret, bør undtagelsen for AI-modeller til almen brug fra overholdelse af krav om gennemsigtighed under alle omstændigheder ikke vedrøre forpligtelsen til at udarbejde en sammenfatning af det indhold, der anvendes til modeltræning, og forpligtelsen til at indføre en politik, der overholder EU-retten om ophavsret, navnlig med hensyn til at identificere og overholde forbeholdet af rettigheder i henhold til artikel 4, stk. 3, i Europa-Parlamentets og Rådets direktiv (EU) 2019/790 (40).
(104)
Na poskytovatele obecných modelů AI, které jsou zpřístupňovány na základě svobodné licence s otevřeným zdrojovým kódem a jejichž parametry, včetně vah, informací o architektuře modelu a informací o používání modelu, jsou veřejně dostupné, by se měly vztahovat výjimky, pokud jde o požadavky týkající se transparentnosti kladené na obecné modely AI, ledaže je lze považovat za modely představující systémové riziko; v takovém případě by okolnost, že model je transparentní a doprovázený licencí s otevřeným zdrojovým kódem, neměla být považována za dostatečný důvod pro upuštění od souladu s povinnostmi podle tohoto nařízení. V každém případě vzhledem k tomu, že zpřístupnění obecných modelů AI na základě svobodné licence s otevřeným zdrojovým kódem nemusí nutně odhalit podstatné informace o souboru dat použitém pro trénování nebo doladění modelu a o tom, jak bylo zajištěno dodržování autorského práva, neměla by se výjimka stanovená pro obecné modely AI z dodržování požadavků souvisejících s transparentností týkat povinnosti vypracovat shrnutí obsahu použitého pro trénování modelu a povinnosti zavést politiku dodržování autorského práva Unie, zejména pokud jde o identifikaci a dodržování výhrad práv podle čl. 4 odst. 3 směrnice Evropského parlamentu a Rady (EU) 2019/790 (40).
(105)
AI-modeller til almen brug, navnlig store generative AI-modeller, der kan generere tekst, billeder og andet indhold, giver unikke innovationsmuligheder, men også udfordringer for kunstnere, forfattere og andre skabere og den måde, hvorpå deres kreative indhold skabes, distribueres, anvendes og forbruges. Udviklingen og træningen af sådanne modeller kræver adgang til store mængder tekst, billeder, videoer og andre data. Tekst- og dataminingteknikker kan anvendes i vid udstrækning i denne forbindelse til søgning og analyse af sådant indhold, som kan være beskyttet af ophavsret og beslægtede rettigheder. Enhver anvendelse af ophavsretligt beskyttet indhold kræver tilladelse fra den pågældende rettighedshaver, medmindre der gælder relevante undtagelser og indskrænkninger i ophavsretten. Direktiv (EU) 2019/790 indførte undtagelser og indskrænkninger, der tillader reproduktion og udtræk af værker eller andre frembringelser med henblik på tekst- og datamining på visse betingelser. I henhold til disse regler kan rettighedshavere vælge at forbeholde deres rettigheder til deres værker eller andre frembringelser for at forhindre tekst- og datamining, medmindre dette sker med henblik på videnskabelig forskning. Hvis retten til fravalg udtrykkeligt er blevet forbeholdt på passende vis, skal udbydere af AI-modeller til almen brug indhente en tilladelse fra rettighedshaverne, hvis de ønsker at udføre tekst- og datamining i forbindelse med sådanne værker.
(105)
Obecné modely AI, zejména velké generativní modely AI schopné vytvářet text, obrázky a další obsah, představují jedinečné inovační příležitosti, ale také výzvy pro umělce, autory a další tvůrce i pro způsoby, jimiž je jejich tvůrčí obsah vytvářen, distribuován, používán a zužitkováván. Vývoj a trénování těchto modelů vyžaduje přístup k obrovskému množství textů, obrázků, videí a dalších dat. V této souvislosti mohou být pro vyhledávání a analýzu takového obsahu, který může být chráněn autorským právem a právy s ním souvisejícími, hojně využívány techniky vytěžování textů a dat. Jakékoli užití obsahu chráněného autorským právem vyžaduje svolení dotčeného nositele práv, pokud neplatí výjimky a omezení z autorských práv. Směrnice (EU) 2019/790 zavedla výjimky a omezení umožňující za určitých podmínek rozmnožování a extrakce děl nebo jiných předmětů ochrany pro účely vytěžování textů a dat. Podle těchto pravidel se nositelé práv mohou rozhodnout, že si práva ke svým dílům nebo jiným předmětům ochrany vyhradí, aby zabránili vytěžování textů a dat, pokud vytěžování neprobíhá pro účely vědeckého výzkumu. Jestliže byla práva na výjimku výslovně a vhodným způsobem vyhrazena, musí poskytovatelé obecných modelů AI od nositelů práv získat povolení, pokud chtějí vytěžování textů a dat u těchto děl provádět.
(106)
Udbydere, der bringer AI-modeller til almen brug i omsætning på EU-markedet, bør sikre overholdelse af de relevante forpligtelser i denne forordning. Med henblik herpå bør udbydere af AI-modeller til almen brug indføre en politik, der overholder EU-retten om ophavsret og beslægtede rettigheder, navnlig med hensyn til at identificere og overholde det forbehold af rettigheder, som rettighedshaverne har givet udtryk for i henhold til artikel 4, stk. 3, i direktiv (EU) 2019/790. Enhver udbyder, der bringer en AI-model til almen brug i omsætning på EU-markedet, bør overholde denne forpligtelse, uanset i hvilken jurisdiktion de ophavsretligt relevante handlinger, der ligger til grund for træningen af disse AI-modeller til almen brug, finder sted. Dette er nødvendigt for at sikre lige vilkår for udbydere af AI-modeller til almen brug, da ingen udbyder bør kunne opnå en konkurrencemæssig fordel på EU-markedet ved at anvende lavere ophavsretlige standarder end dem, der er fastsat i Unionen.
(106)
Poskytovatelé, kteří uvádějí na trh Unie obecné modely AI, by měli zajistit dodržování příslušných povinností stanovených v tomto nařízení. Za tímto účelem by poskytovatelé obecných modelů AI měli zavést politiky k dodržování práva Unie v oblasti autorského práva a práv s ním souvisejících, zejména s cílem identifikovat a dodržovat výhradu práv vyjádřenou nositeli práv podle čl. 4 odst. 3 směrnice (EU) 2019/790. Každý poskytovatel, který uvádí na trh Unie obecný model AI, by měl tuto povinnost splnit bez ohledu na jurisdikci, v níž dochází k úkonům souvisejícím s autorským právem, na jejichž základě se tyto obecné modely AI trénují. Toto je nezbytné k zajištění rovných podmínek mezi poskytovateli obecných modelů AI, kdy by žádný poskytovatel neměl být schopen získat konkurenční výhodu na trhu Unie tím, že bude uplatňovat nižší standardy autorského práva, než jaké jsou v Unii stanoveny.
(107)
For at øge gennemsigtigheden af de data, der anvendes i forbindelse med forhåndstræning og træning af AI-modeller til almen brug, herunder tekst og data, der er beskyttet af ophavsret, er det tilstrækkeligt, at udbydere af sådanne modeller udarbejder og offentliggør en tilstrækkeligt detaljeret sammenfatning af det indhold, der anvendes til træning af AI-modellen til almen brug. Under behørig hensyntagen til behovet for at beskytte forretningshemmeligheder og fortrolige forretningsoplysninger bør denne sammenfatning generelt have et bredt anvendelsesområde i stedet for at være teknisk detaljeret, så det bliver lettere for parter med legitime interesser, herunder indehavere af ophavsret, at udøve og håndhæve deres rettigheder i henhold til EU-retten, f.eks. ved at opregne de vigtigste datasamlinger eller datasæt, der er gået til at træne modellen, såsom store private eller offentlige databaser eller dataarkiver, og ved at give en beskrivende redegørelse for andre anvendte datakilder. Det er hensigtsmæssigt, at AI-kontoret tilvejebringer en skabelon for sammenfatningen, som bør være enkel og effektiv, og giver udbyderen mulighed for at fremsende den krævede sammenfatning i beskrivende tekst.
(107)
V zájmu zvýšení transparentnosti dat, která se používají v předběžném trénování a trénování obecných modelů AI, včetně textů a dat chráněných autorským právem, je vhodné, aby poskytovatelé těchto modelů vypracovali a zveřejnili dostatečně podrobné shrnutí obsahu, jenž byl pro trénování obecného modelu AI použit. Při řádném zohlednění potřeby chránit obchodní tajemství a důvěrné obchodní informace by toto shrnutí mělo být ve svém rozsahu obecně komplexní, a nikoli technicky podrobné, aby stranám s oprávněnými zájmy, včetně nositelů autorských práv, usnadnilo výkon a prosazování jejich práv podle práva Unie, a například by v něm tak měly být uvedeny hlavní sady nebo soubory dat, které byly při trénování modelu použity, jako jsou rozsáhlé soukromé nebo veřejné databáze nebo datové archivy, a mělo by v něm být obsaženo narativní vysvětlení jiných použitých zdrojů údajů. Je vhodné, aby úřad pro AI poskytl vzor takového shrnutí, který by měl být jednoduchý a účinný a měl by poskytovateli umožnit poskytnout požadované shrnutí v podobě souvislého textu.
(108)
Hvad angår de forpligtelser, der pålægges udbydere af AI-modeller til almen brug, til at indføre en politik med henblik på at overholde EU-retten om ophavsret og offentliggøre en sammenfatning af det indhold, der anvendes til træningen, bør AI-kontoret overvåge, om udbyderen har opfyldt disse forpligtelser uden at verificere eller vurdere træningsdataene for hvert enkelt værk med hensyn til overholdelse af ophavsretten. Denne forordning berører ikke håndhævelsen af ophavsretsreglerne som fastsat i EU-retten.
(108)
Pokud jde o povinnost poskytovatelů obecných modelů AI zavést politiku dodržování autorského práva Unie a o jejich povinnost zveřejnit shrnutí obsahu použitého pro trénování, měl by úřad pro AI sledovat, zda daný poskytovatel tyto povinnosti splnil, aniž by z hlediska dodržování autorského práva ověřoval nebo přistupoval k posuzování trénovacích dat podle jednotlivých činností. Tímto nařízením není dotčeno prosazování pravidel v oblasti autorského práva, jak je stanoveno v právu Unie.
(109)
Overholdelsen af de forpligtelser, der gælder for udbydere af AI-modeller til almen brug, bør stå i et rimeligt forhold til og være proportionalt med typen af modeludbyder, bortset fra behovet for overholdelse for personer, der udvikler eller anvender modeller til ikkeprofessionelle eller videnskabelige forskningsformål, og som ikke desto mindre bør tilskyndes til frivilligt at overholde disse krav. Uden at det berører EU-retten om ophavsret, bør der ved overholdelsen af disse forpligtelser tages behørigt hensyn til udbyderens størrelse, og SMV'er, herunder iværksættervirksomheder, bør have mulighed for forenklede måder at overholde reglerne på, som ikke bør indebære uforholdsmæssigt store omkostninger og ikke modvirke anvendelsen af sådanne modeller. I tilfælde af en ændring eller finjustering af en model bør forpligtelserne for udbydere af AI-modeller til almen brug begrænses til denne ændring eller finjustering, f.eks. ved at supplere den allerede eksisterende tekniske dokumentation med oplysninger om ændringerne, herunder nye træningsdatakilder, som et middel til at overholde værdikædeforpligtelserne i denne forordning.
(109)
Dodržování povinností, které se vztahují na poskytovatele obecných modelů AI, by mělo být úměrné a přiměřené typu poskytovatele modelu, aniž by tyto povinnosti musely dodržovat osoby, které vyvíjejí nebo používají modely pro nekomerční účely nebo pro účely vědeckého výzkumu; tyto osoby by měly být nicméně vybízeny k tomu, aby uvedené požadavky plnily dobrovolně. Aniž je dotčeno právo Unie v oblasti autorského práva, dodržování těchto povinností by mělo náležitě zohlednit velikost poskytovatele a umožnit zjednodušené způsoby jejich dodržování malým a středním podnikům, včetně podniků začínajících, přičemž tyto způsoby by neměly představovat nadměrné náklady a neměly by od používání takových modelů odrazovat. V případě změny nebo doladění modelu by povinnosti poskytovatelů obecných modelů AI měly být omezeny na tuto změnu nebo doladění, například doplněním již existující technické dokumentace o informace o změnách, včetně nových zdrojů trénovacích dat, jako prostředku ke splnění povinností hodnotového řetězce stanovených v tomto nařízení.
(110)
AI-modeller til almen brug kan udgøre systemiske risici, som omfatter, men ikke er begrænset til, faktiske negative virkninger, der med rimelighed kan forudses, i forbindelse med større ulykker, forstyrrelser i kritiske sektorer og alvorlige konsekvenser for folkesundheden og sikkerheden, enhver faktisk negativ virkning, der med rimelighed kan forudses, for demokratiske processer, offentlig og økonomisk sikkerhed samt formidling af ulovligt, falsk eller forskelsbehandlende indhold. Det skal forstås sådan, at systemiske risici øges med modelkapaciteter og modelrækkevidde, kan opstå i hele modellens livscyklus og påvirkes af betingelser for misbrug, modelpålidelighed, modelrimelighed og modelsikkerhed, graden af modellens autonomi, dens adgang til værktøjer, nye eller kombinerede metoder, frigivelses- og distributionsstrategier, potentialet til at fjerne beskyttelsesforanstaltninger og andre faktorer. Navnlig har internationale tilgange hidtil vist, at det er nødvendigt at være opmærksom på risici fra potentielt bevidst misbrug eller utilsigtede problemer med kontrol i forbindelse med tilpasning til menneskelig hensigt, kemiske, biologiske, radiologiske og nukleare risici, f.eks. hvordan adgangsbarrierer kan sænkes, herunder for udvikling, erhvervelse eller anvendelse af våben, offensive cyberkapaciteter, f.eks. hvordan metoder til opdagelse, udnyttelse eller operationel brug af sårbarheder kan muliggøres, virkningerne af interaktion og brug af værktøjer, herunder f.eks. kapaciteten til at kontrollere fysiske systemer og gribe ind i kritisk infrastruktur, risici fra modeller, der fremstiller kopier af sig selv eller bliver »selvkopierende« eller træner andre modeller, hvordan modeller kan medføre skadelig bias og forskelsbehandling med risici for enkeltpersoner, lokalsamfund eller samfund, lettelse af desinformation eller krænkelse af privatlivets fred med trusler mod demokratiske værdier og menneskerettighederne samt risiko for, at en bestemt hændelse kan skabe en kædereaktion med betydelige negative virkninger, der kan påvirke en hel by, en hel domæneaktivitet eller et helt fællesskab.
(110)
Obecné modely AI by mohly představovat systémová rizika, která zahrnují mimo jiné jakékoli skutečné nebo rozumně předvídatelné negativní dopady v souvislosti se závažnými haváriemi, narušením kritických odvětví a závažnými důsledky pro veřejné zdraví a bezpečnost; jakékoli skutečné nebo rozumně předvídatelné negativní dopady na demokratické procesy, veřejnou a hospodářskou bezpečnost; šíření nezákonného, nepravdivého nebo diskriminačního obsahu. Systémová rizika by měla být chápána tak, že se zvyšují se schopnostmi a dosahem modelu, mohou vzniknout během celého životního cyklu modelu a jsou ovlivněna podmínkami zneužití, spolehlivostí modelu, poctivostí modelu a bezpečností modelu, úrovní autonomie modelu, jeho přístupem k nástrojům, novými nebo kombinovanými způsoby, strategiemi zpřístupňování a distribuce, potenciálem k odstranění ochranných opatření a dalšími faktory. Mezinárodní přístupy dosud zejména zjistily, že je třeba zaměřit pozornost na rizika vyplývající z možného úmyslného zneužití nebo z nezamýšlených problémů s ovládáním souvisejících se sladěním s lidským záměrem; chemická, biologická, radiologická a jaderná rizika, například způsoby snížení překážek v přístupu, a to i pokud jde o vývoj zbraní, pořizování konstrukce nebo použití; mohou být umožněny ofenzivní kybernetické schopnosti, jako jsou způsoby odhalování zranitelností, zneužívání nebo operační využití; účinky interakce a používání nástrojů, například schopnost ovládat fyzické systémy a zasahovat do kritické infrastruktury; rizika, že modely budou vytvářet kopie sebe sama neboli se „samoreplikovat“ nebo že budou trénovat jiné modely; způsoby, jakými mohou modely vést ke škodlivé předpojatosti a diskriminaci s rizikem pro jednotlivce, komunity nebo společnosti; napomáhání dezinformacím nebo poškozování soukromí s ohrožením demokratických hodnot a lidských práv; riziko, že by konkrétní událost mohla vést k řetězové reakci se značnými negativními dopady, které by mohly ovlivnit až celé město, celou oblast činnosti nebo celou komunitu.
(111)
Der bør fastlægges en metode til klassificering af AI-modeller til almen brug som AI-modeller til almen brug med systemiske risici. Da systemiske risici skyldes særlig høj kapacitet, bør en AI-model til almen brug betragtes som at udgøre systemiske risici, hvis de har kapaciteter med stor virkning, vurderet på grundlag af passende tekniske værktøjer og metoder, eller en betydelig indvirkning på det indre marked på grund af dens omfang. Ved kapaciteter med stor virkning i AI-modeller til almen brug forstås kapaciteter, som svarer til eller overstiger de kapaciteter, der er registreret i de mest avancerede AI-modeller til almen brug. Hele spektret af kapaciteter i en model kan bedre forstås, efter at den er blevet bragt i omsætning på markedet, eller når idriftsætterne interagerer med modellen. Ifølge det aktuelle teknologiske niveau på tidspunktet for denne forordnings ikrafttræden er den kumulerede mængde beregningskraft, der anvendes til træning af AI-modellen til almen brug, målt i flydende kommatalsberegninger, en af de relevante tilnærmelser for modelkapaciteter. Den kumulerede mængde beregningskraft, der anvendes til træning, omfatter den beregningskraft, der anvendes på tværs af de aktiviteter og metoder, der er tilsigtet at forbedre modellens kapaciteter forud for idriftsættelsen, såsom forhåndstræning, generering af syntetiske data og finjustering. Der bør derfor fastsættes en foreløbig tærskel for flydende kommatalsberegninger, som, hvis den opnås af en AI-model til almen brug, fører til en formodning om, at modellen er en AI-model til almen brug med systemiske risici. Denne tærskel bør justeres over tid for at afspejle teknologiske og industrielle ændringer såsom algoritmiske forbedringer eller øget hardwareeffektivitet og bør suppleres med benchmarks og indikatorer for modelkapacitet.For at kvalificere dette bør AI-kontoret samarbejde med det videnskabelige samfund, industrien, civilsamfundet og andre eksperter. Tærskler samt værktøjer og benchmarks til vurdering af kapaciteter med stor virkning bør være stærke forudsigelsesfaktorer for generaliteten, kapaciteterne og den dermed forbundne systemiske risiko ved AI-modeller til almen brug og kan tage hensyn til måden, hvorpå modellen vil blive bragt i omsætning, eller antallet af brugere, den kan påvirke. For at supplere dette system bør Kommissionen have mulighed for at træffe individuelle beslutninger om, at en AI-model til almen brug udpeges som en AI-model til almen brug med systemisk risiko, hvis det konstateres, at en sådan model har samme kapaciteter eller en virkning som dem, der fremgår af den fastsatte tærskel. Denne beslutning bør træffes på grundlag af en samlet vurdering af kriterierne for udpegelse af en AI-model til almen brug med systemisk risiko, der er fastsat i et bilag til denne forordning, såsom kvaliteten eller størrelsen af træningsdatasættet, antallet af virksomheds- og slutbrugere, dens input- og outputmetoder, dens grad af autonomi og skalerbarhed eller de værktøjer, den har adgang til. Efter en begrundet anmodning fra en udbyder, hvis model er blevet udpeget som en AI-model til almen brug med systemisk risiko, bør Kommissionen tage hensyn til anmodningen og kan beslutte på ny at vurdere, om AI-modellen til almen brug stadig kan anses for at frembyde systemiske risici.
(111)
Je vhodné stanovit metodiku klasifikace obecných modelů AI jako obecných modelů AI se systémovými riziky. Vzhledem k tomu, že systémová rizika vyplývají ze schopností s obzvláště velkým dopadem, měl by být obecný model AI považován za model představující systémová rizika, pokud má schopnosti s velkým dopadem, hodnocené na základě vhodných technických nástrojů a metodik, nebo významný dopad na vnitřní trh v důsledku svého dosahu. Schopnostmi s velkým dopadem v obecných modelech AI se rozumí schopnosti, které odpovídají schopnostem zaznamenaným v nejpokročilejších obecných modelech AI nebo je překračují. Po uvedení modelu na trh nebo při interakci zavádějících subjektů s modelem by bylo možné lépe porozumět celé škále schopností modelu. Podle aktuálního stavu vývoje v době vstupu tohoto nařízení v platnost je jednou z relevantních aproximací schopností modelu kumulativní množství výpočetních operací použité pro trénování obecného modelu AI, měřené při operacích s pohyblivou řádovou čárkou. Kumulativní množství výpočetních operací použitých pro trénování zahrnuje výpočty používané v rámci činností a metod, které jsou určeny k posílení schopností modelu před zavedením, jako je předběžné trénování, vytváření syntetických dat a doladění. Proto by měla být stanovena počáteční prahová hodnota operací s pohyblivou řádovou čárkou, která v případě, že ji určitý obecný model AI splňuje, vede k domněnce, že daný model je obecným modelem AI se systémovými riziky. Tato prahová hodnota by měla být v průběhu času upravována tak, aby odrážela technologické a průmyslové změny, jako jsou algoritmická zlepšení nebo zvýšená účinnost hardwaru, a měla by být doplněna referenčními hodnotami a ukazateli schopnosti modelu. Za tímto účelem by měl úřad pro AI spolupracovat s vědeckou obcí, průmyslem, občanskou společností a dalšími odborníky. Prahové hodnoty, jakož i nástroje a referenční hodnoty pro posuzování schopností s velkým dopadem by měly být silnými prediktory obecnosti, jejích schopností a souvisejícího systémového rizika obecných modelů AI a mohly by zohledňovat způsob, jakým bude daný model uveden na trh, nebo počet uživatelů, na něž může mít vliv. Za účelem doplnění tohoto systému by Komise měla mít možnost přijímat individuální rozhodnutí určující obecný model AI jako obecný model AI se systémovým rizikem, pokud se zjistí, že tento model má schopnosti nebo dopad odpovídající těm, které jsou zachyceny stanovenou prahovou hodnotou. Toto rozhodnutí by mělo být přijato na základě celkového posouzení kritérií pro určování obecných modelů AI se systémovým rizikem stanovených v příloze tohoto nařízení, jako je kvalita nebo velikost souboru trénovacích dat, počet podnikatelských a koncových uživatelů, způsoby jejich vstupů a výstupů, úroveň autonomie a škálovatelnosti nebo nástroje, k nimž má přístup. Komise by měla zohlednit odůvodněnou žádost poskytovatele, jehož model byl určen jako obecný model AI se systémovým rizikem, a může rozhodnout o přehodnocení, zda lze mít nadále za to, že tento model představuje systémová rizika.
(112)
Det er også nødvendigt at klargøre en procedure til klassificering af en AI-model til almen brug med systemiske risici. En AI-model til almen brug, som opfylder den gældende tærskel for kapaciteter med stor virkning, må formodes at være en AI-model til almen brug med systemisk risiko. Udbyderen bør underrette AI-kontoret senest to uger efter, at kravene er opfyldt, eller det bliver kendt, at en AI-model til almen brug vil opfylde de krav, der fører til formodningen. Dette er navnlig relevant i forbindelse med tærsklen for flydende kommatalsberegninger, eftersom træning af AI-modeller til almen brug kræver betydelig planlægning, som omfatter forhåndsallokering af beregningskraftsressourcer, og udbydere af AI-modeller til almen brug kan derfor have kendskab til, om deres model opfylder tærsklen, inden træningen afsluttes. I forbindelse med denne notifikation bør udbyderen kunne påvise, at en AI-model til almen brug som følge af dens specifikke karakteristika undtagelsesvis ikke udgør systemiske risici, og at den derfor ikke bør klassificeres som en AI-model til almen brug med systemiske risici. Denne oplysning er nyttig for AI-kontoret med henblik på at foregribe omsætningen af AI-modeller til almen brug med systemiske risici, så udbyderne tidligt kan begynde at samarbejde med AI-kontoret. Denne oplysning er navnlig vigtig for så vidt angår AI-modeller til almen brug, som efter planen skal frigives som open source, eftersom de nødvendige foranstaltninger til at sikre overholdelse af forpligtelserne i medfør af denne forordning kan være vanskeligere at gennemføre efter frigivelsen af modellen som open source.
(112)
Je rovněž třeba vyjasnit postup pro klasifikaci obecných modelů AI se systémovými riziky. Za obecný model AI se systémovým rizikem by měl být předběžně považován obecný model AI, který splňuje příslušnou prahovou hodnotu pro schopnosti s velkým dopadem. Pokud určitý obecný model AI splnil podmínky dávající vyvstat takové předběžné domněnce nebo pokud začne být zřejmé, že tyto podmínky splní, měl by poskytovatel tuto skutečnost nejpozději do dvou týdnů oznámit úřadu pro AI. To je obzvláště důležité ve vztahu k prahové hodnotě operací s pohyblivou řádovou čárkou, protože trénování obecných modelů AI vyžaduje značné plánování, které zahrnuje předběžné přidělování výpočetních zdrojů, a poskytovatelé obecných modelů AI jsou proto schopni zjistit již před ukončením trénování, zda jejich model prahové hodnoty dosáhne. V souvislosti s tímto oznámením by poskytovatel měl být schopen prokázat, že vzhledem ke svým specifickým vlastnostem daný obecný model AI výjimečně nepředstavuje systémová rizika, a neměl by proto být jako obecný model AI se systémovými riziky klasifikován. Tyto informace jsou cenné pro úřad pro AI, aby mohl předvídat uvádění obecných modelů AI se systémovými riziky na trh, a poskytovatelé tak mohou začít s úřadem pro AI již zkraje spolupracovat. Tyto informace jsou obzvláště důležité, pokud jde o obecné modely AI, které mají být zpřístupněny jako modely s otevřeným zdrojovým kódem, jelikož po zveřejnění modelu s otevřeným zdrojovým kódem může být provádění nezbytných opatření k zajištění souladu s povinnostmi podle tohoto nařízení obtížnější.
(113)
Hvis Kommissionen får kendskab til, at en AI-model til almen brug opfylder kravene til klassificering som en AI-model til almen brug med systemisk risiko, som tidligere enten ikke var kendt, eller som den relevante udbyder har undladt at underrette Kommissionen om, bør Kommissionen have beføjelse til at udpege den som sådan. I tillæg til AI-kontorets overvågningsaktiviteter bør et system med kvalificerede varslinger sikre, at AI-kontoret af det videnskabelige panel får kendskab til AI-modeller til almen brug, som eventuelt bør klassificeres som AI-modeller til almen brug med systemisk risiko.
(113)
Pokud se Komise dozví, že určitý obecný model AI splňuje požadavky na to, aby byl klasifikován jako obecný model AI se systémovým rizikem, což dříve buď nebylo známo, nebo o této skutečnosti příslušný poskytovatel Komisi neinformoval, měla by mít Komise pravomoc jej takto označit. Mělo by být zajištěno systémem kvalifikovaných výstrah, aby byl úřad pro AI informován vědeckou komisí o obecných modelech AI, které by případně měly být klasifikovány jako obecné modely AI se systémovým rizikem, a to nad rámec monitorovacích činností úřadu pro AI.
(114)
Udbydere af AI-modeller til almen brug, som udgør systemiske risici, bør foruden de forpligtelser, der er fastsat for udbydere af AI-modeller til almen brug, være underlagt forpligtelser med det formål at identificere og afbøde disse risici og sikre et tilstrækkeligt cybersikkerhedsbeskyttelsesniveau, uanset om de leveres som en selvstændig model eller er indlejret i et AI-system eller et produkt. For at nå disse mål bør denne forordning kræve, at udbydere foretager de nødvendige modelevalueringer, navnlig inden de første gang bringes i omsætning, herunder gennemførelse og dokumentation af afprøvning af modeller mod ondsindet brug, herunder også i relevant omfang, gennem intern eller uafhængig ekstern afprøvning. Udbydere af AI-modeller til almen brug med systemiske risici bør desuden løbende vurdere og afbøde systemiske risici, herunder f.eks. ved at indføre risikostyringspolitikker såsom ansvarligheds- og forvaltningsprocesser, gennemføre overvågning efter omsætningen, træffe passende foranstaltninger i hele modellens livscyklus og samarbejde med relevante aktører i AI-værdikæden.
(114)
Poskytovatelé obecných modelů AI, které představují systémová rizika, by měli kromě povinností stanovených poskytovatelům obecných modelů AI podléhat povinnostem zaměřeným na identifikaci a zmírnění těchto rizik a na zajištění odpovídající úrovně ochrany kybernetické bezpečnosti bez ohledu na to, zda jsou dotyčné modely poskytovány jako modely samostatné, nebo jsou začleněny do určitého systému nebo produktu AI. Za účelem dosažení těchto cílů by toto nařízení mělo vyžadovat, aby poskytovatelé prováděli nezbytná hodnocení modelů, zejména před jejich prvním uvedením na trh, včetně provádění a dokumentace kontradiktorního testování modelů, případně i prostřednictvím interního nebo nezávislého externího testování. Kromě toho by poskytovatelé obecných modelů AI se systémovými riziky měli systémová rizika průběžně posuzovat a zmírňovat, například zavedením politik řízení rizik, jako jsou procesy odpovědnosti a správy, prováděním monitorování po uvedení na trh, přijímáním vhodných opatření v průběhu celého životního cyklu modelu a prostřednictvím spolupráce s příslušnými subjekty v celém hodnotovém řetězci AI.
(115)
Udbydere af AI-modeller til almen brug med systemiske risici bør vurdere og afbøde eventuelle systemiske risici. Hvis udviklingen eller anvendelsen af modellen trods bestræbelser på at identificere og forebygge risici forbundet med en AI-model til almen brug, som kan udgøre systemiske risici, forårsager en alvorlig hændelse, bør udbyderen af AI-modellen til almen brug uden unødigt ophold spore hændelsen og indberette alle relevante oplysninger og eventuelle korrigerende foranstaltninger til Kommissionen og de nationale kompetente myndigheder. Udbydere bør desuden sikre et tilstrækkeligt cybersikkerhedsbeskyttelsesniveau for modellen og dens fysiske infrastruktur, hvis det er relevant, i hele modellens livscyklus. Cybersikkerhedsbeskyttelse i forbindelse med systemiske risici, der er knyttet til ondsindet brug af eller angreb, bør tage behørigt hensyn til utilsigtet modellækage, uautoriserede frigivelser, omgåelse af sikkerhedsforanstaltninger og forsvar mod cyberangreb, uautoriseret adgang eller modeltyveri. Denne beskyttelse kan lettes ved at sikre modelvægte, algoritmer, servere og datasæt såsom gennem operationelle sikkerhedsforanstaltninger med henblik på informationssikkerhed, specifikke cybersikkerhedspolitikker, passende tekniske og etablerede løsninger samt cyberadgangskontroller og fysiske adgangskontroller, der er tilpasset de relevante forhold og de involverede risici.
(115)
Poskytovatelé obecných modelů AI se systémovými riziky by měli posuzovat a zmírňovat možná systémová rizika. Pokud navzdory úsilí o identifikaci a prevenci rizik souvisejících s obecným modelem AI, která mohou představovat rizika systémová, vývoj nebo používání modelu způsobí závažný incident, měl by poskytovatel obecného modelu AI bez zbytečného odkladu incident sledovat a oznámit veškeré relevantní informace a případná nápravná opatření Komisi a příslušným vnitrostátním orgánům. Poskytovatelé by dále během celého životního cyklu daného modelu měli zajišťovat náležitou úroveň ochrany jeho kybernetické bezpečnosti a případně jeho fyzické infrastruktury. Ochrana kybernetické bezpečnosti související se systémovými riziky spojenými se zneužitím nebo útoky by měla řádně zohledňovat nahodilý únik modelu, neoprávněné zpřístupnění, obcházení bezpečnostních opatření a obranu před kybernetickými útoky, neoprávněným přístupem nebo krádeží modelu. Tato ochrana by mohla být usnadněna zajištěním modelových vah, algoritmů, serverů a datových souborů, například prostřednictvím provozních bezpečnostních opatření pro bezpečnost informací, specifických politik kybernetické bezpečnosti, odpovídajících technických a zavedených řešení a kontrol kybernetického a fyzického přístupu, které odpovídají příslušným okolnostem a souvisejícím rizikům.
(116)
AI-kontoret bør tilskynde til og lette udarbejdelsen, gennemgangen og tilpasningen af praksiskodekser under hensyntagen til internationale tilgange. Alle udbydere af AI-modeller til almen brug kan indbydes til at deltage. For at sikre at praksiskodekser afspejler det aktuelle teknologiske niveau og tager behørigt hensyn til en række forskellige perspektiver, bør AI-kontoret samarbejde med relevante nationale kompetente myndigheder og kan, hvis det er relevant, høre civilsamfundsorganisationer og andre relevante interessenter og eksperter, herunder det videnskabelige panel, om udarbejdelsen af sådanne kodekser. Praksiskodekser bør omfatte forpligtelser for udbydere af AI-modeller til almen brug og af modeller til almen brug, der udgør systemiske risici. Hvad angår systemiske risici, bør praksiskodekser derudover bidrage til at opstille en risikotaksonomi for typen og arten af de systemiske risici på EU-plan, herunder deres kilder. Praksiskodekser bør også fokusere på specifikke risikovurderinger og risikobegrænsende foranstaltninger.
(116)
Úřad pro AI by měl podporovat a usnadňovat vypracování, přezkum a úpravu kodexů správné praxe s přihlédnutím k mezinárodním přístupům. K účasti by mohli být přizváni všichni poskytovatelé obecných modelů AI. Aby bylo zajištěno, že kodexy správné praxe odrážejí aktuální stav vývoje a náležitě zohledňují různorodý soubor perspektiv, měl by úřad pro AI při vypracovávání těchto kodexů spolupracovat s příslušnými vnitrostátními orgány a případně by mohl konzultovat organizace občanské společnosti a další příslušné zúčastněné strany a odborníky, včetně vědecké komise. Kodexy správné praxe by se měly vztahovat na povinnosti poskytovatelů obecných modelů AI a obecných modelů, které představují systémová rizika. Kromě toho, pokud jde o systémová rizika, měly by kodexy správné praxe pomoci stanovit taxonomii rizik týkající se druhu a povahy systémových rizik na úrovni Unie, včetně jejich zdrojů. Kodexy správné praxe by se měly rovněž zaměřit na konkrétní posouzení rizik a opatření k jejich zmírnění.
(117)
Praksiskodekser bør udgøre et centralt redskab med henblik på korrekt overholdelse af de forpligtelser, der er fastsat i medfør af denne forordning, og som gælder for udbydere af AI-modeller til almen brug. Udbydere bør kunne forlade sig på praksiskodekser for at påvise overholdelse af forpligtelserne. Kommissionen kan ved hjælp af gennemførelsesretsakter beslutte at godkende en praksiskodeks og tillægge den almen gyldighed i Unionen eller alternativt fastsætte fælles regler for gennemførelsen af de relevante forpligtelser, hvis en praksiskodeks på tidspunktet for denne forordnings ikrafttræden ikke kan færdiggøres eller af AI-kontoret anses for at være utilstrækkelig. Når en harmoniseret standard er offentliggjort, og AI-kontoret har vurderet den som egnet til at dække de relevante forpligtelser, bør overholdelse af en europæisk harmoniseret standard medføre en formodning om overensstemmelse hermed fra udbydernes side. Udbydere af AI-modeller til almen brug bør desuden kunne påvise overensstemmelse ved hjælp af alternative passende metoder, hvis der ikke findes praksiskodekser eller harmoniserede standarder, eller de vælger ikke at anvende sådanne.
(117)
Kodexy správné praxe by měly představovat ústřední nástroj pro řádné dodržování povinností stanovených tímto nařízením pro poskytovatele obecných modelů AI. Poskytovatelé by měli mít možnost kodexy správné praxe využívat, aby dodržování povinností prokázali. Komise může prostřednictvím prováděcích aktů rozhodnout o schválení kodexu správné praxe a o jeho obecné platnosti v rámci Unie, nebo případně o stanovení společných pravidel pro plnění příslušných povinností, pokud v době, kdy se toto nařízení stane použitelným, nemůže být kodex správné praxe dokončen nebo jej úřad pro AI nepovažuje za vhodný. Jakmile je zveřejněna harmonizovaná norma a úřad pro AI ji posoudí jako vhodnou k pokrytí příslušných povinností, měl by soulad s evropskou harmonizovanou normou poskytnout poskytovatelům předpoklad shody. Poskytovatelé obecných modelů AI by dále měli být schopni prokázat soulad přiměřenými alternativními prostředky, nejsou-li kodexy správné praxe nebo harmonizované normy k dispozici nebo rozhodnou-li se je tito poskytovatelé nevyužít.
(118)
Denne forordning regulerer AI-systemer og AI-modeller, idet den indfører visse krav og forpligtelser for relevante markedsaktører, som bringer dem i omsætning, ibrugtager dem eller anvender dem i Unionen, og derved supplerer forpligtelserne for udbydere af formidlingstjenester, som indlejrer sådanne systemer eller modeller i deres tjenester, som er reguleret ved forordning (EU) 2022/2065. I det omfang sådanne systemer eller modeller er indlejret i udpegede meget store onlineplatforme eller meget store onlinesøgemaskiner, er de underlagt den ramme for risikostyring, som er fastsat i forordning (EU) 2022/2065. De tilsvarende forpligtelser i nærværende forordning må derfor formodes at være opfyldt, medmindre betydelige systemiske risici, der ikke er omfattet af forordning (EU) 2022/2065, forekommer og identificeres i sådanne modeller. Inden for disse rammer er udbydere af meget store onlineplatforme forpligtet til at vurdere potentielle systemiske risici, der hidrører fra udformningen, funktionen og anvendelsen af deres tjenester, herunder hvordan udformningen af algoritmiske systemer, der anvendes i tjenesten, kan bidrage til sådanne risici, samt systemiske risici, der hidrører fra potentielt misbrug. Disse udbydere er også forpligtet til at træffe afbødende foranstaltninger for at overholde de grundlæggende rettigheder.
(118)
Toto nařízení upravuje systémy AI a modely AI tím, že ukládá určité požadavky a povinnosti relevantním účastníkům trhu, kteří je uvádějí na trh, do provozu nebo používají v Unii, a doplňuje tak povinnosti poskytovatelů zprostředkovatelských služeb, kteří tyto systémy nebo modely začleňují do svých služeb upravených nařízením (EU) 2022/2065. Pokud jsou tyto systémy nebo modely začleněny do určených velmi velkých online platforem nebo velmi velkých internetových vyhledávačů, podléhají rámci pro řízení rizik stanovenému v nařízení (EU) 2022/2065. V důsledku by se tak příslušné povinnosti podle tohoto nařízení měly považovat za splněné, pokud se v těchto modelech neobjeví a nejsou identifikována významná systémová rizika, na něž se nařízení (EU) 2022/2065 nevztahuje. V tomto rámci jsou poskytovatelé velmi velkých online platforem a velmi velkých internetových vyhledávačů povinni posoudit potenciální systémová rizika vyplývající z navrhování, fungování a využívání jejich služeb, včetně toho, jak může k těmto rizikům přispět návrh algoritmických systémů používaných v určité službě, jakož i systémová rizika vyplývající z možného zneužití. Tito poskytovatelé jsou rovněž povinni přijmout vhodná zmírňující opatření při dodržování základních práv.
(119)
I betragtning af innovationshastigheden og den teknologiske udvikling inden for digitale tjenester, som er omfattet af forskellige EU-retlige instrumenters anvendelsesområde, navnlig under hensyntagen til anvendelsen og opfattelsen af modtagerne heraf, kan de AI-systemer, der er omfattet af denne forordning, leveres som formidlingstjenester eller dele heraf som omhandlet i forordning (EU) 2022/2065, som bør fortolkes på en teknologineutral måde. AI-systemer kan f.eks. anvendes til at levere onlinesøgemaskiner, navnlig i det omfang et AI-system såsom en onlinechatbot i princippet foretager søgninger på alle websteder, dernæst indarbejder resultaterne i sin eksisterende viden og anvender den ajourførte viden til at generere et enkelt output, der kombinerer forskellige informationskilder.
(119)
Vzhledem k rychlému tempu inovací a technologickému vývoji digitálních služeb v oblasti působnosti různých nástrojů práva Unie, zejména s ohledem na používání a vnímání ze strany jejich příjemců, mohou být systémy AI, na něž se toto nařízení vztahuje, poskytovány jako zprostředkovatelské služby nebo jejich části ve smyslu nařízení (EU) 2022/2065, které by mělo být vykládáno technologicky neutrálním způsobem. Systémy AI lze například využít k poskytování internetových vyhledávačů, a to zejména do té míry, že systém AI, jako je online chatbot, v zásadě provádí vyhledávání na všech internetových stránkách, poté výsledky začleňuje do svých stávajících znalostí a využívá aktualizované znalosti k vytvoření jediného výstupu, který kombinuje různé zdroje informací.
(120)
De forpligtelser, der pålægges udbydere og idriftsættere af visse AI-systemer i denne forordning, for at give mulighed for at påvise og oplyse, at outputtet af disse systemer er blevet genereret kunstigt eller manipuleret, er desuden særlig relevante for at lette en effektiv gennemførelse af forordning (EU) 2022/2065. Dette gælder navnlig for forpligtelserne for udbydere af meget store onlineplatforme eller meget store onlinesøgemaskiner til at identificere og afbøde systemiske risici, der kan opstå som følge af formidlingen af indhold, der er blevet kunstigt genereret eller manipuleret, navnlig risikoen for de faktiske eller forventede negative virkninger for demokratiske processer, samfundsdebatten og valgprocesser, herunder gennem desinformation.
(120)
Kromě toho jsou pro usnadnění účinného provádění nařízení (EU) 2022/2065 obzvláště důležité povinnosti, které toto nařízení ukládá poskytovatelům a subjektům zavádějícím systémy AI, aby bylo možné odhalit a zveřejnit, že výstupy těchto systémů jsou uměle generovány nebo s nimi bylo manipulováno. To platí zejména pro povinnost poskytovatelů velmi velkých online platforem nebo velmi velkých internetových vyhledávačů identifikovat a jejich povinnost zmírňovat systémová rizika, která mohou vyplývat z šíření obsahu, který byl uměle vytvořen nebo s nímž bylo manipulováno, zejména riziko skutečných nebo předvídatelných negativních dopadů na demokratické procesy, občanský diskurz a volební procesy, a to i prostřednictvím dezinformací.
(121)
Standardisering bør spille en central rolle med hensyn til at levere tekniske løsninger til udbyderne for at sikre overholdelse af denne forordning i overensstemmelse med det aktuelle teknologiske niveau og fremme innovation samt konkurrenceevnen og væksten på det indre marked. Overholdelse af harmoniserede standarder som defineret i artikel 2, nr. 1), litra c), i Europa-Parlamentets og Rådets forordning (EU) nr. 1025/2012 (41), der sædvanligvis forventes at afspejle det aktuelle teknologiske niveau, bør være et middel for udbydere til at påvise overensstemmelse med kravene i nærværende forordning. Der bør derfor tilskyndes til en afbalanceret repræsentation af interesser, der inddrager alle relevante interessenter i udviklingen af standarder, navnlig SMV'er, forbrugerorganisationer og miljøorganisationer og sociale interessenter i overensstemmelse med artikel 5 og 6 i forordning (EU) nr. 1025/2012. For at lette overholdelsen bør standardiseringsanmodningerne fremsættes af Kommissionen uden unødigt ophold. I forbindelse med udarbejdelsen af standardiseringsanmodninger bør Kommissionen høre det rådgivende forum og AI-udvalget med henblik på at indsamle relevant ekspertise. I mangel af relevante referencer til harmoniserede standarder bør Kommissionen dog ved hjælp af gennemførelsesretsakter og efter høring af det rådgivende forum kunne fastsætte fælles specifikationer for visse krav i henhold til nærværende forordning. Den fælles specifikation bør være en ekstraordinær nødløsning for at lette udbyderens forpligtelse til at overholde kravene i nærværende forordning, når standardiseringsanmodningen ikke er blevet accepteret af de europæiske standardiseringsorganisationer, eller når de relevante harmoniserede standarder i utilstrækkelig grad tager hensyn til betænkeligheder vedrørende grundlæggende rettigheder, eller når de harmoniserede standarder ikke er i overensstemmelse med anmodningen, eller når der er forsinkelser i vedtagelsen af en passende harmoniseret standard. Hvis en sådan forsinkelse i vedtagelsen af en harmoniseret standard skyldes den pågældende standards tekniske kompleksitet, bør Kommissionen tage dette i betragtning, inden det overvejes at udarbejde fælles specifikationer. Ved udarbejdelsen af fælles specifikationer tilskyndes Kommissionen til at samarbejde med internationale partnere og internationale standardiseringsorganer.
(121)
Klíčovou úlohu při poskytování technických řešení zajišťujících dodržování tohoto nařízení poskytovatelům by měla hrát normalizace, v souladu s aktuálním stavem vývoje, aby se podpořily inovace a konkurenceschopnost a růst na jednotném trhu. Jeden z prostředků, které poskytovatelům umožní prokázat soulad s požadavky tohoto nařízení, by mělo představovat dodržování harmonizovaných norem, jež by měly obvykle odrážet aktuální stav vývoje, definovaných v čl. 2 odst. 1 písm. c) nařízení Evropského parlamentu a Rady (EU) č. 1025/2012 (41). Proto by mělo být podporováno vyvážené zastoupení zájmů se zapojením všech příslušných zúčastněných stran do tvorby norem, zejména malých a středních podniků, spotřebitelských organizací a zúčastněných stran v oblasti životního prostředí a v sociální oblasti v souladu s články 5 a 6 nařízení (EU) č. 1025/2012. Aby se usnadnilo dodržování předpisů, měla by Komise žádosti o normalizaci vydávat bez zbytečného odkladu. Při přípravě žádosti o normalizaci by Komise měla konzultovat poradní fórum a radu s cílem shromáždit příslušné odborné znalosti. Pokud však příslušné odkazy na harmonizované normy neexistují, měla by mít Komise možnost stanovit prostřednictvím prováděcích aktů a po konzultaci s poradním fórem společné specifikace pro určité požadavky podle tohoto nařízení. Společná specifikace by měla být výjimečným záložním řešením, které usnadní povinnost poskytovatele splnit požadavky tohoto nařízení, pokud žádost o normalizaci nebyla přijata žádnou z evropských normalizačních organizací nebo pokud příslušné harmonizované normy dostatečně neřeší obavy týkající se základních práv nebo pokud harmonizované normy nejsou v souladu s žádostí nebo pokud při přijímání vhodné harmonizované normy dochází ke zpoždění. Pokud je toto zpoždění při přijímání harmonizované normy způsobeno technickou složitostí dané normy, Komise by před posuzováním možnosti stanovit společné specifikace měla tuto skutečnost zohlednit. Komise vyzývá, aby při vypracovávání společných specifikací spolupracovala s mezinárodními partnery a mezinárodními normalizačními orgány.
(122)
Uden at det berører anvendelsen af harmoniserede standarder og fælles specifikationer, bør udbydere af et højrisiko-AI-system, som er blevet trænet og afprøvet på data, der afspejler de specifikke geografiske, adfærdsmæssige, kontekstuelle eller funktionelle rammer, som AI-systemet tilsigtes anvendt inden for, formodes at være i overensstemmelse med den relevante foranstaltning, der er fastsat i kravet til datastyring i denne forordning. Uden at det berører kravene til robusthed og nøjagtighed i denne forordning og i overensstemmelse med artikel 54, stk. 3, i forordning (EU) 2019/881 formodes højrisiko-AI-systemer, der er certificeret, eller for hvilke der er udstedt en overensstemmelseserklæring inden for rammerne af en cybersikkerhedsordning i henhold til nævnte forordning, og hvis referencer er offentliggjort i Den Europæiske Unions Tidende, at overholde cybersikkerhedskravene i nærværende forordning, såfremt cybersikkerhedsattesten eller overensstemmelseserklæringen eller dele heraf dækker cybersikkerhedskravet i nærværende forordning. Dette berører ikke den pågældende cybersikkerhedsordnings frivillige karakter.
(122)
Aniž je dotčeno používání harmonizovaných norem a společných specifikací, je vhodné předpokládat, že poskytovatelé vysoce rizikového systému AI, který byl trénován a testován na datech odrážejících specifické zeměpisné, behaviorální, kontextuální nebo funkční prostředí, v němž má být systém AI používán, splňují příslušné opatření stanovené v rámci požadavku na správu dat stanoveného v tomto nařízení. Aniž jsou dotčeny požadavky týkající se spolehlivosti a přesnosti stanovené v tomto nařízení, mělo by se v souladu s čl. 54 odst. 3 nařízení (EU) 2019/881 předpokládat, že vysoce rizikové systémy AI, které byly certifikovány nebo pro něž bylo vydáno prohlášení o shodě v rámci systému kybernetické bezpečnosti podle uvedeného nařízení a na něž byly zveřejněny odkazy v Úředním věstníku Evropské unie, splňují požadavek tohoto nařízení na kybernetickou bezpečnost, pokud se certifikát kybernetické bezpečnosti nebo prohlášení o shodě nebo jejich části vztahují na požadavek na kybernetickou bezpečnost stanovený v tomto nařízení. Tím není dotčena dobrovolná povaha tohoto systému kybernetické bezpečnosti.
(123)
For at sikre en høj grad af troværdighed i højrisiko-AI-systemer bør disse systemer underkastes en overensstemmelsesvurdering, inden de bringes i omsætning eller ibrugtages.
(123)
Aby byla zajištěna vysoká úroveň důvěryhodnosti vysoce rizikových systémů AI, mělo by být u těchto systémů před jejich uvedením na trh nebo do provozu provedeno posouzení shody.
(124)
For så vidt angår højrisiko-AI-systemer, der vedrører produkter, der er omfattet af gældende EU-harmoniseringslovgivning baseret på den nye lovgivningsmæssige ramme, bør disse AI-systemers overholdelse af kravene i denne forordning vurderes som led i den overensstemmelsesvurdering, der allerede er fastsat i nævnte ret, for at minimere byrden for operatørerne og undgå ethvert muligt overlap. Anvendeligheden af kravene i denne forordning bør derfor ikke påvirke den specifikke logik, metode eller generelle struktur i overensstemmelsesvurderingen i henhold til den relevante EU-harmoniseringslovgivning.
(124)
V případě vysoce rizikových systémů AI vztahujících se k produktům upraveným stávajícími harmonizačními právními předpisy Unie na základě nového legislativního rámce je v zájmu minimalizace zátěže provozovatelů a předcházení případnému zdvojování vhodné, aby byl soulad těchto systémů AI s požadavky tohoto nařízení posuzován v rámci posuzování shody, které uvedené právo již stanovují. Použitelnost požadavků tohoto nařízení by tedy neměla mít vliv na konkrétní logiku, metodiku nebo obecnou strukturu posuzování shody podle příslušných harmonizačních právních předpisů Unie.
(125)
I betragtning af højrisiko-AI-systemers kompleksitet og de med disse forbundne risici er det vigtigt at udvikle en passende overensstemmelsesvurderingsprocedure for højrisiko-AI-systemer, der involverer bemyndigede organer, en såkaldt overensstemmelsesvurdering udført af tredjepart. I betragtning af den aktuelle erfaring, som professionelle, der udfører certificering forud for omsætning, har inden for produktsikkerhed og de relevante risicis forskellige karakter, bør anvendelsesområdet for tredjeparters overensstemmelsesvurderinger af andre højrisiko-AI-systemer end dem, der vedrører produkter, dog begrænses, i det mindste i den indledende fase af anvendelsen af denne forordning. Overensstemmelsesvurderinger af sådanne systemer bør derfor som hovedregel foretages af udbyderen på dennes eget ansvar, med undtagelse af AI-systemer, der tilsigtes anvendt til biometri.
(125)
Vzhledem ke složitosti vysoce rizikových systémů AI a rizikům, která jsou s nimi spojena, je důležité vyvinout pro vysoce rizikové systémy AI odpovídající postup posuzování shody zahrnující oznámené subjekty, tzv. posuzování shody třetí stranou. Vzhledem ke stávajícím zkušenostem profesionálních ověřovatelů před uvedením na trh v oblasti bezpečnosti produktů a k odlišné povaze souvisejících rizik je však vhodné alespoň v počáteční fázi uplatňování tohoto nařízení omezit oblast působnosti posuzování shody vysoce rizikových systémů AI třetími stranami v případech, které se netýkají produktů. Posuzování shody těchto systémů by proto měl provádět zpravidla poskytovatel na vlastní odpovědnost s jedinou výjimkou, kterou tvoří systémy AI určené pro biometriku.
(126)
Med henblik på tredjeparters overensstemmelsesvurderinger, når der er behov for sådanne, bør bemyndigede organer notificeres i henhold til denne forordning af de nationale kompetente myndigheder, forudsat at de overholder en række krav, navnlig med hensyn til uafhængighed, kompetencer, interessekonflikter og passende cybersikkerhedskrav. De nationale kompetente myndigheder bør sende notifikationen af disse organer til Kommissionen og de andre medlemsstater ved hjælp af det elektroniske notifikationsværktøj, der er udviklet og forvaltes af Kommissionen i henhold til artikel R23 i bilag I til afgørelse nr. 768/2008/EF.
(126)
Příslušné vnitrostátní orgány by v souladu s tímto nařízením měly, pokud je to požadováno, oznámit oznámené subjekty pro účely posouzení shody třetími stranami pod podmínkou, že splňují určitý soubor požadavků, zejména požadavku na nezávislost, způsobilost a neexistenci střetu zájmů a vhodných požadavků na kybernetickou bezpečnost. Oznámení těchto subjektů by měly příslušné vnitrostátní orgány zasílat Komisi a ostatním členským státům prostřednictvím elektronického nástroje pro oznamování vyvinutého a spravovaného Komisí podle článku R23 přílohy I rozhodnutí č. 768/2008/ES.
(127)
I overensstemmelse med Unionens forpligtelser i henhold til Verdenshandelsorganisationens aftale om tekniske handelshindringer er det hensigtsmæssigt at lette den gensidige anerkendelse af resultater af overensstemmelsesvurderinger udarbejdet af de kompetente overensstemmelsesvurderingsorganer, uafhængigt af hvor de er etableret, forudsat at disse overensstemmelsesvurderingsorganer, der er oprettet i henhold til retten i et tredjeland, opfylder de gældende krav i denne forordning, og Unionen har indgået aftale herom. I denne forbindelse bør Kommissionen aktivt undersøge mulige internationale instrumenter til dette formål og navnlig søge at indgå aftaler om gensidig anerkendelse med tredjelande.
(127)
V souladu se závazky Unie podle Dohody Světové obchodní organizace o technických překážkách obchodu je vhodné usnadnit vzájemné uznávání výsledků posuzování shody vypracovaných příslušnými subjekty posuzování shody nezávisle na území, na němž jsou usazeny, za předpokladu, že tyto subjekty posuzování shody zřízené podle práva třetí země splňují příslušné požadavky tohoto nařízení a že Unie v tomto ohledu uzavřela dohodu. V této souvislosti by Komise měla za uvedeným účelem aktivně prozkoumat možné mezinárodní nástroje, a zejména usilovat o uzavření dohod o vzájemném uznávání se třetími zeměmi.
(128)
I overensstemmelse med det almindeligt anerkendte begreb væsentlig ændring for produkter, der er reguleret af EU-harmoniseringslovgivningen, bør AI-systemet, når der sker en ændring, som kan have indflydelse på højrisiko-AI-systemets overensstemmelse med denne forordning (f.eks. ændring af styresystem eller softwarearkitektur), eller hvis systemets tilsigtede formål ændrer sig, betragtes som et nyt AI-system, der bør underkastes en ny overensstemmelsesvurdering. Ændringer i algoritmen og ydeevnen af AI-systemer, der fortsætter med at »lære« efter, at de er bragt i omsætning eller ibrugtaget, dvs. at de automatisk tilpasser, hvordan funktionerne udføres, bør ikke udgøre en væsentlig ændring, forudsat at disse ændringer er fastlagt på forhånd af udbyderen og vurderet på tidspunktet for overensstemmelsesvurderingen.
(128)
V souladu s obecně zavedeným pojmem „podstatná změna“ u produktů regulovaných harmonizačními právními předpisy Unie je vhodné aby pokaždé, když dojde ke změně, která může ovlivnit soulad vysoce rizikového systému AI s tímto nařízením (např. změna operačního systému nebo softwarové architektury), nebo pokud se změní zamýšlený účel tohoto systému, byl tento systém AI považován za nový systém AI, který by měl být podroben novému posouzení shody. Změny, k nimž dochází v algoritmu a výkonnosti systémů AI, které se i po uvedení na trh nebo do provozu dále „učí“, tj. automaticky přizpůsobují způsob výkonu funkcí, by však podstatnou změnu představovat neměly, pokud byly tyto změny předem stanoveny poskytovatelem a posouzeny v okamžiku posuzování shody.
(129)
Højrisiko-AI-systemer bør være forsynet med CE-mærkning for at vise, at de er i overensstemmelse med denne forordning, således at de sikres fri bevægelighed på det indre marked. For højrisiko-AI-systemer, der er indlejret i et produkt, bør der anbringes en fysisk CE-mærkning, som kan suppleres med en digital CE-mærkning. For højrisiko-AI-systemer, der kun leveres digitalt, bør der anvendes en digital CE-mærkning. Medlemsstaterne bør ikke skabe uberettigede hindringer for omsætningen eller ibrugtagningen af højrisiko-AI-systemer, der overholder kravene i denne forordning, og som er forsynet med CE-mærkning.
(129)
Vysoce rizikové systémy AI by měly být opatřeny označením CE prokazujícím jejich shodu s tímto nařízením, aby jim byl umožněn volný pohyb v rámci vnitřního trhu. Na vysoce rizikových systémech AI začleněných do produktu by mělo být připevněno fyzické označení CE, které může být doplněno digitálním označením CE. U vysoce rizikových systémů AI poskytovaných pouze digitálně by se mělo používat digitální označení CE. Členské státy by neměly vytvářet neodůvodněné překážky uvádění na trh nebo do provozu u vysoce rizikových systémů AI, které jsou v souladu s požadavky stanovenými v tomto nařízení a jsou opatřeny označením CE.
(130)
Under visse omstændigheder kan hurtig adgang til innovative teknologier være afgørende for personers sundhed og sikkerhed, miljøbeskyttelse og klimaændringer og for samfundet som helhed. Markedsovervågningsmyndighederne kan derfor af ekstraordinære hensyn til den offentlige sikkerhed eller beskyttelsen af fysiske personers liv og sundhed, miljøbeskyttelse og beskyttelse af centrale industrielle og infrastrukturmæssige aktiver tillade omsætning eller ibrugtagning af AI-systemer, der ikke har været genstand for en overensstemmelsesvurdering. I behørigt begrundede situationer som fastsat i denne forordning kan de retshåndhævende myndigheder eller civilbeskyttelsesmyndighederne tage et specifikt højrisiko-AI-system i brug uden tilladelse fra markedsovervågningsmyndigheden, forudsat at der under eller efter anvendelsen anmodes om en sådan tilladelse uden unødigt ophold.
(130)
Rychlá dostupnost inovativních technologií může mít za určitých podmínek zásadní význam pro zdraví a bezpečnost osob, ochranu životního prostředí a změnu klimatu i pro společnost jako celek. Je proto vhodné, aby orgány dozoru nad trhem mohly z výjimečných důvodů veřejné bezpečnosti nebo ochrany života a zdraví fyzických osob, ochrany životního prostředí a ochrany klíčových průmyslových a infrastrukturních aktiv povolit uvedení na trh nebo do provozu v případě systémů AI, u nichž posouzení shody nebylo provedeno. V řádně odůvodněných situacích, jak je stanoveno v tomto nařízení, mohou donucovací orgány nebo orgány civilní ochrany uvést konkrétní vysoce rizikový systém AI do provozu bez povolení orgánu dozoru nad trhem, pokud je o takové povolení požádáno během používání nebo po něm bez zbytečného odkladu.
(131)
For at lette Kommissionens og medlemsstaternes arbejde inden for AI og øge gennemsigtigheden for offentligheden bør udbydere af andre højrisiko-AI-systemer end dem, der vedrører produkter, der er omfattet af relevant gældende EU-harmoniseringslovgivning, og udbydere, der finder, at et AI-system, der er opført som tilfælde af højrisikoanvendelser i et bilag til denne forordning, ikke er højrisiko på grundlag af en undtagelse, pålægges at registrere sig selv og oplysninger om deres AI-system i en EU-database, der skal oprettes og forvaltes af Kommissionen. Inden anvendelse af et AI-system, der er opført som tilfælde af højrisikoanvendelser i et bilag til denne forordning, bør idriftsættere af højrisiko-AI-systemer, der er offentlige myndigheder, agenturer eller organer, registrere sig selv i en sådan database og udvælge det system, de påtænker at anvende.Andre idriftsættere bør have ret til at gøre dette frivilligt. Denne del af EU-databasen bør være offentligt tilgængelig og gratis, og oplysningerne bør være lettilgængelige, forståelige og maskinlæsbare. EU-databasen bør også være brugervenlig, f.eks. ved at råde over søgefunktioner, herunder gennem nøgleord, der gør det muligt for offentligheden at finde relevante oplysninger, der skal indsendes ved registrering af højrisiko-AI-systemer, og om højrisiko-AI-systemers anvendelsestilfælde fastsat i et bilag til denne forordning, som højrisiko-AI-systemerne svarer til. Enhver væsentlig ændring af højrisiko-AI-systemer bør også registreres i EU-databasen. For højrisiko-AI-systemer inden for retshåndhævelse og migrationsstyring, asylforvaltning og grænsekontrol bør registreringsforpligtelserne opfyldes i en sikker ikkeoffentlig del af EU-databasen. Adgang til den sikre ikkeoffentlige del bør være strengt begrænset til Kommissionen og til markedsovervågningsmyndighederne for så vidt angår deres nationale del af den pågældende database. Højrisiko-AI-systemer inden for kritisk infrastruktur bør kun registreres på nationalt plan. Kommissionen bør være dataansvarlig for EU-databasen i overensstemmelse med forordning (EU) 2018/1725. For at sikre at EU-databasen fungerer efter hensigten, når den tages i idriftsættes, bør proceduren for oprettelse af databasen omfatte, at Kommissionen udarbejder funktionsspecifikationer, samt en uafhængig revisionsrapport. Kommissionen bør tage hensyn til cybersikkerhedsrisici, når den udfører sine opgaver som dataansvarlig for EU-databasen. For at maksimere offentlighedens tilgængelighed og anvendelse af EU-databasen bør EU-databasen, herunder oplysninger, der stilles til rådighed igennem den, overholde kravene i medfør af direktiv (EU) 2019/882.
(131)
Pro usnadnění práce Komise a členských států v oblasti AI a zvýšení transparentnosti vůči veřejnosti by poskytovatelé vysoce rizikových systémů AI s výjimkou těch, které se vztahují k produktům spadajícím do oblasti působnosti příslušných stávajících harmonizačních právních předpisů Unie, jakož i poskytovatelé, kteří se domnívají, že systém AI uvedený mezi příklady vysoce rizikového použití v příloze tohoto nařízení není vysoce rizikový na základě výjimky, měli mít povinnost se zaregistrovat, jakož i zaregistrovat informace o svém vysoce rizikovém systému AI do databáze EU, kterou zřídí a bude spravovat Komise. Před použitím systému AI uvedeného mezi příklady vysoce rizikového použití by se subjekty zavádějící vysoce rizikové systémy AI, které jsou veřejnými orgány, agenturami nebo subjekty, měly zaregistrovat do této databáze a vybrat systém, který hodlají používat. Ostatní zavádějící subjekty by měly mít právo tak učinit dobrovolně. Tento oddíl databáze EU by měl být veřejně přístupný, bezplatný, informace by měly být snadno dohledatelné, srozumitelné a strojově čitelné. Databáze EU by rovněž měla být uživatelsky přívětivá, například tím, že bude poskytovat funkce vyhledávání, a to i prostřednictvím klíčových slov, což umožní široké veřejnosti nalézt relevantní informace, které mají být předloženy při registraci vysoce rizikových systémů AI a o příkladech vysoce rizikového použití systémů AI stanovených v přílohách tohoto nařízení, jimž vysoce rizikové systémy AI odpovídají. Veškeré podstatné změny vysoce rizikových systémů AI by se rovněž měly zaregistrovat v databázi EU. U vysoce rizikových systémů AI v oblasti vymáhání práva, migrace, azylu a řízení ochrany hranic by registrační povinnosti měly být splněny v zabezpečeném neveřejném oddílu databáze EU. Přístup k zabezpečenému neveřejnému oddílu by měl být přísně omezen na Komisi, jakož i na orgány dozoru nad trhem, pokud jde o jejich vnitrostátní část této databáze. Vysoce rizikové systémy AI v oblasti kritické infrastruktury by měly být registrovány pouze na vnitrostátní úrovni. V souladu s nařízením 2018/1725 by správcem databáze EU pro přeshraniční výměnu informací měla být Komise. Aby byla zajištěna plná funkčnost databáze EU při jejím zavedení, měl by postup při vytváření databáze zahrnovat vytvoření funkčních specifikací ze strany Komise a nezávislou zprávu o auditu. Komise by měla při plnění svých úkolů správce údajů v databázi EU zohlednit rizika spojená s kybernetickou bezpečností. Aby byla databáze EU co nejvíce dostupná a využívaná veřejností, měla by spolu s informacemi, které jsou jejím prostřednictvím zpřístupňovány, splňovat požadavky směrnice (EU) 2019/882.
(132)
Visse AI-systemer, der er tilsigtet at interagere med fysiske personer eller generere indhold, kan indebære særlige risici for imitation eller vildledning, uanset om de er klassificeret som højrisiko eller ej. Under visse omstændigheder bør anvendelsen af disse systemer derfor være underlagt særlige gennemsigtighedsforpligtelser, uden at dette berører kravene og forpligtelserne for højrisiko-AI-systemer, og målrettede undtagelser for at tage hensyn til særlige behov inden for retshåndhævelse. Fysiske personer bør navnlig underrettes om, at de interagerer med et AI-system, medmindre dette er indlysende ud fra en rimelig oplyst, opmærksom og velunderrettet fysisk persons synspunkt under hensyntagen til omstændighederne og anvendelsessammenhængen. Ved gennemførelsen af denne forpligtelse bør der tages hensyn til egenskaber hos fysiske personer, der tilhører sårbare grupper på grund af deres alder eller handicap, i det omfang AI-systemet er tilsigtet også at interagere med disse grupper. Fysiske personer bør desuden underrettes, når de udsættes for AI-systemer, der ved at behandle personernes biometriske data kan genkende eller udlede følelserne eller hensigterne hos disse personer eller placere dem i specifikke kategorier. Sådanne specifikke kategorier kan vedrøre aspekter såsom køn, alder, hårfarve, øjenfarve, tatoveringer, personlighedstræk, etnisk oprindelse, personlige præferencer og interesser. Sådanne oplysninger og underretninger bør gives i formater, der er tilgængelige for personer med handicap.
(132)
Určité systémy AI určené k interakci s fyzickými osobami nebo ke generování obsahu mohou představovat specifická rizika vydávání se za jinou osobu nebo podvodu bez ohledu na to, zda je lze, či nelze označit za vysoce rizikové. Na používání těchto systémů by se proto měly za určitých okolností vztahovat zvláštní povinnosti transparentnosti, aniž by tím byly dotčeny požadavky a povinnosti kladené na vysoce rizikové systémy AI, a s výhradou cílených výjimek, které zohledňují zvláštní potřeby spojené s vymáháním práva. Zejména fyzické osoby by měly být upozorněny, že komunikují se systémem AI, není-li tato skutečnost zřejmá z pohledu fyzické osoby, která je přiměřeně informovaná, pozorná a obezřetná, při zohlednění okolností a kontextu použití. Při plnění této povinnosti by měly být zohledněny vlastnosti fyzických osob náležejících ke zranitelným skupinám vzhledem k jejich věku nebo zdravotnímu postižení, a to v rozsahu, v jakém je systém AI určen i pro komunikaci s těmito skupinami. Fyzické osoby by navíc měly být informovány v případě, že jsou vystaveny systémům AI, které zpracováním jejich biometrických údajů mohou identifikovat nebo odvodit jejich emoce nebo záměry nebo je zařadit do konkrétních kategorií. Tyto konkrétní kategorie se mohou týkat takových aspektů, jako je pohlaví, věk, barva vlasů, barva očí, tetování, osobnostní rysy, etnický původ, osobní preference a zájmy. Tyto informace a oznámení by měly být poskytovány ve formátech přístupných pro osoby se zdravotním postižením.
(133)
En række AI-systemer kan generere store mængder syntetisk indhold, som bliver stadig vanskeligere for mennesker at adskille fra menneskegenereret og autentisk indhold. Disse systemers brede tilgængelighed og øgede kapaciteter har en betydelig indvirkning på integriteten af og tilliden til informationsøkosystemet, hvilket skaber nye risici for misinformation og manipulation i stor målestok, svig, imitation eller vildledning af forbrugerne. I lyset af disse virkninger, det hurtige teknologiske tempo og behovet for nye metoder og teknikker til sporing af oplysningernes oprindelse bør udbydere af disse systemer pålægges at indlejre tekniske løsninger, som muliggør markering i et maskinlæsbart format og påvisning af, at outputtet er blevet genereret eller manipuleret af et AI-system og ikke af et menneske. Sådanne teknikker og metoder bør være tilstrækkeligt pålidelige, interoperable, effektive og robuste, i det omfang dette er teknisk muligt, under hensyntagen til tilgængelige teknikker eller en kombination af sådanne teknikker såsom vandmærker, metadataidentifikationer, kryptografiske metoder til påvisning af indholdets oprindelse og ægthed, registreringsmetoder, fingeraftryk eller andre teknikker, alt efter hvad der kan være relevant. Udbydere bør ved gennemførelsen af denne forpligtelse tage hensyn til de forskellige typer indholds særlige forhold og begrænsninger og markedsudviklinger på området, som er afspejlet i det generelt anerkendte aktuelle teknologiske niveau. Sådanne teknikker og metoder kan gennemføres på AI-systemniveau eller AI-modelniveau, som omfatter AI-modeller til almen brug, der genererer indhold, og derved gøre det nemmere for AI-systemets downstreamudbyder at opfylde denne forpligtelse. Det bør fastsættes, at hvis denne mærkningsforpligtelse skal forblive forholdsmæssig, bør den ikke omfatte AI-systemer, der primært udfører en hjælpefunktion med henblik på standardredigering, eller AI-systemer, der ikke i væsentlig grad ændrer de inputdata, der leveres af idriftsætteren, eller semantikken heraf.
(133)
Různé systémy AI mohou generovat velké množství syntetického obsahu, který je pro člověka stále obtížnější odlišit od autentického obsahu vytvořeného člověkem. Široká dostupnost a rostoucí schopnosti těchto systémů mají významný dopad na integritu a důvěru v informační ekosystém, neboť zvyšují nová rizika zavádějících informací a manipulace ve velkém měřítku, podvodů, vydávání se za jinou osobu a klamání spotřebitelů. Vzhledem k těmto dopadům, rychlému technologickému tempu a potřebě nových metod a technik pro vysledování původu informací je vhodné požadovat, aby poskytovatelé těchto systémů zavedli technická řešení, která umožňují označení ve strojově čitelném formátu a zjištění, že výstup vytvořil nebo s ním manipuloval systém AI, a nikoli člověk. Tyto techniky a metody by měly být dostatečně spolehlivé, interoperabilní, účinné a robusní, pokud je to technicky proveditelné, s přihlédnutím k dostupným technikám nebo kombinaci těchto technik, jako jsou vodoznaky, identifikace metadat, kryptografické metody prokazování původu a pravosti obsahu, metody vedení protokolů, otisky prstů nebo případně jiné techniky. Při plnění této povinnosti by poskytovatelé měli rovněž zohlednit specifika a omezení různých typů obsahu a příslušný technologický a tržní vývoj v této oblasti, jak se odráží v obecně uznávaném aktuálním stavu vývoje. Tyto techniky a metody lze uplatňovat na úrovni systému AI nebo na úrovni modelu AI, včetně obecných modelů AI, které generují obsah, čímž se usnadní plnění této povinnosti navazujícímu poskytovateli systému AI. V zájmu zachování proporcionality je vhodné předpokládat, že by se tato povinnost označování neměla vztahovat na systémy AI, které plní především asistenční funkci pro standardní editaci, nebo na systémy AI, které podstatně nemění vstupní údaje poskytnuté zavádějícím subjektem nebo jejich sémantiku.
(134)
I forlængelse af de tekniske løsninger, som udbydere af AI-systemet anvender, bør de idriftsættere, der anvender et AI-system til at generere eller manipulere billed-, lyd- eller videoindhold, der i væsentlig grad ligner faktiske personer, genstande, steder, enheder eller begivenheder, og som fejlagtigt vil fremstå ægte eller sandfærdigt for en person (»deepfakes«), også klart og synligt oplyse, at indholdet er kunstigt skabt eller manipuleret, ved at mærke AI-outputtet i overensstemmelse hermed og oplyse om dets kunstige oprindelse. Overholdelse af denne gennemsigtighedsforpligtelse bør ikke fortolkes således, at anvendelse af AI-systemet eller dets output hindrer ytringsfriheden eller retten til frihed for kunst og videnskab, der er sikret ved chartret, navnlig når indholdet er en del af et åbenlyst kreativt, satirisk, kunstnerisk, fiktivt eller tilsvarende arbejde eller program, med forbehold af passende sikkerhedsforanstaltninger for tredjemands rettigheder og friheder. I disse tilfælde er gennemsigtighedsforpligtelsen for deepfakes fastsat i denne forordning begrænset til oplysning om eksistensen af sådant genereret eller manipuleret indhold på en passende måde, der ikke er til gene for visningen eller nydelsen af værket, herunder den normale udnyttelse og anvendelse heraf, samtidig med at værkets nytteværdi og kvalitet bevares. En lignende oplysningspligt bør desuden tilstræbes for AI-genereret eller manipuleret tekst, for så vidt den offentliggøres med det formål at informere offentligheden om spørgsmål af offentlig interesse, medmindre det AI-genererede indhold har gennemgået en proces med menneskelig gennemgang eller redaktionel kontrol, og en fysisk eller juridisk person har det redaktionelle ansvar for offentliggørelsen af indholdet.
(134)
Kromě technických řešení používaných poskytovateli systému by zavádějící subjekty, které používají systém AI k vytváření obrazového, zvukového nebo video obsahu nebo k manipulaci s ním, přičemž tento obsah se znatelně podobá existujícím osobám, objektům, místům, subjektům nebo událostem, a určité osobě by se falešně jevil jako autentický nebo pravdivý (deep fakes), měly rovněž jasně a zřetelně uvádět, že obsah byl vytvořen uměle nebo s ním bylo manipulováno, a to tak, že odpovídajícím způsobem označí výstup umělé inteligence a zveřejní jeho umělý původ. Splnění této povinnosti týkající se transparentnosti by nemělo být vykládáno tak, že naznačuje, že používání systému AI nebo jeho výstupu brání právu na svobodu projevu a právu na svobodu umění a vědy zaručeným Listinou, zejména pokud je obsah součástí zjevně tvůrčího, satirického, uměleckého nebo fiktivního nebo obdobného díla nebo programu, s výhradou vhodných záruk práv a svobod třetích osob. V těchto případech je povinnost transparentnosti pro „deep fakes“ stanovená v tomto nařízení omezena na zveřejnění existence takového vytvořeného nebo zmanipulovaného obsahu vhodným způsobem, který nebrání zobrazení díla nebo požitku z něj, včetně jeho běžného využívání a používání, při zachování užitečnosti a kvality díla. Kromě toho je rovněž vhodné stanovit podobnou povinnost zveřejňování v souvislosti s textem vytvořeným nebo zmanipulovaným umělou inteligencí, pokud je zveřejněn za účelem informování veřejnosti o záležitostech veřejného zájmu, pokud obsah vytvořený umělou inteligencí neprošel procesem lidského přezkumu nebo redakční kontroly a redakční odpovědnost za zveřejnění obsahu nese fyzická nebo právnická osoba.
(135)
Uden at det berører disse gennemsigtighedsforpligtelsers obligatoriske karakter og fulde anvendelighed, kan Kommissionen også tilskynde til og lette udarbejdelsen af praksiskodekser på EU-plan for at lette en effektiv gennemførelse af forpligtelserne til påvisning og mærkning af kunstigt genereret eller manipuleret indhold, herunder til støtte for praktiske ordninger for i relevant omfang at gøre sporingsmekanismerne tilgængelige og lette samarbejdet med andre aktører i værdikæden, formidle indhold eller kontrollere dets ægthed og oprindelse, så offentligheden effektivt kan adskille AI-genereret indhold.
(135)
Aniž je dotčena závazná povaha a plná použitelnost povinností týkajících se transparentnosti, může Komise rovněž podporovat a usnadňovat vypracování kodexů správné praxe na úrovni Unie s cílem usnadnit účinné provádění povinností týkajících se odhalování a označování uměle vytvořeného nebo zmanipulovaného obsahu, včetně podpory praktických opatření pro případné zpřístupnění detekčních mechanismů a usnadnění spolupráce s dalšími subjekty v celém hodnotovém řetězci, šíření obsahu nebo ověřování jeho pravosti a původu, aby veřejnost mohla obsah vytvořený umělou inteligencí účinně odlišit.
(136)
De forpligtelser, der pålægges udbydere og idriftsættere af visse AI-systemer i denne forordning, for at gøre det muligt at påvise og oplyse, at outputtet af disse systemer er blevet genereret kunstigt eller manipuleret, er særlig relevante for at lette en effektiv gennemførelse af forordning (EU) 2022/2065. Dette gælder navnlig for forpligtelserne for udbydere af meget store onlineplatforme eller meget store onlinesøgemaskiner til at identificere og afbøde systemiske risici, der kan opstå som følge af formidlingen af indhold, der er blevet kunstigt genereret eller manipuleret, navnlig risikoen for de faktiske eller forventede negative virkninger for demokratiske processer, samfundsdebatten og valgprocesser, herunder gennem desinformation. Kravet om mærkning af indhold genereret af AI-systemer i henhold til nærværende forordning berører ikke forpligtelsen i artikel 16, stk. 6, i forordning (EU) 2022/2065 for udbydere af oplagringstjenester til at behandle anmeldelser om ulovligt indhold, som er modtaget i henhold til nævnte forordnings artikel 16, stk. 1, og bør ikke påvirke vurderingen af og afgørelsen om det specifikke indholds lovlighed. Denne vurdering bør udelukkende foretages under henvisning til reglerne om lovligheden af indholdet.
(136)
Pro usnadnění účinného provádění nařízení (EU) 2022/2065 jsou obzvláště důležité povinnosti, které toto nařízení ukládá poskytovatelům a subjektům zavádějícím systémy AI, aby bylo možné odhalit a zveřejnit, že výstupy těchto systémů jsou uměle generovány nebo s nimi bylo manipulováno. Toto platí zejména pro povinnost poskytovatelů velmi velkých online platforem nebo velmi velkých internetových vyhledávačů identifikovat a zmírňovat systémová rizika, která mohou vyplývat z šíření obsahu, který byl uměle vytvořen nebo s nímž bylo manipulováno, zejména riziko skutečných nebo předvídatelných negativních dopadů na demokratické procesy, občanský diskurz a volební procesy, a to i prostřednictvím dezinformací. Požadavkem na označování obsahu vytvořeného systémy AI podle tohoto nařízení není dotčena povinnost uvedená v čl. 16. odst. 6 nařízení (EU) 2022/2065, podle něhož poskytovatelé hostingových služeb musejí zpracovávat oznámení o nezákonném obsahu obdržená podle čl. 16 odst. 1 uvedeného nařízení, a tento požadavek by neměl ovlivňovat posouzení a rozhodnutí o nezákonnosti konkrétního obsahu. Toto posouzení by mělo být provedeno výhradně s ohledem na pravidla upravující legalitu obsahu.
(137)
Overholdelse af de gennemsigtighedsforpligtelser for AI-systemer, som er omfattet af denne forordning, bør ikke fortolkes således, at anvendelsen af systemet eller dets output er lovlig i henhold til denne forordning eller anden EU-ret eller ret i medlemsstaterne, og bør ikke berøre andre gennemsigtighedsforpligtelser for idriftsættere af AI-systemer i EU-retten eller national ret.
(137)
Dodržování povinností týkajících se transparentnosti pro systémy AI, na něž se vztahuje toto nařízení, by nemělo být vykládáno tak, že se uvádí, že používání daného systému AI nebo jeho výstupu je podle tohoto nařízení nebo jiného práva Unie a členských států zákonné, a neměly by jím být dotčeny jiné povinnosti týkající se transparentnosti pro subjekty zavádějící systémy AI stanovené v unijním nebo vnitrostátním právu.
(138)
AI er en hurtigt voksende familie af teknologier, der kræver myndighedstilsyn og et sikkert og kontrolleret miljø til forsøg, samtidig med at der sikres ansvarlig innovation og integration af passende sikkerhedsforanstaltninger og risikobegrænsende foranstaltninger. For at sikre en lovgivningsmæssig ramme, der fremmer innovation og er fremtidssikret og modstandsdygtig over for forstyrrelser, bør medlemsstaterne sikre, at deres nationale kompetente myndigheder opretter mindst én reguleringsmæssig AI-sandkasse på nationalt plan for at lette udviklingen og afprøvningen af innovative AI-systemer under strengt myndighedstilsyn, før disse systemer bringes i omsætning eller på anden måde ibrugtages. Medlemsstaterne kan også opfylde denne forpligtelse ved at deltage i allerede eksisterende reguleringsmæssige sandkasser eller oprette en sandkasse sammen med én eller flere medlemsstaters kompetente myndigheder, for så vidt som denne deltagelse giver de deltagende medlemsstater et tilsvarende nationalt dækningsniveau. Reguleringsmæssige AI-sandkasser kan oprettes i fysisk, digital eller hybrid form og kan tilpasses fysiske såvel som digitale produkter. De oprettende myndigheder bør også sikre de reguleringsmæssige AI-sandkasser tilstrækkelige ressourcer, herunder finansielle og menneskelige ressourcer, til at fungere.
(138)
AI je rychle se vyvíjející skupina technologií, která vyžaduje regulační dohled a bezpečný a kontrolovaný prostor pro experimentování při současném zajištění odpovědných inovací a integrace vhodných záruk a opatření ke zmírnění rizika. Aby byl zajištěn právní rámec, který inovace podporuje, obstojí i v budoucnu a je odolný vůči narušení, měly by členské státy zajistit, aby jejich příslušné vnitrostátní orgány zřídily alespoň jeden regulační sandbox pro AI na vnitrostátní úrovni s cílem usnadnit vývoj a testování inovativních systémů AI pod přísným regulačním dohledem, než budou tyto systémy uvedeny na trh nebo jiným způsobem do provozu. Členské státy by mohly tuto povinnost splnit také účastí v již existujících regulačních sandboxech nebo společným zřízením sandboxu s příslušnými orgány jednoho nebo více členských států, pokud tato účast poskytuje zúčastněným členským státům rovnocennou úroveň vnitrostátního pokrytí. Regulační sandboxy pro AI by mohly být zřízeny ve fyzické, digitální nebo hybridní podobě a mohou být určeny pro fyzické i digitální produkty. Zřizující orgány by rovněž měly zajistit, aby regulační sandboxy pro AI měly odpovídající zdroje pro své fungování, včetně finančních a lidských zdrojů.
(139)
Formålet med de reguleringsmæssige AI-sandkasser bør være at fremme innovation inden for kunstig intelligens ved at skabe et kontrolleret forsøgs- og afprøvningsmiljø i udviklingsfasen forud for omsætning med henblik på at sikre, at de innovative AI-systemer er i overensstemmelse med denne forordning og anden relevant EU-ret og national ret. De reguleringsmæssige AI-sandkasser bør endvidere øge retssikkerheden for innovatorer og de kompetente myndigheders tilsyn og forståelse af de muligheder, nye risici og virkninger, der er forbundet med anvendelsen af AI, lette lovgivningsmæssig læring for myndigheder og virksomheder, herunder med henblik på fremtidige tilpasninger af den retlige ramme, støtte samarbejdet og udvekslingen af bedste praksis med de myndigheder, der er involveret i den reguleringsmæssige AI-sandkasse, samt fremskynde adgangen til markeder, herunder ved at fjerne hindringer for SMV'er, herunder iværksættervirksomheder. Reguleringsmæssige AI-sandkasser bør være bredt tilgængelige i hele Unionen, og der bør lægges særlig vægt på deres tilgængelighed for SMV'er, herunder iværksættervirksomheder. Deltagelsen i den reguleringsmæssige AI-sandkasse bør fokusere på spørgsmål, der skaber retsusikkerhed for udbydere og potentielle udbydere med hensyn til at innovere, eksperimentere med kunstig intelligens i Unionen og bidrage til evidensbaseret lovgivningsmæssig læring. Tilsynet med AI-systemerne i den reguleringsmæssige AI-sandkasse bør derfor omfatte deres udvikling, træning, afprøvning og validering, inden systemerne bringes i omsætning eller ibrugtages samt begrebet og forekomsten af væsentlige ændringer, der kan kræve en ny overensstemmelsesvurderingsprocedure. Enhver væsentlig risiko, der konstateres under udviklingen og afprøvningen af sådanne AI-systemer, bør afbødes i tilstrækkelig grad, og hvis dette ikke er muligt, bør udviklings- og afprøvningsprocessen suspenderes. Hvis det er relevant, bør de nationale kompetente myndigheder, der opretter reguleringsmæssige AI-sandkasser, samarbejde med andre relevante myndigheder, herunder dem, der fører tilsyn med beskyttelsen af grundlæggende rettigheder, og de kan muliggøre inddragelse af andre aktører i AI-økosystemet såsom nationale eller europæiske standardiseringsorganisationer, bemyndigede organer, afprøvnings- og forsøgsfaciliteter, forsknings- og forsøgslaboratorier, europæiske digitale innovationsknudepunkter og relevante interessenter og civilsamfundsorganisationer. For at sikre en ensartet gennemførelse i hele Unionen samt stordriftsfordele bør der fastsættes fælles regler for gennemførelsen af de reguleringsmæssige AI-sandkasser og en ramme for samarbejde mellem de relevante myndigheder, der er involveret i tilsynet med sandkasserne. Reguleringsmæssige AI-sandkasser, der oprettes i henhold til denne forordning, bør ikke berøre anden ret, der giver mulighed for at oprette andre sandkasser, der har til formål at sikre overholdelse af anden ret end denne forordning. Hvis det er relevant, bør de relevante kompetente myndigheder med ansvar for disse andre reguleringsmæssige sandkasser også overveje fordelene ved at anvende disse sandkasser med henblik på at sikre AI-systemers overensstemmelse med denne forordning. Efter aftale mellem de nationale kompetente myndigheder og deltagerne i den reguleringsmæssige AI-sandkasse kan der også gennemføres og føres tilsyn med afprøvning under faktiske forhold inden for rammerne af den reguleringsmæssige AI-sandkasse.
(139)
Cílem těchto regulačních sandboxů pro AI by měla být podpora inovací AI na základě vytvoření kontrolovaného experimentálního a testovacího prostředí ve fázi vývoje a před uvedením na trh, aby byl zajištěn soulad inovativních systémů AI s tímto nařízením a s dalšími příslušným právem Unie i s vnitrostátním právem. Regulační sandboxy pro AI by dále měly vést k posílení právní jistoty inovátorů, dohledu příslušných orgánů a jejich porozumění příležitostem, vznikajícím rizikům a dopadům používání AI, usnadnění regulačního učení orgánů a podniků, a to i s ohledem na budoucí úpravy právního rámce, podpora spolupráce a sdílení osvědčených postupů s orgány zapojenými do regulačního sandboxu pro AI, jakož i urychlení přístupu na trhy, mimo jiné odstraněním překážek pro malé a střední podniky včetně podniků začínajících. Regulační sandboxy pro AI by měly být široce dostupné v celé Unii a zvláštní pozornost by měla být věnována jejich dostupnosti pro malé a střední podniky, včetně podniků začínajících. Účast v regulačním sandboxu pro AI by se měla zaměřit na otázky, které zvyšují právní nejistotu pro poskytovatele a potenciální poskytovatele, pokud jde o inovace, experimentování s AI v Unii a přispívání k fakticky podloženému regulačnímu učení. Dohled nad systémy AI v regulačním sandboxu pro AI by proto měl zahrnovat jejich vývoj, trénování, testování a validaci před uvedením systémů na trh nebo do provozu, jakož i pojem podstatných změn, které mohou vyžadovat nový postup posuzování shody, a výskyt takových změn. Veškerá významná rizika, která budou zjištěna během vývoje a testování těchto systémů AI, by měla být následně náležitě zmírněna, přičemž v případě neúspěchu by měl být proces vývoje a testování pozastaven.Příslušné vnitrostátní orgány, které zřizují regulační sandboxy pro AI, by případně měly spolupracovat s dalšími příslušnými orgány, včetně těch, které dohlížejí na ochranu základních práv, a mohly by umožnit zapojení dalších subjektů v rámci ekosystému AI, jako jsou vnitrostátní nebo evropské normalizační organizace, oznámené subjekty, testovací a experimentální zařízení, výzkumné a experimentální laboratoře, evropská centra pro digitální inovace a příslušné zúčastněné strany a organizace občanské společnosti. Aby bylo zajištěno jednotné provádění v celé Unii a úspory z rozsahu, je vhodné stanovit společná pravidla pro zavádění regulačních sandboxů pro AI a rámec spolupráce mezi příslušnými orgány, které se podílejí na dohledu nad těmito sandboxy. Regulačními sandboxy pro AI zřízenými podle tohoto nařízení by nemělo být dotčeno jiné právo umožňující zřízení jiných sandboxů, jejichž cílem je zajistit soulad s jiným právem, než je toto nařízení. Příslušné orgány odpovědné za tyto jiné regulační sandboxy by případně měly zvážit přínosy používání těchto sandboxů rovněž pro účely zajištění souladu systémů AI s tímto nařízením. Na základě dohody mezi příslušnými vnitrostátními orgány a účastníky regulačního sandboxu pro AI může být v rámci regulačního sandboxu pro AI rovněž prováděno a kontrolováno testování v reálných podmínkách.
(140)
Denne forordning bør udgøre retsgrundlaget for udbyderne og de potentielle udbydere i den reguleringsmæssige AI-sandkasse til kun på bestemte betingelser at anvende personoplysninger, der er indsamlet til andre formål med henblik på udvikling af visse samfundsnyttige AI-systemer inden for rammerne af den reguleringsmæssige AI-sandkasse, jf. artikel 6, stk. 4, og artikel 9, stk. 2, litra g), i forordning (EU) 2016/679 og artikel 5, 6 og 10 i forordning (EU) 2018/1725, og uden at det berører artikel 4, stk. 2, og artikel 10 i direktiv (EU) 2016/680. Alle andre forpligtelser for databehandlere og rettigheder for registrerede i henhold til forordning (EU) 2016/679 og (EU) 2018/1725 samt direktiv (EU) 2016/680 finder fortsat anvendelse. Især bør nærværende forordning ikke udgøre et retsgrundlag som omhandlet i artikel 22, stk. 2, litra b), i forordning (EU) 2016/679 og artikel 24, stk. 2, litra b), i forordning (EU) 2018/1725. Udbydere og potentielle udbydere i den reguleringsmæssige AI-sandkasse bør sørge for passende sikkerhedsforanstaltninger og samarbejde med de kompetente myndigheder, herunder ved at følge deres vejledning og handle hurtigt og i god tro for i tilstrækkelig grad at afbøde eventuelle konstaterede betydelige risici med hensyn til sikkerhed, sundhed og de grundlæggende rettigheder, som måtte opstå under udviklingen, afprøvningen og forsøgene i denne sandkasse.
(140)
Toto nařízení by mělo poskytovatelům a potenciálním poskytovatelům v regulačním sandboxu pro AI poskytnout právní základ pro to, aby v rámci regulačního sandboxu pro AI mohli k vývoji určitých systémů AI ve veřejném zájmu použít osobní údaje shromážděné pro jiné účely, a to pouze za určitých podmínek, v souladu s čl. 6 odst. 4 a čl. 9 odst. 2 písm. g) nařízení (EU) 2016/679 a s článkem 5, 6 a 10 nařízení (EU) 2018/1725, aniž je dotčen čl. 4 odst. 2 a článek 10 směrnice (EU) 2016/680. Nadále platí všechny ostatní povinnosti správců údajů a práva subjektů údajů podle nařízení (EU) 2016/679, nařízení (EU) 2018/1725 a směrnice (EU) 2016/680. Toto nařízení by zejména nemělo poskytovat právní základ ve smyslu čl. 22 odst. 2 písm. b) nařízení (EU) 2016/679 a čl. 24 odst. 2 písm. b) nařízení (EU) 2018/1725. Poskytovatelé a potenciální poskytovatelé by v regulačních sandboxech pro AI by měli zajistit vhodné záruky a spolupracovat s příslušnými orgány, mimo jiné postupovat podle jejich pokynů a jednat rychle a v dobré víře, aby náležitě zmírnili veškerá zjištěná významná rizika pro bezpečnost, zdraví a základní práva, která v průběhu vývoje, testování a experimentování v rámci sandboxu případně vzniknou.
(141)
For at fremskynde udviklingen og omsætningen af de højrisiko-AI-systemer, der er opført i et bilag til denne forordning, er det vigtigt, at udbydere eller potentielle udbydere af sådanne systemer også kan drage fordel af en særlig ordning for afprøvning af disse systemer under faktiske forhold uden at deltage i en reguleringsmæssig AI-sandkasse. I sådanne tilfælde og under hensyntagen til de mulige konsekvenser af en sådan afprøvning for enkeltpersoner bør det imidlertid sikres, at denne forordning indfører passende og fornødne sikkerhedsforanstaltninger og betingelser for udbydere eller potentielle udbydere. Sådanne garantier bør bl.a. omfatte anmodning om fysiske personers informerede samtykke til at deltage i afprøvninger under faktiske forhold med undtagelse af retshåndhævelse, hvis indhentning af informeret samtykke ville forhindre AI-systemet i at blive afprøvet. Registreredes samtykke til at deltage i sådanne afprøvninger i henhold til denne forordning adskiller sig fra og berører ikke de registreredes samtykke til behandling af deres personoplysninger i henhold til den relevante databeskyttelsesret. Det er også vigtigt at minimere risiciene og give de kompetente myndigheder mulighed for at føre tilsyn og dermed kræve, at potentielle udbydere har en plan for afprøvning under faktiske forhold, som forelægges for den kompetente markedsovervågningsmyndighed, registrerer afprøvningen i særlige dele i EU-databasen med forbehold af visse begrænsede undtagelser, fastsætter begrænsninger for den periode, inden for hvilken afprøvningen kan finde sted, og stiller krav om yderligere sikkerhedsforanstaltninger for personer, der tilhører visse sårbare grupper, samt om en skriftlig aftale, der definerer potentielle udbyderes og idriftsætteres rolle og ansvarsområder og et effektivt tilsyn fra det kompetente personales side, som er involveret i afprøvningen under faktiske forhold. Der bør desuden tilstræbes yderligere sikkerhedsforanstaltninger for at sikre, at AI-systemets forudsigelser, anbefalinger eller beslutninger reelt kan omgøres og ses bort fra, og at personoplysninger beskyttes og slettes, når de registrerede har trukket deres samtykke til at deltage i afprøvningen tilbage, uden at det berører deres rettigheder som registrerede i henhold til EU-databeskyttelsesretten. For så vidt angår overførsel af data bør det tilstræbes, at data, der indsamles og behandles med henblik på afprøvning under faktiske forhold, kun bør overføres til tredjelande, hvis der gennemføres passende og gældende sikkerhedsforanstaltninger i henhold til EU-retten, navnlig i overensstemmelse med grundlag for overførsel af personoplysninger i henhold til EU-databeskyttelsesretten, mens der for andre data end personoplysninger indføres passende sikkerhedsforanstaltninger i overensstemmelse med EU-retten såsom Europa-Parlamentets og Rådets forordning (EU) 2022/868 (42) og (EU) 2023/2854 (43).
(141)
V zájmu urychlení procesu vývoje vysoce rizikových systémů AI uvedených v příloze tohoto nařízení a jejich uvádění na trh je důležité, aby poskytovatelé nebo potenciální poskytovatelé těchto systémů mohli rovněž využívat zvláštního režimu pro testování těchto systémů v reálných podmínkách, aniž by se účastnili regulačního sandboxu pro AI. V takových případech, s ohledem na možné důsledky takového testování pro jednotlivce by však mělo být zajištěno, aby toto nařízení pro poskytovatele nebo potenciální poskytovatele zavedlo vhodné a dostatečné záruky a podmínky. Tyto záruky by měly mimo jiné zahrnovat požadavek na informovaný souhlas fyzických osob s účastí na testování v reálných podmínkách, s výjimkou vymáhání práva v případech, kdy by získání informovaného souhlasu bránilo testování systému AI. Souhlas subjektů údajů s účastí na takovém testování podle tohoto nařízení je odlišný od souhlasu subjektů údajů se zpracováním jejich osobních údajů podle příslušného práva v oblasti ochrany údajů, který jím není dotčen. Je rovněž důležité minimalizovat rizika a umožnit dohled ze strany příslušných orgánů, a proto požadovat, aby potenciální poskytovatelé předložili příslušnému orgánu dozoru nad trhem plán testování v reálných podmínkách, zaregistrovali testování ve specializovaných oddílech v databázi EU s výhradou určitých omezených výjimek, stanovili omezení doby, po kterou lze testování provádět, a vyžadovali další záruky pro osoby patřící do některé ze zranitelných skupin, jakož i písemnou dohodu vymezující úlohy a povinnosti potenciálních poskytovatelů a zavádějících subjektů a účinný dohled ze strany příslušných pracovníků zapojených do testování v reálném provozu. Dále je vhodné stanovit další záruky, které zajistí, aby predikce, doporučení nebo rozhodnutí systému AI mohly být účinně zrušeny a ignorovány a aby byly osobní údaje chráněny a vymazány, pokud subjekty odvolají svůj souhlas s účastí na testování, aniž by byla dotčena jejich práva jakožto subjektů údajů podle práva Unie o ochraně údajů. Pokud jde o předávání údajů, je rovněž vhodné předpokládat, že údaje shromážděné a zpracovávané pro účely testování v reálných podmínkách by měly být předávány do třetích zemí pouze v případě, že jsou zavedeny vhodné a použitelné záruky podle práva Unie, zejména v souladu se základy pro předávání osobních údajů podle práva Unie o ochraně údajů, zatímco pro neosobní údaje jsou zavedeny vhodné záruky v souladu s právem Unie, jako jsou nařízení Evropského parlamentu a Rady (EU) 2022/868 (42) a (EU) 2023/2854 (43).
(142)
For at sikre at AI fører til socialt og miljømæssigt gavnlige resultater, tilskyndes medlemsstaterne til at støtte og fremme forskning i og udvikling af AI-løsninger til støtte for socialt og miljømæssigt gavnlige resultater såsom AI-baserede løsninger for at øge tilgængeligheden for personer med handicap, bekæmpe socioøkonomiske uligheder eller opfylde miljømål ved at afsætte tilstrækkelige ressourcer, herunder offentlig finansiering og EU-finansiering, og, hvis det er relevant, og forudsat at støtteberettigelses- og udvælgelseskriterierne er opfyldt, ved navnlig at tage højde for projekter, der forfølger sådanne mål. Sådanne projekter bør baseres på princippet om tværfagligt samarbejde mellem AI-udviklere, eksperter i ulighed og ikkeforskelsbehandling, tilgængelighed, forbrugerrettigheder, miljørettigheder og digitale rettigheder samt akademikere.
(142)
V zájmu zajištění sociálně a environmentálně prospěšných výsledků AI se členské státy vybízejí, aby podporovaly a prosazovaly výzkum a vývoj řešení v oblasti AI, která sociálně a environmentálně prospěšné výsledky podporují, jako jsou řešení založená na AI, jejichž cílem je zvýšit přístupnost pro osoby se zdravotním postižením, řešit socioekonomické nerovnosti nebo plnit environmentální cíle, a aby za tímto účelem přidělily dostatečné zdroje, včetně veřejných a unijních finančních prostředků, a případně aby se zaměřily zejména na projekty, které sledují uvedené cíle, jsou-li splněna kritéria způsobilosti a výběru. Tyto projekty by měly být založeny na zásadě interdisciplinární spolupráce mezi vývojáři AI, odborníky na nerovnost a nediskriminaci, přístupnost, spotřebitelská, environmentální a digitální práva, jakož i akademickými pracovníky.
(143)
For at fremme og beskytte innovation er det vigtigt at tage særligt hensyn til interesserne hos SMV'er, herunder iværksættervirksomheder, som er udbydere eller idriftsættere af AI-systemer. Med henblik herpå bør medlemsstaterne udarbejde initiativer, der er rettet mod disse operatører, herunder vedrørende oplysning og informationsformidling. Medlemsstaterne bør give SMV'er, herunder iværksættervirksomheder, der har vedtægtsmæssigt hjemsted eller en filial i Unionen, prioriteret adgang til de reguleringsmæssige AI-sandkasser, forudsat at de opfylder støtteberettigelsesbetingelserne og udvælgelseskriterierne, og uden at andre udbydere og potentielle udbydere udelukkes fra at få adgang til sandkasserne, såfremt de samme betingelser og kriterier er opfyldt. Medlemsstaterne bør udnytte eksisterende kanaler og, hvis det er relevant, etablere nye særlige kanaler for kommunikation med SMV'er, herunder iværksættervirksomheder, idriftsættere, andre innovatorer og, alt efter hvad der er relevant, lokale offentlige myndigheder, med henblik på at støtte SMV'er gennem hele deres udviklingsforløb ved at yde vejledning og besvare spørgsmål om gennemførelsen af denne forordning. Hvis det er relevant, bør disse kanaler arbejde sammen om at skabe synergier og sikre ensartethed i deres vejledning til SMV'er, herunder iværksættervirksomheder, og idriftsættere. Medlemsstaterne bør desuden lette deltagelse af SMV'er og andre relevante interessenter i standardiseringsudviklingsprocessen. Desuden bør der tages hensyn til de særlige interesser og behov hos udbydere, der er SMV'er, herunder iværksættervirksomheder, når bemyndigede organer fastsætter gebyrer for overensstemmelsesvurderinger. Kommissionen bør regelmæssigt vurdere certificerings- og efterlevelsesomkostningerne for SMV'er, herunder iværksættervirksomheder, gennem gennemsigtige høringer og arbejde sammen med medlemsstaterne om at nedbringe disse omkostninger. Omkostninger forbundet med oversættelse af obligatorisk dokumentation og kommunikation med myndigheder kan f.eks. udgøre en betydelig omkostning for udbydere og andre operatører, navnlig mindre udbydere og operatører. Medlemsstaterne bør eventuelt sørge for, at et af de sprog, som de bestemmer sig for og accepterer til de relevante udbyderes dokumentation og til kommunikation med operatørerne, er et sprog, der forstås bredt af flest mulige idriftsættere på tværs af grænserne. For at imødekomme SMV'ers, herunder iværksættervirksomheder, specifikke behov bør Kommissionen efter anmodning fra AI-udvalget tilvejebringe standardiserede skabeloner for de områder, der er omfattet af denne forordning. Desuden bør Kommissionen supplere medlemsstaternes indsats ved at stille en central informationsplatform med brugervenlige oplysninger om denne forordning til rådighed for alle udbydere og idriftsættere, idet den tilrettelægger passende kommunikationskampagner for at øge bevidstheden om de forpligtelser, der følger af denne forordning, og evaluerer og fremmer konvergensen af bedste praksis i offentlige udbudsprocedurer i forbindelse med AI-systemer. Mellemstore virksomheder, der indtil for nylig var små virksomheder som omhandlet i bilaget til Kommissionens henstilling 2003/361/EF (44), bør have adgang til disse støtteforanstaltninger, eftersom disse nye mellemstore virksomheder undertiden kan mangle de juridiske ressourcer og den uddannelse, der er nødvendig for at sikre en korrekt forståelse og overholdelse af denne forordning.
(143)
V zájmu podpory a ochrany inovací je důležité, aby byly obzvláště zohledněny zájmy malých a středních podniků, včetně podniků začínajících, které jsou poskytovateli nebo zavádějícími subjekty systémů AI. Za tímto účelem by členské státy měly vyvíjet iniciativy zaměřené na tyto provozovatele, a to včetně zvyšování povědomí a informační komunikace. Členské státy by měly poskytnout malým a středním podnikům, včetně podniků začínajících, které mají sídlo nebo pobočku v Unii, přednostní přístup k regulačním sandboxům pro AI za předpokladu, že splňují podmínky způsobilosti a kritéria výběru, a aniž by bránily jiným poskytovatelům a potenciálním poskytovatelům v přístupu k sandboxům za předpokladu, že jsou splněny stejné podmínky a kritéria. Členské státy by měly využít stávající kanály a případně vytvořit nové specializované kanály pro komunikaci s malými a středními podniky, včetně začínajících podniků, zavádějícími subjekty, dalšími inovátory a případně místními veřejnými orgány, aby podpořily malé a střední podniky v průběhu vývoje tím, že jim budou poskytovat pokyny a zodpovídat dotazy týkající se provádění tohoto nařízení. Tyto kanály by ve vhodných případech měly spolupracovat na vytváření synergií a zajištění jednotných pokynů pro malé a střední podniky, včetně podniků začínajících, a zavádějící subjekty. Členské státy by navíc měly usnadňovat účast malých a středních podniků a dalších příslušných zúčastněných stran na procesech rozvoje normalizace. Kromě toho by poskytovatelé měli při stanovování poplatků za posouzení shody oznámenými subjekty zohlednit zvláštní zájmy a potřeby poskytovatelů, kterými jsou malé a střední podniky včetně podniků začínajících. Komise by měla pravidelně posuzovat náklady malých a středních podniků, včetně podniků začínajících, na certifikaci a dodržování předpisů, mimo jiné na základě transparentních konzultací, a měla by spolupracovat s členskými státy na snižování těchto nákladů. Značné náklady pro poskytovatele a další provozovatele, zejména jedná-li se o poskytovatele a provozovatele menšího rozsahu, mohou představovat například náklady na překlady související s povinnou dokumentací a s komunikací s úřady. Členské státy by případně měly zajistit, aby jedním z jazyků, který určí a přijmou pro účely dokumentace příslušných poskytovatelů a komunikace s provozovateli, byl jazyk, kterému obecně rozumí co nejvyšší počet přeshraničních zavádějících subjektů. Za účelem řešení specifických potřeb malých a středních podniků, včetně podniků začínajících, by Komise měla na žádost rady poskytnout standardizované šablony pro oblasti, na něž se vztahuje toto nařízení. Kromě toho by Komise měla doplnit úsilí členských států tím, že všem poskytovatelům a zavádějícím subjektům poskytne jednotnou informační platformu se snadno použitelnými informacemi o tomto nařízení, uspořádá vhodné komunikační kampaně s cílem zvýšit povědomí o povinnostech vyplývajících z tohoto nařízení a vyhodnotí a podpoří sbližování osvědčených postupů při zadávání veřejných zakázek v souvislosti se systémy AI. K těmto podpůrným opatřením by měly mít přístup střední podniky, které donedávna splňovaly kritéria pro malé podniky ve smyslu přílohy doporučení Komise 2003/361/ES (44), neboť tyto nové střední podniky mohou někdy postrádat právní zdroje a odbornou přípravu nezbytnou k zajištění řádného porozumění tomuto nařízení a jeho dodržování.
(144)
For at fremme og beskytte innovation bør AI-on-demand-platformen og alle relevante EU-finansieringsprogrammer og -projekter såsom programmet for et digitalt Europa og Horisont Europa, der gennemføres af Kommissionen og medlemsstaterne på EU-plan eller nationalt plan, i relevant omfang bidrage til at nå denne forordnings mål.
(144)
Za účelem podpory a ochrany inovací by k dosažení cílů tohoto nařízení případně měly přispívat platforma AI na vyžádání, všechny příslušné unijní programy a projekty financování, jako je program Digitální Evropa a program Horizont Evropa, prováděné Komisí a členskými státy na unijní nebo vnitrostátní úrovni.
(145)
For at minimere risiciene i gennemførelsen som følge af manglende viden og ekspertise på markedet samt for at gøre det lettere for udbydere, navnlig SMV'er, herunder iværksættervirksomheder, og bemyndigede organer at overholde deres forpligtelser i medfør af denne forordning bør navnlig AI-on-demand-platformen, de europæiske digitale innovationsknudepunkter og de afprøvnings- og forsøgsfaciliteter, som Kommissionen og medlemsstaterne har oprettet på EU-plan eller nationalt plan, bidrage til gennemførelsen af denne forordning. Inden for rammerne af deres respektive opgave- og kompetenceområde kan AI-on-demand-platformen, de europæiske digitale innovationsknudepunkter og afprøvnings- og forsøgsfaciliteterne navnlig yde teknisk og videnskabelig støtte til udbydere og bemyndigede organer.
(145)
K provádění tohoto nařízení s cílem minimalizovat rizika v oblasti provádění vyplývající z nedostatku věcných a odborných znalostí na trhu, jakož i usnadnit dodržování povinností poskytovatelů, zejména malých a středních podniků včetně podniků začínajících, a oznámených subjektů podle tohoto nařízení, by mohly potenciálně přispět platformy pro AI na vyžádání, evropská centra pro digitální inovace a zkušební a experimentální zařízení zřízená Komisí a členskými státy na unijní nebo vnitrostátní úrovni. Platforma pro AI na vyžádání, evropská centra pro digitální inovace a zkušební a experimentální zařízení mohou v rámci svých úkolů a oblastí působnosti poskytovatelům a oznámeným subjektům poskytovat zejména technickou a vědeckou podporu.
(146)
I lyset af nogle operatørers meget beskedne størrelse og for at sikre proportionalitet med hensyn til innovationsomkostninger er det desuden hensigtsmæssigt at give mikrovirksomheder mulighed for at opfylde en af de dyreste forpligtelser, nemlig etablering af et kvalitetsstyringssystem, der på en forenklet måde vil mindske den administrative byrde og omkostningerne for disse virksomheder uden at påvirke beskyttelsesniveauet og behovet for overholdelse af kravene til højrisiko-AI-systemer. Kommissionen bør udarbejde retningslinjer med henblik på at præcisere, hvilke elementer i kvalitetsstyringssystemet mikrovirksomheder skal opfylde på denne forenklede måde.
(146)
Kromě toho je s ohledem na velmi malou velikost některých provozovatelů a v zájmu zajištění proporcionality, pokud jde o náklady na inovace, vhodné umožnit mikropodnikům, aby jednu z nejnákladnějších povinností, konkrétně zavedení systému řízení kvality, splnily zjednodušeným způsobem, který by snížil jejich administrativní zátěž a náklady, aniž by to ovlivnilo úroveň ochrany a potřebu splňovat požadavky na vysoce rizikové systémy AI. Komise by měla vypracovat pokyny pro upřesnění prvků systému řízení kvality, které mohou mikropodniky realizovat tímto zjednodušeným způsobem.
(147)
Kommissionen bør så vidt muligt lette adgangen til afprøvnings- og forsøgsfaciliteter for organer, grupper eller laboratorier, der er oprettet eller akkrediteret i henhold til relevant EU-harmoniseringslovgivning, og som udfører opgaver i forbindelse med overensstemmelsesvurderinger af produkter eller udstyr, der er omfattet af EU-harmoniseringslovgivningen. Dette er navnlig tilfældet for ekspertpaneler, ekspertlaboratorier og referencelaboratorier på området for medicinsk udstyr, jf. forordning (EU) 2017/745 og (EU) 2017/746.
(147)
Je vhodné, aby Komise v maximální možné míře usnadnila přístup ke zkušebním a experimentálním zařízením orgánům, skupinám nebo laboratořím, které jsou zřízeny nebo akreditovány podle příslušných harmonizačních právních předpisů Unie a které plní úkoly v souvislosti s posuzováním shody produktů nebo zařízení, na něž se uvedené harmonizační právní předpisy Unie vztahují. To platí zejména pro odborné skupiny, odborné laboratoře a referenční laboratoře v oblasti zdravotnických prostředků podle nařízení (EU) 2017/745 a (EU) 2017/746.
(148)
Denne forordning bør fastsætte en forvaltningsramme, som gør det muligt både at koordinere og støtte anvendelsen af denne forordning på nationalt plan samt opbygge kapaciteter på EU-plan og inddrage interessenter inden for AI. En effektiv gennemførelse og håndhævelse af denne forordning kræver en forvaltningsramme, som gør det muligt at koordinere og opbygge central ekspertise på EU-plan. AI-kontoret blev oprettet ved Kommissionens afgørelse (45) og har som mission at udvikle Unionens ekspertise og kapaciteter inden for AI og bidrage til gennemførelsen af EU-ret om AI. Medlemsstaterne bør lette AI-kontorets opgaver med henblik på at støtte udviklingen af Unionens ekspertise og kapaciteter på EU-plan og styrke det digitale indre markeds funktion. Der bør endvidere oprettes et AI-udvalg bestående af repræsentanter for medlemsstaterne, et videnskabeligt panel til at integrere det videnskabelige samfund og et rådgivende forum, der skal bidrage med input fra interessenter til gennemførelsen af denne forordning, både på EU-plan og nationalt plan. Udviklingen af Unionens ekspertise og kapaciteter bør også indebære, at eksisterende ressourcer og ekspertise udnyttes, navnlig gennem synergier med strukturer, der er opbygget i forbindelse med håndhævelse på EU-plan af anden ret, og synergier med tilhørende initiativer på EU-plan såsom fællesforetagendet EuroHPC og AI-afprøvnings- og -forsøgsfaciliteter under programmet for et digitalt Europa.
(148)
Toto nařízení by mělo vytvořit rámec správy, který umožní koordinovat a podporovat uplatňování tohoto nařízení na vnitrostátní úrovni, jakož i budovat kapacity na úrovni Unie a integrovat zúčastněné strany v oblasti AI. Účinné provádění a prosazování tohoto nařízení vyžaduje rámec správy, který umožní koordinaci a budování ústředních odborných znalostí na úrovni Unie. Úřad pro AI byl zřízen rozhodnutím Komise (45) a jeho úkolem je rozvíjet odborné znalosti a schopnosti Unie v oblasti AI a přispívat k provádění práva Unie v oblasti AI. Členské státy by měly usnadnit úkoly úřadu pro AI s cílem podpořit rozvoj odborných znalostí a schopností Unie na úrovni Unie a posílit fungování jednotného digitálního trhu. Kromě toho by měla být zřízena rada složená ze zástupců členských států, vědecká komise pro integraci vědecké obce a poradní fórum, které bude přispívat prostřednictvím zúčastněných stran k provádění tohoto nařízení na unijní a vnitrostátní úrovni. Rozvoj odborných znalostí a schopností Unie by měl rovněž zahrnovat využití stávajících zdrojů a odborných znalostí, zejména prostřednictvím synergií se strukturami vytvořenými v souvislosti s vymáháním jiného práva na úrovni Unie a synergií se souvisejícími iniciativami na úrovni Unie, jako je společný podnik EuroHPC a zkušební a experimentální zařízení pro AI v rámci programu Digitální Evropa.
(149)
For at lette en gnidningsløs, effektiv og harmoniseret gennemførelse af denne forordning bør der nedsættes et AI-udvalg. AI-udvalget bør afspejle AI-økosystemets forskellige interesser og bestå af repræsentanter for medlemsstaterne. AI-udvalget bør være ansvarligt for en række rådgivningsopgaver såsom udtalelser, henstillinger, rådgivning eller bidrag til vejledning om spørgsmål vedrørende gennemførelsen af denne forordning, herunder med hensyn til håndhævelsesspørgsmål, tekniske specifikationer eller eksisterende standarder i forbindelse med de krav, der er fastsat i denne forordning, samt rådgive og bistå Kommissionen og medlemsstaterne og deres nationale kompetente myndigheder i forbindelse med specifikke spørgsmål vedrørende AI. For at give medlemsstaterne en vis fleksibilitet med hensyn til udpegelsen af deres repræsentanter i AI-udvalget kan sådanne repræsentanter være alle personer tilhørende offentlige enheder, som bør have de relevante kompetencer og beføjelser til at lette koordinering på nationalt plan og bidrage til udførelsen af AI-udvalgets opgaver. AI-udvalget bør nedsætte to stående undergrupper for at tilvejebringe en platform for samarbejde og udveksling mellem markedsovervågningsmyndigheder og bemyndigende myndigheder om spørgsmål vedrørende henholdsvis markedsovervågning og bemyndigede organer. Den stående undergruppe for markedsovervågning bør fungere som den administrative samarbejdsgruppe (ADCO) i forbindelse med denne forordning som omhandlet i artikel 30 i forordning (EU) 2019/1020. I overensstemmelse med artikel 33 i nævnte forordning bør Kommissionen støtte aktiviteterne i den stående undergruppe for markedsovervågning ved at foretage markedsevalueringer eller -undersøgelser, navnlig med henblik på at identificere aspekter af nærværende forordning, der kræver specifik og hurtig koordinering mellem markedsovervågningsmyndighederne. AI-udvalget kan nedsætte andre stående eller midlertidige undergrupper, alt efter hvad der er relevant, med henblik på at behandle specifikke spørgsmål. AI-udvalget bør også i relevant omfang samarbejde med relevante EU-organer, -ekspertgrupper og -netværk, der er aktive inden for rammerne af relevant EU-ret, herunder navnlig dem, der er aktive i henhold til den relevante EU-ret om data, digitale produkter og tjenester.
(149)
V zájmu usnadnění hladkého, účinného a harmonizovaného provádění tohoto nařízení by měla být zřízena rada. Tato rada by měla odrážet různé zájmy ekosystému AI a měla by se skládat ze zástupců členských států. Tato rada by měla odpovídat za řadu poradenských úkolů, včetně vydávání stanovisek, doporučení, rad nebo příspěvků k pokynům v záležitostech souvisejících s prováděním tohoto nařízení, včetně otázek prosazování, technických specifikací nebo stávajících norem týkajících se požadavků stanovených v tomto nařízení a poskytování poradenství Komisi a členským státům a jejich vnitrostátních orgánům v konkrétních otázkách týkajících se AI. S cílem poskytnout členským státům určitou flexibilitu při jmenování svých zástupců do rady mohou být těmito zástupci jakékoli osoby patřící k veřejným subjektům, které by měly mít příslušné kompetence a pravomoci, aby usnadnily koordinaci na vnitrostátní úrovni a přispívaly k plnění úkolů rady. Rada by měla zřídit dvě stálé podskupiny, které by poskytovaly platformu pro spolupráci a výměnu mezi orgány dozoru nad trhem a oznamujícími orgány v otázkách týkajících se dozoru nad trhem a oznámených subjektů. Stálá podskupina pro dozor nad trhem by měla působit jako skupina pro správní spolupráci (ADCO) pro toto nařízení ve smyslu článku 30 nařízení (EU) 2019/1020. V souladu s článkem 33 uvedeného nařízení by Komise měla podporovat činnosti stálé podskupiny pro dozor nad trhem tím, že bude provádět hodnocení trhu nebo studie, zejména s cílem určit aspekty tohoto nařízení, které vyžadují zvláštní a naléhavou koordinaci mezi orgány dozoru nad trhem. Rada může podle potřeby zřizovat další stálé nebo dočasné podskupiny pro účely zkoumání konkrétních otázek. Rada by měla rovněž případně spolupracovat s příslušnými subjekty Unie, skupinami odborníků a sítěmi působícími v oblasti příslušného práva Unie, zejména s těmi, které působí v oblasti příslušného práva Unie upravujícího data, digitální produkty a služby.
(150)
Med henblik på at sikre inddragelse af interessenter i gennemførelsen og anvendelsen af denne forordning bør der oprettes et rådgivende forum, som skal rådgive og yde teknisk ekspertise til AI-udvalget og Kommissionen. For at sikre en varieret og afbalanceret repræsentation af interessenter med kommercielle og ikkekommercielle interesser og inden for kategorien af kommercielle interesser for så vidt angår SMV'er og andre virksomheder bør det rådgivende forum bl.a. bestå af industrien, iværksættervirksomheder, SMV'er, den akademiske verden, civilsamfundet, herunder arbejdsmarkedets parter, samt Agenturet for Grundlæggende Rettigheder, ENISA, Den Europæiske Standardiseringsorganisation (CEN), Den Europæiske Komité for Elektroteknisk Standardisering (Cenelec) og Det Europæiske Standardiseringsinstitut for Telekommunikation (ETSI).
(150)
S cílem zajistit zapojení zúčastněných stran do provádění a uplatňování tohoto nařízení by mělo být zřízeno poradní fórum, které by poskytovalo poradenství a technické odborné znalosti radě a Komisi. Aby bylo zajištěno různorodé a vyvážené zastoupení zúčastněných stran mezi komerčními a nekomerčními zájmy, jakož i mezi středními a malými podniky a dalšími podniky v rámci kategorie komerčních zájmů, mělo by poradní fórum zahrnovat mimo jiné průmysl, začínající podniky, malé a střední podniky, akademickou obec, občanskou společnost, včetně sociálních partnerů, jakož i Agenturu pro základní práva, agenturu ENISA, Evropský výbor pro normalizaci (CEN), Evropský výbor pro normalizaci v elektrotechnice (CENELEC) a Evropský ústav pro telekomunikační normy (ETSI).
(151)
For at støtte gennemførelsen og håndhævelsen af denne forordning, navnlig AI-kontorets overvågningsaktiviteter med hensyn til AI-modeller til almen brug, bør der oprettes et videnskabeligt panel af uafhængige eksperter. De uafhængige eksperter, der udgør det videnskabelige panel, bør udvælges på grundlag af ajourført videnskabelig eller teknisk ekspertise inden for AI og varetage deres opgaver upartisk og objektivt og sikre fortroligheden af oplysninger og data, der indhentes under udførelsen af deres opgaver og aktiviteter. For at gøre det muligt at styrke de nationale kapaciteter, der er nødvendige for en effektiv håndhævelse af denne forordning, bør medlemsstaterne kunne anmode om støtte til deres håndhævelsesaktiviteter fra den pulje af eksperter, der udgør det videnskabelige panel.
(151)
Na podporu provádění a prosazování tohoto nařízení, zejména monitorovacích činností úřadu pro AI, pokud jde o obecné modely AI, by měla být zřízena vědecká komise složená z nezávislých odborníků. Nezávislí odborníci tvořící vědeckou komisi by měli být vybíráni na základě aktuálních vědeckých nebo technických odborných znalostí v oblasti AI a měli by plnit své úkoly nestranně, objektivně a zajišťovat důvěrnost informací a údajů získaných při plnění svých úkolů a činností. Aby bylo možné posílit vnitrostátní kapacity nezbytné pro účinné prosazování tohoto nařízení, měly by mít členské státy možnost požádat o podporu skupinu odborníků tvořících vědeckou komisi pro své činnosti v oblasti prosazování práva.
(152)
For at støtte passende håndhævelse af AI-systemer og styrke medlemsstaternes kapaciteter bør der oprettes EU-støttestrukturer for afprøvning af AI, som stilles til rådighed for medlemsstaterne.
(152)
S cílem podpořit odpovídající prosazování, pokud jde o systémy AI, a posílit kapacity členských států by měly být zřízeny podpůrné struktury Unie pro testování AI, které by měly být členským státům zpřístupněny.
(153)
Medlemsstaterne spiller en central rolle i anvendelsen og håndhævelsen af denne forordning. I den forbindelse bør hver medlemsstat udpege mindst én bemyndigende myndighed og mindst én markedsovervågningsmyndighed som nationale kompetente myndigheder til at føre tilsyn med anvendelsen og gennemførelsen af denne forordning. Medlemsstaterne kan beslutte at udpege enhver type offentlig enhed til at udføre de nationale kompetente myndigheders opgaver som omhandlet i denne forordning i overensstemmelse med deres specifikke nationale organisatoriske karakteristika og behov. For at øge organisationseffektiviteten for medlemsstaternes vedkommende og oprette et centralt kontaktpunkt for offentligheden og andre modparter på nationalt plan og EU-plan bør hver medlemsstat udpege en markedsovervågningsmyndighed, der skal fungere som centralt kontaktpunkt.
(153)
Při uplatňování a prosazování tohoto nařízení hrají klíčovou roli členské státy. V tomto ohledu by měl každý členský stát určit alespoň jeden oznamující orgán a alespoň jeden orgán dozoru nad trhem jako příslušné vnitrostátní orgány pro účely dohledu nad uplatňováním a prováděním tohoto nařízení. Členské státy mohou rozhodnout, že určí jakýkoli druh veřejného subjektu, který bude plnit úkoly příslušných vnitrostátních orgánů ve smyslu tohoto nařízení, v souladu s jejich specifickými vnitrostátními organizačními charakteristikami a potřebami. V zájmu zvýšení efektivity organizace na straně členských států a stanovení jednotného kontaktního místa pro veřejnost a další protistrany na úrovni členských států a Unie by měl každý členský stát určit orgán dozoru nad trhem, který bude působit jako jednotné kontaktní místo.
(154)
De nationale kompetente myndigheder bør udøve deres beføjelser uafhængigt, upartisk og uden bias for derved at beskytte principperne om objektivitet i deres aktiviteter og opgaver og for at sikre anvendelsen og gennemførelsen af denne forordning. Medlemmerne af disse myndigheder bør afholde sig fra ethvert tiltag, der er uforenelig med deres beføjelser, og være underlagt fortrolighedsreglerne i denne forordning.
(154)
Příslušné vnitrostátní orgány by měly vykonávat své pravomoci nezávisle, nestranně a nezaujatě, aby chránily zásady objektivity svých činností a úkolů a zajistily uplatňování a provádění tohoto nařízení. Členové těchto orgánů by se měli zdržet jakéhokoli jednání neslučitelného s jejich povinnostmi a měli by podléhat pravidlům důvěrnosti podle tohoto nařízení.
(155)
For at sikre at udbydere af højrisiko-AI-systemer tager erfaringerne med anvendelse af højrisiko-AI-systemer i betragtning, når de vil forbedre deres systemer og udformnings- og udviklingsprocessen, eller kan foretage eventuelle korrigerende tiltag rettidigt, bør alle udbydere have indført et system til overvågning efter omsætningen. Hvis det er relevant, bør overvågning efter omsætningen omfatte en analyse af interaktionen med andre AI-systemer, herunder andet udstyr og software. Overvågning efter omsætningen bør ikke omfatte følsomme operationelle data fra idriftsættere, som er retshåndhævende myndigheder. Dette system er også afgørende for at sikre, at eventuelle risici som følge af AI-systemer, der fortsætter med at »lære« efter at være bragt i omsætning eller ibrugtaget, kan imødegås mere effektivt og rettidigt. I den forbindelse bør udbyderne også forpligtes til at have indført et system til at indberette alvorlige hændelser til de relevante myndigheder, som skyldes anvendelsen af deres AI-systemer, dvs. en hændelse eller funktionsfejl, der fører til dødsfald eller alvorlig sundhedsskade, alvorlig og uoprettelig forstyrrelse i forvaltningen og driften af kritisk infrastruktur, overtrædelser af forpligtelser i henhold til den del af EU-retten, der har til formål at beskytte de grundlæggende rettigheder, eller alvorlig skade på ejendom eller miljøet.
(155)
Všichni poskytovatelé vysoce rizikových systémů AI by měli mít zaveden systém monitorování po uvedení na trh s cílem zajistit, že budou schopni zohlednit zkušenosti s používáním vysoce rizikových systémů AI při zlepšování svých systémů a procesu návrhu a vývoje, případně že budou schopni včas přijmout veškerá případná nápravná opatření. Monitorování po uvedení na trh by mělo případně zahrnovat analýzu interakce s jinými systémy AI, včetně jiných zařízení a softwaru. Monitorování po uvedení na trh by se nemělo vztahovat na citlivé provozní údaje subjektů zavádějících systémy AI, které jsou donucovacími orgány. Tento systém je rovněž klíčovým předpokladem zajištění účinnějšího a včasnějšího řešení potenciálních rizik vyplývajících ze systémů AI, které se po uvedení na trh nebo do provozu dále „učí“. Poskytovatelé by měli mít v této souvislosti rovněž povinnost zavést systém oznamování veškerých závažných incidentů, k nimž dojde v důsledku používání jejich systémů AI, příslušným orgánům, čímž se rozumí incident nebo porucha vedoucí k úmrtí nebo vážnému poškození zdraví, vážnému a nevratnému narušení řízení a provozu kritické infrastruktury, porušení povinností podle práva Unie, jejichž cílem je ochrana základních práv, nebo vážné škody na majetku nebo životním prostředí.
(156)
For at sikre en hensigtsmæssig og effektiv håndhævelse af de krav og forpligtelser, der er fastsat i denne forordning, som repræsenterer Unionens harmoniseringslovgivning, bør det system til markedsovervågning og produktoverensstemmelse, der er indført ved forordning (EU) 2019/1020, finde anvendelse i sin helhed. Markedsovervågningsmyndigheder, der er udpeget i henhold til nærværende forordning, bør alle have håndhævelsesbeføjelser som fastsat i nærværende forordning og i forordning (EU) 2019/1020 og bør udøve deres beføjelser og udføre deres opgaver uafhængigt, upartisk og uden bias. Selv om de fleste AI-systemer ikke er underlagt specifikke krav og forpligtelser i henhold til nærværende forordning, kan markedsovervågningsmyndighederne træffe foranstaltninger vedrørende alle AI-systemer, når de udgør en risiko i overensstemmelse med nærværende forordning. På grund af den særlige karakter af EU-institutioner, -agenturer og -organer, der er omfattet af nærværende forordnings anvendelsesområde, er det hensigtsmæssigt at udpege Den Europæiske Tilsynsførende for Databeskyttelse som kompetent markedsovervågningsmyndighed for dem. Dette bør ikke berøre medlemsstaternes udpegelse af nationale kompetente myndigheder. Markedsovervågningsaktiviteter bør ikke påvirke de tilsynsbelagte enheders evne til at udføre deres opgaver uafhængigt, når en sådan uafhængighed er påbudt i henhold til EU-retten.
(156)
V zájmu zajištění náležitého a účinného vymáhání požadavků a povinností stanovených tímto nařízením, které představuje harmonizační právní předpis Unie, by se měl v plném rozsahu uplatňovat systém dozoru nad trhem a souladu výrobků s předpisy stanovený nařízením (EU) 2019/1020. Orgány dozoru nad trhem určené podle tohoto nařízení by měly mít veškeré donucovací pravomoci stanovené v tomto nařízení a v nařízení (EU) 2019/1020 a měly by vykonávat své pravomoci a plnit své povinnosti nezávisle, nestranně a nezaujatě. Ačkoli většina systémů AI nepodléhá zvláštním požadavkům a povinnostem podle tohoto nařízení, mohou orgány dozoru nad trhem přijmout opatření ve vztahu ke všem systémům AI, pokud představují riziko v souladu s tímto nařízením. Vzhledem ke zvláštní povaze orgánů, institucí a jiných subjektů Unie spadajících do oblasti působnosti tohoto nařízení je vhodné pro ně jmenovat jako příslušný orgán dozoru nad trhem evropského inspektora ochrany údajů. Tím by nemělo být dotčeno určení příslušných vnitrostátních orgánů členskými státy. Činnostmi v oblasti dozoru nad trhem by neměla být dotčena schopnost subjektů, nad nimiž je dozor vykonáván, plnit své úkoly nezávisle, pokud tuto nezávislost vyžaduje právo Unie.
(157)
Denne forordning berører ikke kompetencerne, opgaverne, beføjelserne og uafhængigheden hos relevante nationale offentlige myndigheder eller organer, der fører tilsyn med anvendelsen af EU-retten om beskyttelse af grundlæggende rettigheder, herunder ligestillingsorganer og databeskyttelsesmyndigheder. Hvis det er nødvendigt for deres mandat, bør disse nationale offentlige myndigheder eller organer også have adgang til al den dokumentation, der er udarbejdet i henhold til denne forordning. Der bør fastsættes en særlig beskyttelsesprocedure for at sikre passende og rettidig håndhævelse over for AI-systemer, som udgør en risiko for sundhed, sikkerhed og grundlæggende rettigheder. Proceduren for sådanne AI-systemer, som udgør en risiko, bør anvendes på højrisiko-AI-systemer, der udgør en risiko, forbudte systemer, der er bragt i omsætning, ibrugtaget eller anvendt i strid med de forbudte former for praksis, der er fastsat i denne forordning, og AI-systemer, der er gjort tilgængelige i strid med de gennemsigtighedskrav, der er fastsat i denne forordning, og som udgør en risiko.
(157)
Tímto nařízením nejsou dotčeny kompetence, úkoly, pravomoci a nezávislost příslušných vnitrostátních veřejných orgánů nebo subjektů veřejného sektoru, které dohlížejí na uplatňování práva Unie na ochranu základních práv, včetně orgánů pro rovné zacházení a úřadů pro ochranu osobních údajů. Pokud je to nutné pro výkon jejich pověření, tyto vnitrostátní veřejné orgány nebo subjekty veřejného sektoru by rovněž měly mít přístup k veškeré dokumentaci vytvořené podle tohoto nařízení. Měl by být stanoven zvláštní ochranný postup pro zajištění přiměřeného a včasného prosazování předpisů proti systémům AI, které představují riziko pro zdraví, bezpečnost a základní práva. Postup pro tyto systémy AI představující riziko by se měl vztahovat na vysoce rizikové systémy AI představující riziko, zakázané systémy, které byly uvedeny na trh nebo do provozu nebo používány v rozporu se zakázanými praktikami stanovenými v tomto nařízení, a na systémy AI, které byly dodány na trh v rozporu s požadavky na transparentnost stanovenými v tomto nařízení a představují riziko.
(158)
EU-retten om finansielle tjenesteydelser omfatter regler og krav vedrørende intern ledelse og risikostyring, som finder anvendelse på regulerede finansielle institutioner i forbindelse med leveringen af sådanne tjenester, også når de gør brug af AI-systemer. For at sikre en sammenhængende anvendelse og håndhævelse af forpligtelserne i henhold til denne forordning og de relevante regler og krav i EU-retsakter om finansielle tjenesteydelser bør de kompetente myndigheder for tilsyn med og håndhævelse af disse retsakter, navnlig kompetente myndigheder som defineret i Europa-Parlamentets og Rådets forordning (EU) nr. 575/2013 (46) og Europa-Parlamentets og Rådets direktiv 2008/48/EF (47), 2009/138/EF (48), 2013/36/EU (49), 2014/17/EU (50) og (EU) 2016/97 (51), udpeges som kompetente myndigheder inden for deres respektive kompetenceområder med henblik på at føre tilsyn med gennemførelsen af nærværende forordning, herunder også markedsovervågningsaktiviteter, for så vidt angår AI-systemer, der leveres eller anvendes af finansielle institutioner, som er regulerede, og som der føres tilsyn med, medmindre medlemsstaterne beslutter at udpege en anden myndighed til at udføre disse markedsovervågningsopgaver. Disse kompetente myndigheder bør have alle beføjelser i henhold til denne forordning og forordning (EU) 2019/1020 til at håndhæve nærværende forordnings krav og forpligtelser, herunder beføjelser til at udføre ex post-markedsovervågningsaktiviteter, der, alt efter hvad der er relevant, kan integreres i deres eksisterende tilsynsmekanismer og -procedurer i henhold til den relevante EU-ret om finansielle tjenesteydelser. Det bør fastsættes, at de nationale myndigheder, der er ansvarlige for tilsynet med kreditinstitutter, som er reguleret ved direktiv 2013/36/EU, og som deltager i den fælles tilsynsmekanisme, der er oprettet ved Rådets forordning (EU) nr. 1024/2013 (52), når de fungerer som markedsovervågningsmyndigheder i henhold til nærværende forordning, straks bør indberette alle oplysninger, som identificeres i forbindelse med deres markedsovervågningsaktiviteter, og som kan være af potentiel interesse for Den Europæiske Centralbanks tilsynsopgaver som fastsat i nævnte forordning, til Den Europæiske Centralbank. For yderligere at styrke sammenhængen mellem nærværende forordning og de regler, der gælder for kreditinstitutter, der er reguleret ved direktiv 2013/36/EU, bør nogle af udbydernes proceduremæssige forpligtelser i forbindelse med risikostyring, overvågning efter omsætningen og dokumentation indarbejdes i de eksisterende forpligtelser og procedurer i henhold i direktiv 2013/36/EU. For at undgå overlapninger bør der også overvejes begrænsede undtagelser for så vidt angår udbydernes kvalitetsstyringssystem og den overvågningsforpligtelse, der pålægges idriftsættere af højrisiko-AI-systemer, i det omfang disse gælder for kreditinstitutter, der er reguleret ved direktiv 2013/36/EU. Den samme ordning bør gælde for forsikrings- og genforsikringsselskaber og forsikringsholdingselskaber i henhold til direktiv 2009/138/EF og forsikringsformidlere i henhold til direktiv (EU) 2016/97 og andre typer finansielle institutioner, der er underlagt krav vedrørende intern ledelse, ordninger eller processer, der er fastsat i henhold til den relevante EU-ret om finansielle tjenesteydelser, for at sikre konsekvens og ligebehandling i den finansielle sektor.
(158)
Právo Unie týkající se finančních služeb zahrnují pravidla a požadavky vnitřní správy a řízení rizik, které se vztahují na regulované finanční instituce v průběhu poskytování těchto služeb, včetně případů, kdy využívají systémy AI. V zájmu zajištění jednotného uplatňování a vymáhání povinností vyplývajících z tohoto nařízení a příslušných pravidel a požadavků právních předpisů Unie o finančních službách by měly být v rámci svých příslušných pravomocí jako příslušné orgány pro účely dohledu nad prováděním tohoto nařízení, včetně činností dozoru nad trhem ve vztahu k systémům AI poskytovaným nebo používaným finančními institucemi, které jsou předmětem regulace nebo dozoru, určeny příslušné orgány pro účely dohledu nad právními předpisy o finančních službách a jejich vymáhání, zejména příslušné orgány definované v nařízení Evropského parlamentu a Rady (EU) č. 575/2013 (46) a ve směrnicích Evropského parlamentu a Rady 2008/48/ES (47), 2009/138/ES (48), 2013/36/EU (49), 2014/17/EU (50) a (EU) 2016/97 (51), ledaže se členské státy rozhodnou ke splnění těchto úkolů dozoru nad trhem určit orgán jiný. Tyto příslušné orgány by měly mít veškeré pravomoci podle tohoto nařízení a nařízení (EU) 2019/1020, aby mohly prosazovat požadavky a povinnosti podle tohoto nařízení, včetně pravomoci provádět následné činnosti dozoru nad trhem, které mohou být případně začleněny do jejich stávajících mechanismů a postupů dohledu podle příslušného práva Unie v oblasti finančních služeb. Je vhodné stanovit, že při jednání jakožto orgány dozoru nad trhem podle tohoto nařízení by vnitrostátní orgány odpovědné za dohled nad úvěrovými institucemi, na něž se vztahuje směrnice 2013/36/EU a které se účastní jednotného mechanismu dohledu zřízeného nařízením Rady (EU) č. 1024/2013 (52), měly neprodleně podat Evropské centrální bance zprávu o veškerých informacích zjištěných v průběhu své činností v oblasti dozoru nad trhem, které by mohly mít potenciální význam pro úkoly Evropské centrální banky v oblasti obezřetnostního dohledu podle uvedeného nařízení. V zájmu dalšího posílení souladu mezi tímto nařízením a pravidly platnými pro úvěrové instituce podléhající směrnici 2013/36/EU je rovněž vhodné začlenit některé procesní povinnosti poskytovatelů v souvislosti s řízením rizik, monitorováním po uvedení na trh a dokumentací do stávajících povinností a postupů podle směrnice 2013/36/EU. Aby nedocházelo k překrývání, je třeba počítat rovněž s omezenými výjimkami ve vztahu k systému řízení kvality poskytovatelů a k povinnosti monitorování uložené zavádějícím subjektům vysoce rizikových systémů AI v rozsahu, v jakém se vztahují na úvěrové instituce podléhající směrnici 2013/36/EU. Stejný režim by se měl vztahovat na pojišťovny, zajišťovny a pojišťovací holdingové společnosti podle směrnice 2009/138/ES a na zprostředkovatele pojištění podle směrnice (EU) 2016/97 a na další typy finančních institucí, na něž se vztahují požadavky týkající se vnitřní správy, opatření nebo postupů zavedených podle příslušného práva Unie v oblasti finančních služeb, aby byla zajištěna soudržnost a rovné zacházení ve finančním sektoru.
(159)
Hver markedsovervågningsmyndighed for højrisiko-AI-systemer inden for biometri som opført i et bilag til denne forordning, for så vidt disse systemer anvendes med henblik på retshåndhævelse og migrationsstyring, asylforvaltning og grænsekontrol eller retspleje og demokratiske processer, bør have undersøgelsesbeføjelser og korrigerende beføjelser, herunder som minimum beføjelse til at få adgang til alle personoplysninger, der behandles, og til alle de oplysninger, der er nødvendige for at varetage sine opgaver. Markedsovervågningsmyndighederne bør kunne udøve deres beføjelser i fuld uafhængighed. Enhver begrænsning i deres adgang til følsomme operationelle data i henhold til denne forordning bør ikke berøre de beføjelser, som de har fået tillagt ved direktiv (EU) 2016/680. Ingen undtagelse om videregivelse af data til de nationale databeskyttelsesmyndigheder i henhold til denne forordning bør påvirke disse myndigheders nuværende eller fremtidige beføjelser uden for denne forordnings anvendelsesområde.
(159)
Každý orgán dozoru nad trhem pro vysoce rizikové systémy AI v oblasti biometriky, který je uveden v příloze tohoto nařízení, pokud jsou tyto systémy používány pro účely vymáhání práva, řízení migrace, azylu a kontroly hranic nebo pro účely výkonu spravedlnosti a demokratických procesů, by měl mít účinné vyšetřovací a nápravné pravomoci, včetně přinejmenším pravomoci získat přístup ke všem zpracovávaným osobním údajům a ke všem informacím nezbytným pro plnění svých úkolů. Orgány dozoru nad trhem by měly mít možnost vykonávat své pravomoci zcela nezávisle. Jakýmkoli omezením jejich přístupu k citlivým provozním údajům podle tohoto nařízení by neměly být dotčeny pravomoci, které jim byly svěřeny směrnicí (EU) 2016/680. Žádnou výjimkou z poskytování údajů vnitrostátním úřadům pro ochranu osobních údajů podle tohoto nařízení by neměly být dotčeny stávající ani budoucí pravomoci těchto orgánů nad rámec tohoto nařízení.
(160)
Markedsovervågningsmyndighederne og Kommissionen bør kunne foreslå fælles aktiviteter, herunder fælles undersøgelser, som skal gennemføres af markedsovervågningsmyndigheder eller af markedsovervågningsmyndigheder sammen med Kommissionen, og som har til formål at fremme overholdelse, identificere manglende overholdelse, øge bevidstheden og yde vejledning for så vidt angår denne forordning med hensyn til specifikke kategorier af højrisiko-AI-systemer, der anses for at udgøre en alvorlig risiko i to eller flere medlemsstater. Der bør gennemføres fælles aktiviteter til fremme af overholdelse i overensstemmelse med artikel 9 i forordning (EU) 2019/1020. AI-kontoret bør sørge for koordinerende støtte til de fælles undersøgelser.
(160)
Orgány dozoru nad trhem a Komise by měly mít možnost navrhovat společné činnosti, včetně společných šetření, prováděné orgány dozoru nad trhem nebo orgány dozoru nad trhem společně s Komisí, jejichž cílem je podporovat dodržování předpisů, zjišťovat nesoulad, zvyšovat povědomí a poskytovat pokyny v souvislosti s tímto nařízením, pokud jde o konkrétní kategorie vysoce rizikových systémů AI, u nichž se zjistí, že představují vážné riziko ve dvou nebo více členských státech. Společné činnosti na podporu dodržování předpisů by měly být prováděny v souladu s článkem 9 nařízení (EU) 2019/1020. Úřad pro AI by měl pro společná šetření poskytovat koordinační podporu.
(161)
Det er nødvendigt at præcisere ansvarsområder og kompetenceområder på EU-plan og nationalt plan for så vidt angår AI-systemer, der bygger på AI-modeller til almen brug. For at undgå, at kompetenceområderne overlapper med hinanden, hvis et AI-system bygger på en AI-model til almen brug, og modellen og systemet leveres af den samme udbyder, bør tilsynet finde sted på EU-plan gennem AI-kontoret, som i den forbindelse bør have markedsovervågningsmyndighedens beføjelser som omhandlet i forordning (EU) 2019/1020. I alle andre tilfælde er de nationale markedsovervågningsmyndigheder fortsat ansvarlige for tilsynet med AI-systemer. Hvad angår AI-systemer til almen brug, som kan anvendes direkte af idriftsættere til mindst ét formål, der er klassificeret som højrisiko, bør markedsovervågningsmyndighederne dog samarbejde med AI-Kontoret om at foretage evalueringer af overholdelsen og underrette AI-udvalget og andre markedsovervågningsmyndigheder i overensstemmelse hermed. Markedsovervågningsmyndighederne bør desuden kunne anmode AI-kontoret om bistand, hvis markedsovervågningsmyndigheden ikke er i stand til at afslutte en undersøgelse af et højrisiko-AI-system som følge af manglende adgang til visse oplysninger vedrørende AI-modeller til almen brug, som højrisiko-AI-systemet er bygget på. I sådanne tilfælde bør proceduren for gensidig bistand i grænseoverskridende sager i kapitel VI i forordning (EU) 2019/1020 finde tilsvarende anvendelse.
(161)
Je nezbytné vyjasnit povinnosti a pravomoci na úrovni Unie a na vnitrostátní úrovni, pokud jde o systémy AI, které jsou založeny na obecných modelech AI. Aby se zabránilo překrývání pravomocí, pokud je systém AI založen na obecném modelu AI a daný model a systém poskytuje tentýž poskytovatel, měl by dohled probíhat na úrovni Unie prostřednictvím úřadu pro AI, který by za tímto účelem měl mít pravomoci orgánu dozoru nad trhem ve smyslu nařízení (EU) 2019/1020. Ve všech ostatních případech zůstávají za dohled nad systémy AI odpovědné vnitrostátní orgány dozoru nad trhem. V případě obecných systémů AI, které mohou zavádějící subjekty přímo používat alespoň k jednomu účelu, který je klasifikován jako vysoce rizikový, by však orgány dozoru nad trhem měly spolupracovat s úřadem pro AI na provádění hodnocení souladu a odpovídajícím způsobem informovat radu a další orgány dozoru nad trhem. Kromě toho by orgány dozoru nad trhem měly mít možnost požádat úřad pro AI o pomoc v případech, kdy určitý orgán dozoru nad trhem není schopen dokončit šetření týkající se konkrétního vysoce rizikového systému AI, protože nemá možnost získat přístup k určitým informacím týkajícím se obecného modelu AI, na němž je daný vysoce rizikový systém AI postaven. V takových případech by se měl obdobně použít postup týkající se vzájemné pomoci v přeshraničních případech podle kapitoly VI nařízení (EU) 2019/1020.
(162)
For at udnytte den centraliserede EU-ekspertise og synergier bedst muligt på EU-plan bør Kommissionen tillægges beføjelser til at føre tilsyn med og håndhæve forpligtelserne for udbydere af AI-modeller til almen brug. AI-kontoret bør kunne foretage alle nødvendige tiltag for at overvåge, om denne forordning gennemføres effektivt for så vidt angår AI-modeller til almen brug. Det bør både på eget initiativ på baggrund af resultaterne af sine overvågningsaktiviteter eller efter anmodning fra markedsovervågningsmyndigheder i overensstemmelse med de betingelser, der er fastsat i denne forordning, kunne undersøge mulige overtrædelser af reglerne for udbydere af AI-modeller til almen brug. For at understøtte AI-kontoret med at foretage en effektiv overvågning bør det give downstreamudbydere mulighed for at indgive klager over mulige overtrædelser af reglerne om udbydere af AI-modeller og -systemer til almen brug.
(162)
V zájmu co nejlepšího využití centralizovaných odborných znalostí a synergií Unie na úrovni Unie by pravomoci dohledu nad povinnostmi poskytovatelů obecných modelů AI a jejich vymáhání měly být v pravomoci Komise. Úřad pro AI by měl mít možnost provádět veškerá nezbytná opatření ke sledování účinného provádění tohoto nařízení, pokud jde o obecné modely AI. Měl by mít možnost vyšetřovat případná porušení pravidel pro poskytovatele obecných modelů AI, a to jak z vlastního podnětu, tak na základě výsledků svých monitorovacích činností nebo na žádost orgánů dozoru nad trhem v souladu s podmínkami stanovenými v tomto nařízení. V zájmu podpory účinného sledování ze strany úřadu pro AI by měl tento úřad stanovit možnost, aby navazující poskytovatelé podávali stížnosti na možná porušení pravidel týkajících se poskytovatelů obecných modelů a systémů AI.
(163)
Med henblik på at supplere forvaltningssystemerne for AI-modeller til almen brug bør det videnskabelige panel støtte AI-kontorets overvågningsaktiviteter og kan i visse tilfælde sende kvalificerede varslinger til AI-kontoret, hvilket udløser opfølgende foranstaltninger såsom undersøgelser. Dette bør være tilfældet, hvis det videnskabelige panel har begrundet mistanke om, at en AI-model til almen brug udgør en konkret og identificerbar risiko på EU-plan. Dette bør desuden være tilfældet, hvis det videnskabelige panel har begrundet mistanke om, at en AI-model til almen brug opfylder de kriterier, der medfører en klassificering som en AI-model til almen brug med systemisk risiko. For at give det videnskabelige panel de oplysninger, der er nødvendige for at varetage disse opgaver, bør der findes en mekanisme, hvorved det videnskabelige panel kan anmode Kommissionen om at kræve dokumentation eller oplysninger fra en udbyder.
(163)
S cílem doplnit systémy správy pro obecné modely AI by vědecká komise měla podporovat monitorovací činnosti úřadu pro AI a v některých případech může úřadu pro AI poskytovat kvalifikované výstrahy, které povedou k následným opatřením, jako jsou šetření. Tak by tomu mělo být v případě, kdy má vědecká komise důvod se domnívat, že obecný model AI představuje konkrétní a identifikovatelné riziko na úrovni Unie. Dále by tomu tak mělo být v případě, kdy má vědecká komise důvod se domnívat, že obecný model AI splňuje kritéria, která by vedla ke klasifikaci modelu AI jako obecného modelu AI se systémovým rizikem. Aby vědecká komise měla k dispozici informace nezbytné pro plnění těchto úkolů, měl by existovat mechanismus, na jehož základě může vědecká komise požádat Komisi, aby si vyžádala dokumentaci nebo informace od poskytovatele.
(164)
AI-kontoret bør kunne foretage de nødvendige tiltag til at overvåge, at de forpligtelser for udbydere af AI-modeller til almen brug, der er fastsat i denne forordning, gennemføres og overholdes effektivt. AI-kontoret bør kunne undersøge mulige overtrædelser i overensstemmelse med de beføjelser, der er fastsat i denne forordning, herunder ved at anmode om dokumentation og oplysninger, foretage evalueringer samt ved at anmode udbydere af AI-modeller til almen brug om at træffe foranstaltninger. For at gøre brug af uafhængig ekspertise bør AI-kontoret ved gennemførelse af evalueringer kunne inddrage uafhængige eksperter, som foretager evalueringer på dets vegne. Overholdelse af forpligtelserne bør bl.a. kunne håndhæves gennem anmodninger om at træffe passende foranstaltninger, herunder risikobegrænsende foranstaltninger i tilfælde af konstaterede systemiske risici samt tilgængeliggørelse på markedet, tilbagetrækning eller tilbagekaldelse af modellen. Såfremt der skulle opstå behov ud over de procedurerettigheder, der er fastsat i denne forordning, bør udbydere af AI-modeller til almen brug som en sikkerhedsforanstaltning råde over de procedurerettigheder, der er fastsat i artikel 18 i forordning (EU) 2019/1020, som bør finde tilsvarende anvendelse, uden at dette berører de mere specifikke procedurerettigheder fastsat i nærværende forordning.
(164)
Úřad pro AI by měl mít možnost přijímat nezbytná opatření ke sledování účinného provádění a dodržování povinností poskytovatelů obecných modelů AI stanovených v tomto nařízení. Úřad pro AI by měl mít možnost vyšetřovat případná porušení v souladu s pravomocemi stanovenými v tomto nařízení, mimo jiné si vyžádat dokumentaci a informace, provádět hodnocení a vyžádat si opatření od poskytovatelů obecných modelů AI. Při provádění hodnocení a za účelem využití nezávislých odborných znalostí by měl mít úřad pro AI možnost zapojit nezávislé odborníky, aby prováděli hodnocení jeho jménem. Dodržování povinností by mělo být vymahatelné mimo jiné prostřednictvím žádostí o přijetí vhodných opatření, včetně opatření ke zmírnění rizik v případě zjištěných systémových rizik, jakož i prostřednictvím omezení dodávání daného modelu na trh nebo jeho stažení z trhu či z oběhu. Měla by existovat záruka spočívající v tom, že by poskytovatelé obecných modelů AI disponovali, v případě potřeby nad rámec procesních práv stanovených v tomto nařízení, procesními právy stanovenými v článku 18 nařízení (EU) 2019/1020, která by se měla použít obdobně, aniž jsou dotčena konkrétnější procesní práva stanovená tímto nařízením.
(165)
Udviklingen af andre AI-systemer end højrisiko-AI-systemer i overensstemmelse med kravene i denne forordning kan føre til en større udbredelse af etisk og troværdig AI i Unionen. Udbydere af AI-systemer, der ikke er højrisiko, bør tilskyndes til at udarbejde adfærdskodekser, herunder tilhørende forvaltningsmekanismer, med det formål at fremme frivillig anvendelse af visse af eller alle de obligatoriske krav, der gælder for højrisiko-AI-systemer, og som er tilpasset i lyset af det tilsigtede formål med systemerne og den lavere risiko, og under hensyntagen til de tilgængelige tekniske løsninger og industriens bedste praksis såsom model og datakort. Udbydere og, alt efter hvad der er relevant, idriftsættere af alle AI-systemer, højrisiko eller ej, og AI-modeller bør også tilskyndes til på frivillig basis at anvende yderligere krav vedrørende f.eks. elementerne i Unionens etiske retningslinjer for troværdig AI, miljømæssig bæredygtighed, foranstaltninger vedrørende AI-færdigheder, inklusiv og mangfoldig udformning og udvikling af AI-systemer, herunder med fokus på sårbare personer og tilgængelighed for personer med handicap, deltagelse af interessenter med inddragelse i relevant omfang af relevante interessenter såsom erhvervslivet og civilsamfundsorganisationer, den akademiske verden, forskningsorganisationer, fagforeninger og forbrugerbeskyttelsesorganisationer i udformning og udvikling af AI-systemer og mangfoldighed i udviklingsteamene, herunder kønsbalance. For at sikre at de frivillige adfærdskodekser er effektive, bør de baseres på klare mål og centrale resultatindikatorer til måling af realiseringen af disse mål. De bør også udvikles på en inklusiv måde og i relevant omfang med inddragelse af relevante interessenter såsom erhvervslivet og civilsamfundsorganisationer, den akademiske verden, forskningsorganisationer, fagforeninger og forbrugerbeskyttelsesorganisationer. Kommissionen kan udvikle initiativer, bl.a. på sektorniveau, for at lette mindskelsen af tekniske hindringer for grænseoverskridende udveksling af data til AI-udvikling, herunder med hensyn til dataadgangsinfrastruktur og semantisk og teknisk interoperabilitet af forskellige typer data.
(165)
Vývoj systémů AI s výjimkou vysoce rizikových systémů AI v souladu s požadavky tohoto nařízení může vést k rozsáhlejšímu zavádění etické a důvěryhodné AI v Unii. Poskytovatelé systémů AI, které nejsou vysoce rizikové, by měli být vybízeni k vytváření kodexů chování, včetně souvisejících mechanismů správy, určených k podpoře dobrovolného uplatňování některých nebo veškerých povinných požadavků platných pro vysoce rizikové systémy AI, přizpůsobených zamýšlenému účelu systémů a nižšímu souvisejícímu riziku a s přihlédnutím k dostupným technickým řešením a osvědčeným postupům v odvětví, jako jsou modely a datové karty. Poskytovatelé a případně subjekty zavádějící veškeré vysoce rizikové či nerizikové systémy AI a modely AI by také měli být povzbuzováni k tomu, aby dobrovolně uplatňovali další požadavky týkající se například prvků etických pokynů Unie pro zajištění důvěryhodnosti AI, udržitelnosti životního prostředí, opatření týkajících se gramotnosti v oblasti AI, inkluzivního a rozmanitého návrhu a vývoje systémů AI, včetně pozornosti věnované zranitelným osobám a přístupnosti pro osoby se zdravotním postižením, účasti zúčastněných stran, případně se zapojením příslušných zúčastněných stran, jako jsou podniky a organizace občanské společnosti, akademická obec, výzkumné organizace, odbory a organizace na ochranu spotřebitelů do návrhu a vývoje systémů AI a rozmanitosti vývojových týmů, včetně genderové vyváženosti. Aby se zajistila účinnost dobrovolných kodexů chování, měly by být založeny na jasných cílech a klíčových ukazatelích výkonnosti pro měření plnění těchto cílů. Měly by být rovněž vypracovány inkluzivním způsobem případně se zapojením příslušných zúčastněných stran, jako jsou podniky a organizace občanské společnosti, akademická obec, výzkumné organizace, odbory a organizace na ochranu spotřebitelů. Komise může vyvíjet iniciativy, včetně iniciativ odvětvové povahy, s cílem usnadnit snižování technických překážek bránících přeshraniční výměně dat pro účely rozvoje AI, a to i ohledně infrastruktury pro přístup k datům a sémantické a technické interoperability různých druhů dat.
(166)
Det er vigtigt, at AI-systemer vedrørende produkter, der ikke er højrisikoprodukter i overensstemmelse med denne forordning og derfor ikke skal overholde kravene for højrisiko-AI-systemer, ikke desto mindre er sikre, når de bringes i omsætning eller ibrugtages. Med henblik på at bidrage til dette mål vil Europa-Parlamentets og Rådets forordning (EU) 2023/988 (53) finde anvendelse som sikkerhedsnet.
(166)
Je důležité, aby systémy AI související s produkty, které podle tohoto nařízení nejsou vysoce rizikové, a proto nemusí splňovat požadavky, které jsou stanoveny pro vysoce rizikové systémy AI, byly při uvedení na trh nebo do provozu přesto bezpečné. Jako záchranná síť pro přispění k tomuto cíli by se uplatnila nařízení Evropského parlamentu a Rady (EU) 2023/988 (53).
(167)
For at sikre et tillidsfuldt og konstruktivt samarbejde mellem de kompetente myndigheder på EU-plan og nationalt plan bør alle de parter, der er involveret i anvendelsen af denne forordning, respektere fortroligheden af oplysninger og data, der er indhentet under udførelsen af deres opgaver i overensstemmelse med EU-retten eller national ret. De bør udføre deres opgaver og aktiviteter på en sådan måde, at de navnlig beskytter intellektuelle ejendomsrettigheder, fortrolige forretningsoplysninger og forretningshemmeligheder, en effektiv gennemførelse af denne forordning, offentlige og nationale sikkerhedsinteresser, strafferetlige og administrative procedurers integritet og klassificerede informationers integritet.
(167)
V zájmu zajištění důvěryhodné a konstruktivní spolupráce příslušných orgánů na úrovni Unie a na vnitrostátní úrovni by měly všechny strany zapojené do uplatňování tohoto nařízení respektovat důvěrnost informací a údajů získaných při plnění svých úkolů, v souladu s unijním a vnitrostátním právem. Své úkoly a činnosti by měly vykonávat tak, aby chránily zejména práva duševního vlastnictví, důvěrné obchodní informace a obchodní tajemství, účinné provádění tohoto nařízení, veřejné a národní bezpečnostní zájmy, integritu trestního a správního řízení a integritu utajovaných informací.
(168)
Overholdelsen af denne forordning bør kunne håndhæves ved pålæg af sanktioner og andre håndhævelsesforanstaltninger. Medlemsstaterne bør træffe alle nødvendige foranstaltninger til at sikre, at bestemmelserne i denne forordning gennemføres, herunder ved at fastsætte sanktioner for overtrædelse heraf, som er effektive, står i et rimeligt forhold til overtrædelsen og har afskrækkende virkning, og at princippet om ne bis in idem respekteres. For at styrke og harmonisere de administrative sanktioner for overtrædelse af denne forordning bør der fastsættes øvre grænser for fastsættelse af administrative bøder for visse specifikke overtrædelser. Ved vurdering af bødernes størrelse bør medlemsstaterne i hvert enkelt tilfælde tage hensyn til alle relevante omstændigheder i den specifikke situation, navnlig under behørig hensyntagen til overtrædelsens art, grovhed og varighed og dens konsekvenser samt til udbyderens størrelse, navnlig hvis udbyderen er en SMV, herunder en iværksættervirksomhed. Den Europæiske Tilsynsførende for Databeskyttelse bør have beføjelse til at pålægge de EU-institutioner, -agenturer og -organer, der er omfattet af denne forordnings anvendelsesområde, bøder.
(168)
Dodržování tohoto nařízení by mělo být vymahatelné ukládáním sankcí a jiných donucovacích opatření. Členské státy by měly přijmout veškerá nezbytná opatření k zajištění toho, aby byla ustanovení tohoto nařízení prováděna, a to i stanovením účinných, přiměřených a odrazujících sankcí za jejich porušení a dodržováním zásady ne bis in idem. Za účelem posílení a harmonizace správních sankcí za porušení tohoto nařízení by měly být stanoveny horní hranice pro stanovení správních pokut za určitá konkrétní porušení. Při posuzování výše pokut by členské státy měly v každém jednotlivém případě zohlednit všechny relevantní okolnosti konkrétní situace, s náležitým ohledem zejména na povahu, závažnost a dobu trvání protiprávního jednání a jeho důsledků a na velikost poskytovatele, zejména pokud je poskytovatelem malý nebo střední podnik nebo začínající podnik. Evropský inspektor ochrany údajů by měl být oprávněn ukládat pokuty orgánům, institucím a subjektům Unie spadajícím do oblasti působnosti tohoto nařízení.
(169)
Overholdelse af de forpligtelser for udbydere af AI-modeller til almen brug, der pålægges i henhold til denne forordning, bør bl.a. kunne håndhæves ved hjælp af bøder. Med henblik herpå bør der også fastsættes passende bødeniveauer for overtrædelse af disse forpligtelser, herunder manglende overholdelse af de foranstaltninger, som Kommissionen har anmodet om i overensstemmelse med denne forordning, som er genstand for passende forældelsesfrister i overensstemmelse med proportionalitetsprincippet. Alle afgørelser, der træffes af Kommissionen i medfør af denne forordning, underkastes fornyet prøvelse ved EU-Domstolen i overensstemmelse med TEUF, herunder EU-Domstolens fulde prøvelsesret vedrørende sanktioner i henhold til artikel 261 i TEUF.
(169)
Dodržování povinností uložených poskytovatelům obecných modelů AI podle tohoto nařízení by mělo být vymahatelné mimo jiné prostřednictvím pokut. Za tímto účelem by měly být rovněž stanoveny přiměřené úrovně pokut za porušení těchto povinností, včetně nedodržení opatření požadovaných Komisí v souladu s tímto nařízením, s výhradou přiměřených promlčecích lhůt v souladu se zásadou proporcionality. Všechna rozhodnutí přijatá Komisí podle tohoto nařízení podléhají v souladu se Smlouvou o fungování EU přezkumu Soudním dvorem Evropské unie, včetně neomezené jurisdikce Soudního dvora Evropské unie ve vztahu k sankcím podle článku 261 Smlouvy o fungování EU.
(170)
EU-retten og national ret indeholder allerede bestemmelser om effektive retsmidler for fysiske og juridiske personer, hvis rettigheder og frihedsrettigheder påvirkes negativt af anvendelsen af AI-systemer. Uden at det berører disse retsmidler, bør enhver fysisk eller juridisk person, der har grund til at mene, at der er sket en overtrædelse af denne forordning, have ret til at indgive en klage til den relevante markedsovervågningsmyndighed.
(170)
Unijní a vnitrostátní právo již poskytují účinné prostředky ochrany fyzickým a právnickým osobám, jejichž práva a svobody jsou používáním systémů AI nepříznivě ovlivněny. Aniž jsou tyto prostředky ochrany dotčeny, měla by být každá fyzická nebo právnická osoba, která má důvod se domnívat, že došlo k porušení tohoto nařízení, oprávněna podat stížnost příslušnému orgánu dozoru nad trhem.
(171)
De berørte personer bør have ret til at få en forklaring, hvis en idriftsætters afgørelse hovedsagelig er baseret på output fra visse højrisiko-AI-systemer, der er omfattet af anvendelsesområdet for denne forordning, og hvis afgørelsen har retsvirkninger eller på tilsvarende måde i væsentlig grad påvirker disse personer på en måde, som de anser for at have negativ indvirkning på deres sundhed, sikkerhed eller grundlæggende rettigheder. Denne forklaring bør være klar og meningsfuld og danne et grundlag, ud fra hvilket de berørte personer kan udøve deres rettigheder. Retten til at få en forklaring bør ikke gælde for anvendelsen af AI-systemer, for hvilke undtagelser eller begrænsninger følger af EU-retten eller national ret, og bør kun gælde, for så vidt denne rettighed ikke allerede er fastsat i EU-retten.
(171)
Dotčené osoby by měly mít právo obdržet vysvětlení, pokud je rozhodnutí zavádějícího subjektu založeno především na výstupech z určitých vysoce rizikových systémů AI, které spadají do oblasti působnosti tohoto nařízení, a pokud toto rozhodnutí má právní účinky nebo se jich podobně významně dotýká způsobem, který podle jejich názoru má nepříznivý dopad na jejich zdraví, bezpečnost nebo základní práva. Toto vysvětlení by mělo být jasné a smysluplné a mělo by poskytnout základ, na němž mohou dotčené osoby vykonávat svá práva. Právo na vysvětlení by se nemělo vztahovat na používání systémů AI, pro něž vyplývají výjimky nebo omezení z unijního nebo vnitrostátního práva, a mělo by se uplatňovat pouze v rozsahu, v jakém toto právo není již stanoveno právem Unie.
(172)
Personer, der fungerer som »whistleblowere« i forbindelse med overtrædelser af denne forordning, bør beskyttes i henhold til EU-retten. Europa-Parlamentets og Rådets direktiv (EU) 2019/1937 (54) bør derfor finde anvendelse på indberetning af overtrædelser af denne forordning og på beskyttelsen af personer, der indberetter sådanne overtrædelser.
(172)
Osoby jednající jako oznamovatelé porušení tohoto nařízení by měly být chráněny právem Unie. Oznamování porušení tohoto nařízení a ochrana osob oznamujících taková porušení by se proto mělo řídit směrnicí Evropského parlamentu a Rady (EU) 2019/1937 (54).
(173)
For at den lovgivningsmæssige ramme om nødvendigt kan tilpasses, bør beføjelsen til at vedtage retsakter delegeres til Kommissionen i overensstemmelse med artikel 290 i TEUF for at ændre betingelserne for, at et AI-system ikke skal betragtes som værende højrisiko, listen over højrisiko-AI-systemer, bestemmelserne vedrørende teknisk dokumentation, indholdet af EU-overensstemmelseserklæringen, bestemmelserne vedrørende overensstemmelsesvurderingsprocedurer, bestemmelserne om fastsættelse af de højrisiko-AI-systemer, på hvilke overensstemmelsesvurderingsproceduren på grundlag af en vurdering af kvalitetsstyringssystemet og en vurdering af den tekniske dokumentation bør finde anvendelse, tærsklen, benchmarks og indikatorer, herunder ved at supplere disse benchmarks og indikatorer, i reglerne om klassificering af AI-modeller til almen brug med systemisk risiko, kriterierne for udpegelse af AI-modeller til almen brug med systemisk risiko, den tekniske dokumentation for udbydere af AI-modeller til almen brug og gennemsigtighedsoplysningerne for udbydere af AI-modeller til almen brug. Det er navnlig vigtigt, at Kommissionen gennemfører relevante høringer under sit forberedende arbejde, herunder på ekspertniveau, og at disse høringer gennemføres i overensstemmelse med principperne i den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning (55). For at sikre lige deltagelse i forberedelsen af delegerede retsakter modtager Europa-Parlamentet og Rådet navnlig alle dokumenter på samme tid som medlemsstaternes eksperter, og deres eksperter har systematisk adgang til møder i Kommissionens ekspertgrupper, der beskæftiger sig med forberedelse af delegerede retsakter.
(173)
Aby bylo zajištěno, že v případě potřeby bude možné regulační rámec upravit, by měla být na Komisi přenesena pravomoc přijímat akty v souladu s článkem 290 Smlouvy o fungování EU, pokud jde o změnu podmínek, za nichž systém AI nemá být nepovažován za vysoce rizikový, seznamu vysoce rizikových systémů AI, ustanovení týkajících se technické dokumentace, obsahu EU prohlášení o shodě, ustanovení týkajících se postupů posuzování shody a ustanovení zavádějících vysoce rizikové systémy AI, na které by se měl vztahovat postup posuzování shody založený na posouzení systému řízení kvality a posouzení technické dokumentace, prahových hodnot, referenčních hodnot a ukazatelů, mimo jiné doplněním těchto referenčních hodnot a ukazatelů, pravidel pro klasifikaci obecných modelů AI se systémovým rizikem, kritérií pro určení obecných modelů AI se systémovým rizikem, technické dokumentace pro poskytovatele obecných modelů AI a informací o transparentnosti pro poskytovatele obecných modelů AI. Je obzvláště důležité, aby Komise vedla v rámci přípravné činnosti odpovídající konzultace, a to i na odborné úrovni, a aby tyto konzultace probíhaly v souladu se zásadami stanovenými v interinstitucionální dohodě ze dne 13. dubna 2016 o zdokonalení tvorby právních předpisů (55). Pro zajištění rovné účasti na vypracovávání aktů v přenesené pravomoci obdrží Evropský parlament a Rada veškeré dokumenty současně s odborníky z členských států a jejich odborníci mají automaticky přístup na setkání skupin odborníků Komise, jež se přípravě aktů v přenesené pravomoci věnují.
(174)
I betragtning af den hastige teknologiske udvikling og den tekniske ekspertise, der er nødvendig for effektivt at anvende denne forordning, bør Kommissionen evaluere og revidere denne forordning senest den 2. august 2029 og derefter hvert fjerde år og aflægge rapport til Europa-Parlamentet og Rådet. Under hensyntagen til konsekvenserne for denne forordnings anvendelsesområde bør Kommissionen desuden foretage en vurdering af behovet for at ændre listen over højrisiko-AI-systemer og listen over forbudte praksisser én gang om året. Senest den 2. august 2028 og derefter hvert fjerde år bør Kommissionen ydermere evaluere og aflægge rapport til Europa-Parlamentet og Rådet om behovet for at ændre listen over højrisikoområdeoverskrifter i bilaget til denne forordning, de AI-systemer, der er omfattet af gennemsigtighedsforpligtelserne, effektiviteten af tilsyns- og forvaltningssystemet og fremskridt med udviklingen af standardiseringsdokumentation om en energieffektiv udvikling af AI-modeller til almen brug, herunder behovet for yderligere foranstaltninger eller tiltag. Endelig bør Kommissionen senest den 2. august 2028 og derefter hvert tredje år evaluere virkningen og effektiviteten af frivillige adfærdskodekser med henblik på at fremme anvendelsen af de fastsatte krav til højrisiko-AI-systemer i tilfælde af andre AI-systemer end højrisiko-AI-systemer og eventuelt andre yderligere krav til sådanne AI-systemer.
(174)
Vzhledem k rychlému technologickému vývoji a technickým odborným znalostem potřebným pro účinné uplatňování tohoto nařízení by Komise měla toto nařízení vyhodnotit a přezkoumat do 2. srpna 2029 a poté každé čtyři roky a podat zprávu Evropskému parlamentu a Radě. Dále by Komise měla s ohledem na důsledky pro oblast působnosti tohoto nařízení jednou ročně provést posouzení potřeby změnit seznam vysoce rizikových systémů AI a seznam zakázaných postupů. Kromě toho by Komise měla do 2. srpna 2028 a poté každé čtyři roky vyhodnotit potřebu změnit seznam nadpisů vysoce rizikových oblastí v příloze tohoto nařízení, systémy AI spadající do oblasti působnosti povinností v oblasti transparentnosti, účinnost systému dohledu a správy a pokrok ve vývoji produktů normalizace pro energeticky účinný vývoj obecných modelů AI, včetně potřeby dalších opatření nebo kroků, a podat o nich zprávu Evropskému parlamentu a Radě. Do 2. srpna 2028 a poté každé tři roky by Komise měla zhodnotit dopad a účinnost dobrovolných kodexů chování, které mají podpořit uplatňování požadavků stanovených pro vysoce rizikové systémy AI v případě jiných než vysoce rizikových systémů AI a případně dalších požadavků na takovéto systémy AI.
(175)
For at sikre ensartede betingelser for gennemførelsen af denne forordning bør Kommissionen tillægges gennemførelsesbeføjelser. Disse beføjelser bør udøves i overensstemmelse med Europa-Parlamentets og Rådets forordning (EU) nr. 182/2011 (56).
(175)
Za účelem zajištění jednotných podmínek k provedení tohoto nařízení by měly být Komisi svěřeny prováděcí pravomoci. Tyto pravomoci by měly být vykonávány v souladu s nařízením Evropského parlamentu a Rady (EU) č. 182/2011 (56).
(176)
Målet for denne forordning, nemlig at forbedre det indre markeds funktion og fremme udbredelsen af menneskecentreret og troværdig AI og samtidig sikre et højt niveau af beskyttelse af sundhed, sikkerhed og de grundlæggende rettigheder, der er nedfældet i chartret, herunder demokratiet, retsstatsprincippet og miljøbeskyttelse, mod skadelige virkninger af AI-systemer i Unionen og støtte innovation, kan ikke i tilstrækkelig grad opfyldes af medlemsstaterne, men kan på grund af handlingens omfang eller virkninger bedre nås på EU-plan; Unionen kan derfor vedtage foranstaltninger i overensstemmelse med nærhedsprincippet, jf. artikel 5 i TEU. I overensstemmelse med proportionalitetsprincippet, jf. nævnte artikel, går denne forordning ikke videre, end hvad der er nødvendigt for at nå dette mål.
(176)
Jelikož cíle tohoto nařízení, totiž zlepšit fungování vnitřního trhu a podpořit zavádění důvěryhodné AI zaměřené na člověka při současném zajištění vysoké úrovně ochrany zdraví, bezpečnosti a základních práv zakotvených v Listině, včetně demokracie, právního státu a ochrany životního prostředí před škodlivými účinky systémů AI v Unii a podpory inovací, nemůže být uspokojivě dosaženo na úrovni členských států, avšak z důvodu rozsahu nebo účinků jich může být lépe dosaženo na úrovni Unie, může Unie přijmout opatření v souladu se zásadou subsidiarity stanovenou v článku 5 Smlouvy o EU. V souladu se zásadou proporcionality stanovenou v uvedeném článku nepřekračuje toto nařízení rámec toho, co je nezbytné pro dosažení tohoto cíle.
(177)
Med henblik på at sikre retssikkerheden, sikre en passende tilpasningsperiode for operatører og undgå markedsforstyrrelser, herunder ved at sikre kontinuitet i anvendelsen af AI-systemer, bør denne forordning kun finde anvendelse på højrisiko-AI-systemer, der er bragt i omsætning eller ibrugtaget inden den generelle anvendelsesdato, hvis disse systemer fra denne dato er genstand for betydelige ændringer af deres udformning eller tilsigtede formål. Det er hensigtsmæssigt at præcisere, at begrebet betydelig ændring i denne henseende bør forstås som indholdsmæssigt ækvivalent med begrebet væsentlig ændring, som kun anvendes i forbindelse med højrisiko-AI-systemer i medfør af denne forordning. Undtagelsesvist og i lyset af offentlig ansvarlighed bør operatører af AI-systemer, som er komponenter i de store IT-systemer, der er oprettet ved de retsakter, der er opført i et bilag til denne forordning, og operatører af højrisiko-AI-systemer, der er tilsigtet anvendt af offentlige myndigheder, henholdsvis tage de nødvendige skridt til at overholde kravene i denne forordning inden udgangen af 2030 og senest den 2. august 2030.
(177)
V zájmu zabezpečení právní jistoty, zajištění vhodného adaptačního období pro provozovatele a zabránění narušení trhu, mimo jiné zajištěním kontinuity používání systémů AI, je vhodné, aby se toto nařízení vztahovalo na vysoce rizikové systémy AI, které byly uvedeny na trh nebo do provozu před obecným datem jeho použitelnosti, pouze pokud od uvedeného data dojde k významným změnám jejich návrhu nebo zamýšleného účelu. Je vhodné vyjasnit, že v tomto ohledu by pojem „významná změna“ měl být v podstatě chápán jako rovnocenný pojmu „podstatná změna“, který se používá pouze ve vztahu k vysoce rizikovým systémům AI podle tohoto tomto nařízení. Ve výjimečných případech a s ohledem na veřejnou odpovědnost by provozovatelé systémů AI, které jsou součástí rozsáhlých informačních systémů zřízených právními akty uvedenými v příloze tohoto nařízení, a provozovatelé vysoce rizikových systémů AI, které jsou určeny k použití orgány veřejné moci, měli přijmout nezbytná opatření ke splnění požadavků tohoto nařízení do konce roku 2030 a do 2. srpna 2030.
(178)
Udbydere af højrisiko-AI-systemer tilskyndes til frivilligt at begynde at overholde de relevante forpligtelser i denne forordning allerede i overgangsperioden.
(178)
Poskytovatelé vysoce rizikových systémů AI se vyzývají, aby začali dobrovolně plnit příslušné povinnosti vyplývající z tohoto nařízení již během přechodného období.
(179)
Denne forordning bør finde anvendelse fra den 2. august 2026. Under hensyntagen til den uacceptable risiko, der på visse måder er forbundet med anvendelsen af AI, bør forbuddene og de almindelige bestemmelser i denne forordning dog finde anvendelse allerede fra den 2. februar 2025. Selv om den fulde virkning af disse forbud følger med indførelsen af forvaltningen og håndhævelsen af denne forordning, er det vigtigt at foregribe anvendelsen af forbuddene for at tage hensyn til uacceptable risici, som har indvirkning på andre procedurer såsom i civilretten. Infrastrukturen i forbindelse med forvaltnings- og overensstemmelsesvurderingssystemet bør desuden være operationel inden den 2. august 2026, og bestemmelserne om bemyndigede organer og forvaltningsstruktur bør derfor finde anvendelse fra den 2. august 2025. I betragtning af de hastige teknologiske fremskridt og udbredelsen af AI-modeller til almen brug bør forpligtelserne for udbydere af AI-modeller til almen brug finde anvendelse fra den 2. august 2025. Praksiskodekser skal være klar senest den 2. maj 2025 med henblik på at gøre det muligt for udbyderne rettidigt at påvise overholdelse. AI-kontoret bør sikre, at klassificeringsregler og -procedurer er ajourførte i lyset af den teknologiske udvikling. Desuden bør medlemsstaterne fastsætte og meddele Kommissionen bestemmelserne om sanktioner, herunder administrative bøder, og sikre, at de er gennemført korrekt og effektivt på datoen for denne forordnings anvendelse. Bestemmelserne om sanktioner bør derfor finde anvendelse fra den 2. august 2025.
(179)
Toto nařízení by se mělo použít ode dne 2. srpna 2026. S ohledem na nepřijatelné riziko spojené s používáním AI určitými způsoby by se však zákazy, stejně jako obecná ustanovení tohoto nařízení, měly použít již od 2. února 2025. Ačkoli plný účinek těchto zákazů následuje po zavedení správy a prosazování tohoto nařízení, je důležité předvídat uplatňování zákazů, aby se zohlednila nepřijatelná rizika a aby se ovlivnily další postupy, například v občanském právu. Infrastruktura související se správou a se systémem posuzování shody by navíc měla být funkční již před 2. srpnem 2026, a proto by se ustanovení o oznámených subjektech a o struktuře řízení měla použít ode dne 2. srpna 2025. Vzhledem k rychlému tempu technologického pokroku a přijímání obecných modelů AI by povinnosti poskytovatelů obecných modelů AI měly platit od 2. srpna 2025. Kodexy správné praxe by měly být připraveny do 2. května 2025, aby poskytovatelé mohli včas prokázat soulad. Úřad pro AI by měl zajistit, aby klasifikační pravidla a postupy byly aktuální s ohledem na technologický vývoj. Kromě toho by členské státy měly stanovit pravidla ukládání sankcí, včetně správních pokut, a oznámit je Komisi a zajistit, aby byla řádně a účinně provedena do data použitelnosti tohoto nařízení. Ustanovení o sankcích se proto použijí ode dne 2. srpna 2025.
(180)
Den Europæiske Tilsynsførende for Databeskyttelse og Det Europæiske Databeskyttelsesråd er blevet hørt i overensstemmelse med artikel 42, stk. 1 og 2, i forordning (EU) 2018/1725 og afgav deres fælles udtalelse den 18. juni 2021 —
(180)
Evropský inspektor ochrany údajů a Evropský sbor pro ochranu údajů byli konzultováni v souladu s čl. 42 odst. 1 a 2 nařízení (EU) 2018/1725 a dne 18. června 2021 vydali své společné stanovisko,
VEDTAGET DENNE FORORDNING:
PŘIJALY TOTO NAŘÍZENÍ:
KAPITEL I
KAPITOLA I
ALMINDELIGE BESTEMMELSER
OBECNÁ USTANOVENÍ
Artikel 1
Článek 1
Genstand
Předmět
1. Formålet med denne forordning er at forbedre det indre markeds funktion og fremme udbredelsen af menneskecentreret og troværdig kunstig intelligens (AI) og samtidig sikre et højt niveau af beskyttelse af sundhed, sikkerhed og de grundlæggende rettigheder, der er nedfældet i chartret, herunder demokratiet, retsstatsprincippet og miljøbeskyttelse, mod de skadelige virkninger af AI-systemer i Unionen og støtte innovation.
1. Účelem tohoto nařízení je zlepšit fungování vnitřního trhu, podporovat zavádění důvěryhodné umělé inteligence (AI) zaměřené na člověka a zároveň zajistit vysokou úroveň ochrany zdraví, bezpečnosti, základních práv zakotvených v Listině, včetně demokracie, právního státu a ochrany životního prostředí, před škodlivými účinky systémů AI v Unii, jakož i podporovat inovace.
2. Ved denne forordning fastsættes:
2. Toto nařízení stanoví:
a)
harmoniserede regler for omsætning, ibrugtagning og anvendelse af AI-systemer i Unionen
a)
harmonizovaná pravidla pro uvádění systémů AI na trh a do provozu a pro jejich používání v Unii;
b)
forbud mod visse former for AI-praksis
b)
zákazy určitých postupů v oblasti AI;
c)
specifikke krav til højrisiko-AI-systemer og forpligtelser for operatører af sådanne systemer
c)
zvláštní požadavky na vysoce rizikové systémy AI a povinnosti provozovatelů těchto systémů;
d)
harmoniserede gennemsigtighedsregler for bestemte AI-systemer
d)
harmonizovaná pravidla transparentnosti pro některé systémy AI;
e)
harmoniserede regler for omsætning af AI-modeller til almen brug
e)
harmonizovaná pravidla pro uvádění obecných modelů AI na trh;
f)
regler om overvågning efter omsætningen, markedsovervågning, forvaltning og håndhævelse
f)
pravidla monitorování trhu, dozoru nad trhem a jeho správy a prosazování tohoto nařízení;
g)
foranstaltninger til støtte for innovation med særligt fokus på SMV'er, herunder iværksættervirksomheder.
g)
opatření na podporu inovací se zvláštním zaměřením na malé a střední podniky, včetně podniků začínajících.
Artikel 2
Článek 2
Anvendelsesområde
Oblast působnosti
1. Denne forordning finder anvendelse på:
1. Toto nařízení se vztahuje na:
a)
udbydere, der bringer AI-systemer i omsætning eller ibrugtager sådanne eller bringer AI-modeller til almen brug i omsætning i Unionen, uanset om disse udbydere er etableret eller befinder sig i Unionen eller i et tredjeland
a)
poskytovatele, kteří v Unii uvádějí na trh nebo do provozu systémy AI nebo uvádějí na trh obecné modely AI bez ohledu na to, zda jsou tito poskytovatelé usazeni nebo se nacházejí v Unii či ve třetí zemi;
b)
idriftsættere af AI-systemer, der er etableret eller befinder sig i Unionen
b)
subjekty, které zavádějí systémy AI a jsou usazeny nebo se nacházejí v Unii;
c)
udbydere og idriftsættere af AI-systemer, der er etableret eller befinder sig i et tredjeland, hvis det output, der produceres af systemet, anvendes i Unionen
c)
poskytovatele a subjekty, které zavádějí systémy AI, kteří jsou usazeni nebo se nacházejí ve třetí zemi, pokud se výstup systému AI používá v Unii;
d)
importører og distributører af AI-systemer
d)
dovozce a distributory systémů AI;
e)
producenter af et produkt, der sammen med deres produkt og under eget navn eller varemærke bringer et AI-system i omsætning eller ibrugtager det
e)
výrobce produktů, kteří uvádějí na trh nebo do provozu systém AI společně se svým produktem a pod svým jménem, názvem nebo ochrannou známkou;
f)
bemyndigede repræsentanter for udbydere, der ikke er etableret i Unionen
f)
zplnomocněné zástupce poskytovatelů, kteří nejsou usazeni v Unii;
g)
berørte personer, der befinder sig i Unionen.
g)
dotčené osoby, které se nacházejí v Unii.
2. For så vidt angår AI-systemer, der er klassificeret som højrisiko-AI-systemer i overensstemmelse med artikel 6, stk. 1, i forbindelse med produkter, der er omfattet af EU-harmoniseringslovgivningen opført i bilag I, afsnit B, finder kun artikel 6, stk. 1, og artikel 102-109 og 112 anvendelse. Artikel 57 finder kun anvendelse, for så vidt kravene til højrisiko-AI-systemer i henhold til denne forordning er blevet integreret i den pågældende EU-harmoniseringslovgivning.
2. Pro systémy AI klasifikované jako vysoce rizikové systémy AI v souladu s čl. 6 odst. 1, které souvisejí s produkty, na něž se vztahují harmonizační právní předpisy Unie uvedené v příloze I oddíle B, se použijí pouze čl. 6 odst. 1, články 102 až109 a článek 112tohoto nařízení. Článek 57 se použije pouze v případě, že požadavky na vysoce rizikové systémy AI podle tohoto nařízení byly začleněny do uvedených harmonizačních právních předpisů Unie.
3. Denne forordning finder ikke anvendelse på områder, der falder uden for EU-rettens anvendelsesområde, og berører under alle omstændigheder ikke medlemsstaternes kompetencer vedrørende national sikkerhed, uanset hvilken type enhed medlemsstaterne har bemyndiget til at udføre opgaver i forbindelse med disse kompetencer.
3. Toto nařízení se nevztahuje na oblasti mimo oblast působnosti práva Unie a v žádném případě jím nejsou dotčeny pravomoci členských států v oblasti národní bezpečnosti, bez ohledu na typ subjektu, který členské státy pověřily plněním úkolů souvisejících s těmito pravomocemi.
Denne forordning finder ikke anvendelse på AI-systemer, hvis og i det omfang de bringes i omsætning, ibrugtages eller anvendes med eller uden ændring til formål, der udelukkende vedrører militær, forsvar eller national sikkerhed, uanset hvilken type enhed der udfører disse aktiviteter.
Toto nařízení se nevztahuje na systémy AI pouze tehdy a do té míry, pokud jsou uváděny na trh nebo do provozu nebo jsou používány se změnami nebo bez nich výhradně pro vojenské či obranné účely nebo pro účely národní bezpečnosti, bez ohledu na typ subjektu, který tyto činnosti provádí.
Denne forordning finder ikke anvendelse på AI-systemer, der ikke bringes i omsætning eller ibrugtages i Unionen, hvis outputtet anvendes i Unionen til formål, der udelukkende vedrører militær, forsvar eller national sikkerhed, uanset hvilken type enhed der udfører disse aktiviteter.
Toto nařízení se nevztahuje na systémy AI, které nejsou uváděny na trh nebo do provozu v Unii, pokud se výstup používá v Unii výhradně pro vojenské či obranné účely nebo pro účely národní bezpečnosti, bez ohledu na typ subjektu, který tyto činnosti provádí.
4. Denne forordning finder hverken anvendelse på offentlige myndigheder i tredjelande eller internationale organisationer, der er omfattet af denne forordnings anvendelsesområde, jf. stk. 1, hvis disse myndigheder eller organisationer anvender AI-systemer inden for rammerne af internationalt samarbejde eller internationale aftaler om retshåndhævelse og retligt samarbejde med Unionen eller med en eller flere medlemsstater, forudsat at et sådant tredjeland eller en sådan international organisation træffer tilstrækkelige sikkerhedsforanstaltninger med hensyn til beskyttelsen af fysiske personers grundlæggende rettigheder og friheder.
4. Toto nařízení se nevztahuje ani na veřejné orgány ve třetí zemi, ani na mezinárodní organizace spadající do oblasti působnosti tohoto nařízení podle odstavce 1, pokud tyto orgány nebo organizace používají systémy AI v rámci mezinárodní spolupráce či mezinárodních dohod o vymáhání práva a o justiční spolupráci s Unií nebo s jedním či více členskými státy, a to pod podmínkou, že daná třetí země nebo mezinárodní organizace poskytne přiměřené záruky, pokud jde o ochranu základních práv a svobod fyzických osob.
5. Denne forordning berører ikke anvendelsen af bestemmelserne om udbydere af formidlingstjenesters ansvar som fastsat i kapitel II i forordning (EU) 2022/2065.
5. Tímto nařízením není dotčeno uplatňování ustanovení o odpovědnosti poskytovatelů zprostředkovatelských služeb uvedených v kapitole II nařízení (EU) 2022/2065.
6. Denne forordning finder ikke anvendelse på AI-systemer eller AI-modeller, herunder deres output, som specifikt er udviklet og ibrugtaget udelukkende med henblik på videnskabelig forskning og udvikling.
6. Toto nařízení se nevztahuje na systémy nebo modely AI, včetně jejich výstupů, které byly speciálně vyvinuty a uvedeny do provozu výhradně za účelem vědeckého výzkumu a vývoje.
7. EU-retten om beskyttelse af personoplysninger, privatlivets fred og kommunikationshemmeligheden finder anvendelse på personoplysninger, som behandles i forbindelse med de rettigheder og forpligtelser, der er fastsat i denne forordning. Denne forordning berører ikke forordning (EU) 2016/679 eller (EU) 2018/1725 eller direktiv 2002/58/EF eller (EU) 2016/680, uden at det berører nærværende forordnings artikel 10, stk. 5, og artikel 59.
7. Na osobní údaje zpracovávané v souvislosti s právy a povinnostmi stanovenými v tomto nařízení se vztahuje právo Unie o ochraně osobních údajů, soukromí a důvěrnosti sdělení. Tímto nařízením nejsou dotčena nařízení (EU) 2016/679 nebo (EU) 2018/1725 ani směrnice 2002/58/ES nebo (EU) 2016/680, aniž jsou dotčeny čl. 10 odst. 5 a článek 59 tohoto nařízení.
8. Denne forordning finder ikke anvendelse på forsknings-, afprøvnings- eller udviklingsaktiviteter vedrørende AI-systemer eller AI-modeller, inden de bringes i omsætning eller ibrugtages. Sådanne aktiviteter gennemføres i overensstemmelse med gældende EU-ret. Afprøvning under faktiske forhold er ikke omfattet af denne undtagelse.
8. Toto nařízení se nevztahuje na žádné činnosti výzkumu, testování či vývoje v oblasti systémů AI nebo modelů AI před jejich uvedením na trh nebo do provozu. Tyto činnosti jsou prováděny v souladu s platným právem Unie. Uvedená výjimka nezahrnuje testování v reálných podmínkách.
9. Denne forordning berører ikke de regler, der er fastsat i andre EU-retsakter vedrørende forbrugerbeskyttelse og produktsikkerhed.
9. Tímto nařízením nejsou dotčena pravidla stanovená jinými právními akty Unie, které se týkají ochrany spotřebitele a bezpečnosti výrobků.
10. Denne forordning finder ikke anvendelse på forpligtelser for idriftsættere, som er fysiske personer, der anvender AI-systemer som led i rent personlige ikkeerhvervsmæssige aktiviteter.
10. Toto nařízení se nevztahuje na povinnosti zavádějících subjektů, které jsou fyzickými osobami a používají systémy AI v rámci čistě osobní neprofesionální činnosti.
11. Denne forordning er ikke til hinder for, at Unionen eller medlemsstaterne opretholder eller indfører love, forskrifter eller administrative bestemmelser, der er gunstigere for arbejdstagerne med hensyn til beskyttelse af deres rettigheder i forbindelse med arbejdsgivernes anvendelse af AI-systemer, eller tilskynder til eller tillader anvendelse af kollektive overenskomster, der er gunstigere for arbejdstagerne.
11. Toto nařízení nebrání Unii ani členským státům v tom, aby zachovaly nebo zavedly právní a správní předpisy, které jsou příznivější pro pracovníky, pokud jde o ochranu jejich práv v souvislosti s používáním systémů AI zaměstnavateli, nebo které podporují či umožňují uplatňování kolektivních smluv příznivějších pro pracovníky.
12. Denne forordning finder ikke anvendelse på AI-systemer, der frigives i henhold til gratis open source-licenser, medmindre de bringes i omsætning eller ibrugtages som højrisiko-AI-systemer eller et AI-system, der er omfattet af artikel 5 eller 50.
12. Toto nařízení se nevztahuje na systémy AI zpřístupněné na základě svobodných licencí a licencí s otevřeným zdrojovým kódem, pokud nejsou uváděny na trh nebo do provozu jako vysoce rizikové systémy AI nebo jako systém AI, na který se vztahuje článek 5 nebo 50.
Artikel 3
Článek 3
Definitioner
Definice
I denne forordning forstås ved:
Pro účely tohoto nařízení se rozumí:
1)
»AI-system«: et maskinbaseret system, som er udformet med henblik på at fungere med en varierende grad af autonomi, og som efter idriftsættelsen kan udvise en tilpasningsevne, og som til eksplicitte eller implicitte mål af det input, det modtager, udleder, hvordan det kan generere output såsom forudsigelser, indhold, anbefalinger eller beslutninger, som kan påvirke fysiske eller virtuelle miljøer
1)
„systémem AI“ strojový systém navržený tak, aby po zavedení fungoval s různými úrovněmi autonomie a který po zavedení může vykazovat adaptabilitu a který za explicitními nebo implicitními účely z obdržených vstupů odvozuje, jak generovat výstupy, jako jsou predikce, obsah, doporučení nebo rozhodnutí, které mohou ovlivnit fyzická nebo virtuální prostředí;
2)
»risiko«: kombinationen af sandsynligheden for, at der opstår en skade, og den pågældende skades alvor
2)
„rizikem“ se rozumí kombinace pravděpodobnosti toho, že dojde k újmě, a závažnosti takové újmy;
3)
»udbyder«: en fysisk eller juridisk person, en offentlig myndighed, et agentur eller et andet organ, der udvikler eller får udviklet et AI-system eller en AI-model til almen brug og bringer dem i omsætning eller ibrugtager AI-systemet under eget navn eller varemærke, enten mod betaling eller gratis
3)
„poskytovatelem“ fyzická nebo právnická osoba, veřejný orgán, agentura nebo jiný subjekt, který vyvíjí systém AI či obecný model AI nebo nechává vyvíjet systém AI či obecný model AI a uvádějí je na trh nebo které uvádějí systém AI do provozu pod svým vlastním jménem, názvem nebo ochrannou známkou, ať už za úplatu, nebo zdarma;
4)
»idriftsætter«: en fysisk eller juridisk person, en offentlig myndighed, et agentur eller et andet organ, der anvender et AI-system under sin myndighed, medmindre AI-systemet anvendes som led i en personlig ikkeerhvervsmæssig aktivitet
4)
„zavádějícím subjektem“ nebo „subjektem, který zavádí“ fyzická nebo právnická osoba, veřejný orgán, agentura nebo jiný subjekt, které v rámci své pravomoci využívá systém AI, s výjimkou případů, kdy je systém AI využíván při osobní neprofesionální činnosti;
5)
»bemyndiget repræsentant«: en fysisk eller juridisk person, der befinder sig eller er etableret i Unionen, og som har modtaget og accepteret et skriftligt mandat fra en udbyder af et AI-system eller en AI-model til almen brug til på dennes vegne at opfylde og udføre de forpligtelser og procedurer, der er fastsat i denne forordning
5)
„zplnomocněným zástupcem“ i fyzická nebo právnická osoba nacházející se nebo usazená v Unii, která od poskytovatele systému AI nebo obecného modelu AI obdržela a přijala písemné pověření k tomu, aby jeho jménem plnila povinnosti a prováděla postupy stanovené tímto nařízením;
6)
»importør«: en fysisk eller juridisk person, som befinder sig eller er etableret i Unionen, og som bringer et AI-system i omsætning, der bærer en i et tredjeland etableret fysisk eller juridisk persons navn eller varemærke
6)
„dovozcem“ fyzická nebo právnická osoba nacházející se nebo usazená v Unii, která uvádí na trh systém AI označený jménem, názvem nebo ochrannou známkou fyzické nebo právnické osoby usazené ve třetí zemi;
7)
»distributør«: en fysisk eller juridisk person i forsyningskæden, bortset fra udbyderen eller importøren, som gør et AI-system tilgængeligt på EU-markedet
7)
„distributorem“ fyzická nebo právnická osoba v dodavatelském řetězci, jiná než poskytovatel nebo dovozce, která dodává systém AI na trh Unie;
8)
»operatør«: en udbyder, producent af et produkt, idriftsætter, bemyndiget repræsentant, importør eller distributør
8)
„provozovatelem“ poskytovatel, výrobce produktu, zavádějící subjekt, zplnomocněný zástupce, dovozce nebo distributor;
9)
»omsætning«: den første tilgængeliggørelse af et AI-system eller en AI-model til almen brug på EU-markedet
9)
„uvedením na trh“ první dodání systému AI nebo obecného modelu AI na trh Unie;
10)
»tilgængeliggørelse på markedet«: levering af et AI-system eller en AI-model til almen brug med henblik på distribution eller anvendelse på EU-markedet som led i erhvervsvirksomhed mod eller uden vederlag
10)
„dodáním na trh“ dodání systému AI nebo obecného modelu AI k distribuci nebo použití na trhu Unie v rámci obchodní činnosti, ať už za úplatu, nebo zdarma;
11)
»ibrugtagning«: levering af et AI-system til anvendelse for første gang enten direkte til idriftsætteren eller til egen brug i Unionen i overensstemmelse med dets tilsigtede formål
11)
„uvedením do provozu“ dodání systému AI k prvnímu použití přímo zavádějícímu subjektu nebo pro vlastní použití v Unii se zamýšleným účelem;
12)
»tilsigtet formål«: den anvendelse, som et AI-system af udbyderen er tilsigtet, herunder den specifikke sammenhæng og de specifikke betingelser for anvendelse som angivet i de oplysninger, udbyderen giver i brugsanvisningen, reklame- eller salgsmaterialet og reklame- og salgserklæringerne samt i den tekniske dokumentation
12)
„zamýšleným účelem“ použití systému AI zamýšlené poskytovatelem, včetně konkrétního kontextu a podmínek použití, které jsou uvedeny v informacích dodaných poskytovatelem v návodu k použití, v propagačních nebo prodejních materiálech a prohlášeních, jakož i v technické dokumentaci;
13)
»fejlanvendelse, der med rimelighed kan forudses«: anvendelse af et AI-system på en måde, der ikke er i overensstemmelse med systemets tilsigtede formål, men som kan skyldes menneskelig adfærd eller interaktion med andre systemer, herunder andre AI-systemer, der med rimelighed kan forudses
13)
„rozumně předvídatelným nesprávným použitím“ použití systému AI způsobem, který není v souladu s jeho zamýšleným účelem, avšak může vyplývat z rozumně předvídatelného lidského chování nebo z interakce s jinými systémy, včetně jiných systémů AI;
14)
»sikkerhedskomponent«: en komponent i et produkt eller et AI-system, som har en sikkerhedsfunktion for det pågældende produkt eller AI-system eller i tilfælde af svigt eller funktionsfejl, som bringer personers sundhed og sikkerhed eller ejendom i fare, i produktet eller systemet
14)
„bezpečnostní komponentou“ komponenta produktu nebo systému AI, která plní bezpečnostní funkci pro daný produkt nebo systém AI, případně jejíž porucha nebo chybné fungování ohrožuje zdraví a bezpečnost osob nebo majetku;
15)
»brugsanvisning«: oplysninger fra udbyderen med henblik på at informere idriftsætteren om navnlig et AI-systems tilsigtede formål og korrekte anvendelse
15)
„návodem k použití“ informace poskytnuté poskytovatelem, kterými zavádějící subjekt informuje zejména o zamýšleném účelu a řádném použití daného systému;
16)
»tilbagekaldelse af et AI-system«: enhver foranstaltning, der har til formål at opnå, at et AI-system, der allerede er gjort tilgængeligt for idriftsætterne, returneres til udbyderen eller tages ud af drift eller deaktiveres
16)
„stažením systému AI z oběhu“ opatření, jehož cílem je dosáhnout, aby byl systém AI zpřístupněný zavádějícím subjektům navrácen poskytovateli nebo vyřazen z provozu nebo aby bylo znemožněno jeho používání;
17)
»tilbagetrækning af et AI-system«: enhver foranstaltning, der har til formål at forhindre, at et AI-system i forsyningskæden gøres tilgængeligt på markedet
17)
„stažením systému AI z trhu“ opatření, jehož cílem je zabránit, aby byl systém AI, který se nachází v dodavatelském řetězci, dodáván na trh;
18)
»et AI-systems ydeevne«: et AI-systems evne til at opfylde det tilsigtede formål
18)
„výkonností systému AI“ schopnost systému AI dosáhnout svého zamýšleného účelu;
19)
»bemyndigende myndighed«: den nationale myndighed, der er ansvarlig for at indføre og gennemføre de nødvendige procedurer for vurdering, udpegelse og notifikation af overensstemmelsesvurderingsorganer og for overvågning heraf
19)
„oznamujícím orgánem“ vnitrostátní orgán odpovědný za stanovení a provádění postupů nezbytných pro posuzování, jmenování a oznamování subjektů posuzování shody a za jejich monitorování;
20)
»overensstemmelsesvurdering«: processen til påvisning af, om de i kapitel III, afdeling 2, fastsatte krav vedrørende et højrisiko-AI-system er opfyldt
20)
„posuzováním shody“ postup prokázání toho, zda byly splněny požadavky stanovené v kapitole III oddíle 2 tohoto nařízení týkající se vysoce rizikového systému AI;
21)
»overensstemmelsesvurderingsorgan«: et organ, der som tredjepart udfører overensstemmelsesvurderingsaktiviteter, herunder afprøvning, certificering og inspektion
21)
„subjektem posuzování shody“ subjekt, který vykonává činnosti posuzování shody jakožto třetí strana, včetně testování, certifikace a inspekce;
22)
»bemyndiget organ«: et overensstemmelsesvurderingsorgan, der er notificeret i overensstemmelse med denne forordning og anden relevant EU-harmoniseringslovgivning
22)
„oznámeným subjektem“ subjekt posuzování shody oznámený v souladu s tímto nařízením a dalšími příslušnými harmonizačními právními předpisy Unie;
23)
»væsentlig ændring«: en ændring af et AI-system efter dets omsætning eller ibrugtagning, som ikke er forudset eller planlagt i udbyderens indledende overensstemmelsesvurdering, og som følge af hvilken AI-systemets overholdelse af de i kapitel III, afdeling 2, fastsatte krav påvirkes eller medfører en ændring af det tilsigtede formål, med henblik på hvilket AI-systemet er vurderet
23)
„podstatnou změnou“ změna systému AI po jeho uvedení na trh nebo do provozu, kterou poskytovatel při počátečním posuzování shody nepředvídal ani neplánoval a v jejímž důsledku je ovlivněn soulad systému AI s požadavky stanovenými v kapitole III oddíle 2 tohoto nařízení nebo která vede ke změně zamýšleného účelu, pro který byl systém AI posuzován;
24)
»CE-mærkning«: en mærkning, hvormed en udbyder angiver, at et AI-system er i overensstemmelse med de krav, der er fastsat i kapitel III, afdeling 2, og anden gældende EU-harmoniseringslovgivning, og om anbringelse af denne mærkning
24)
„označením CE“ označení, kterým poskytovatel vyjadřuje, že je systém AI ve shodě s požadavky stanovenými v kapitole III oddíle 2 a v dalších příslušných harmonizačních právních předpisech Unie, které upravují umísťování tohoto označení;
25)
»system til overvågning efter omsætningen«: alle aktiviteter, som udbydere af AI-systemer udfører for at samle og gennemgå erfaringer med anvendelse af de AI-systemer, de bringer i omsætning eller ibrugtager, med henblik på at afdække eventuelle behov for omgående at foretage nødvendige, korrigerende eller forebyggende tiltag
25)
„systémem monitorování po uvedení na trh“ veškeré činnosti prováděné poskytovateli systémů AI s cílem shromažďovat a přezkoumávat zkušenosti získané v souvislosti s používáním systémů AI, které dodávají na trh nebo uvádějí do provozu, za účelem určení potřeby okamžitého uplatnění jakýchkoliv nezbytných nápravných nebo preventivních opatření;
26)
»markedsovervågningsmyndighed«: den nationale myndighed, der udfører aktiviteterne og træffer foranstaltningerne i henhold til forordning (EU) 2019/1020
26)
„orgánem dozoru nad trhem“ vnitrostátní orgán provádějící činnosti a přijímající opatření podle nařízení (EU) 2019/1020;
27)
»harmoniseret standard«: en harmoniseret standard som defineret i artikel 2, nr. 1), litra c), i forordning (EU) nr. 1025/2012
27)
„harmonizovanou normou“ harmonizovaná norma ve smyslu čl. 2 bodu 1 písm. c) nařízení (EU) č. 1025/2012;
28)
»fælles specifikation«: et sæt af tekniske specifikationer som defineret i artikel 2, nr. 4), i forordning (EU) nr. 1025/2012, der giver mulighed for at overholde visse krav, der er fastsat i nærværende forordning
28)
„společnou specifikací“ soubor technických specifikací ve smyslu čl. 2 bodu 4 nařízení (EU) č. 1025/2012, který poskytuje prostředky ke splnění určitých požadavků stanovených v tomto nařízením;
29)
»træningsdata«: data, der anvendes til træning af et AI-system ved hjælp af tilpasning af dets lærbare parametre
29)
„trénovacími daty“ data používaná pro trénování systému AI přizpůsobováním jeho parametrů, které lze ovlivnit učením;
30)
»valideringsdata«: data, der anvendes til at foretage en evaluering af det trænede AI-system og til at justere systemets ikkelærbare parametre og dets læringsproces med henblik på bl.a. at forhindre undertilpasning eller overtilpasning
30)
„validačními daty“ data používaná pro hodnocení trénovaného systému AI a pro vyladění jeho parametrů, které nelze ovlivnit učením, a procesu jeho učení, mimo jiné s cílem zabránit nedostatečnému přizpůsobování nebo nadměrnému přizpůsobování;
31)
»valideringsdatasæt«: et separat datasæt eller en del af træningsdatasættet, enten som et fast eller variabelt split
31)
„souborem validačních dat“ samostatný soubor dat nebo součást souboru trénovacích dat, ať už s pevným, nebo proměnlivým rozdělením;
32)
»afprøvningsdata«: data, der anvendes til en uafhængig evaluering af AI-systemet for at bekræfte systemets forventede ydeevne, inden det bringes i omsætning eller ibrugtages
32)
„testovacími daty“ data používaná k zajištění nezávislého zhodnocení systému AI za účelem potvrzení očekávané výkonnosti tohoto systému před jeho uvedením na trh nebo do provozu;
33)
»inputdata«: data, der leveres til eller hentes direkte af et AI-system, og på grundlag af hvilke systemet leverer et output
33)
„vstupními daty“ data poskytovaná systému AI nebo přímo získaná tímto systémem, na jejichž základě tento systém vytváří výstup;
34)
»biometriske data«: personoplysninger som følge af specifik teknisk behandling vedrørende en fysisk persons fysiske, fysiologiske eller adfærdsmæssige karakteristika som f.eks. ansigtsbilleder eller fingeraftryksoplysninger
34)
„biometrickými údaji“ osobní údaje vyplývající z konkrétního technického zpracování, týkající se tělesných či fyziologických znaků nebo znaků chování fyzické osoby, například zobrazení obličeje nebo daktyloskopické údaje;
35)
»biometrisk identifikation«: automatiseret genkendelse af fysiske, fysiologiske, adfærdsmæssige eller psykologiske menneskelige træk med henblik på at fastslå en fysisk persons identitet ved at sammenligne den pågældende persons biometriske data med biometriske data om enkeltpersoner lagret i en database
35)
„biometrickou identifikací“ automatizované rozpoznávání fyzických, fyziologických, behaviorálních či psychických lidských znaků za účelem zjištění totožnosti fyzické osoby porovnáním biometrických údajů této osoby s biometrickými údaji jednotlivců, jež jsou uloženy v databázi;
36)
»biometrisk verifikation«: automatiseret, en-til-en-verifikation, herunder autentificering, af fysiske personers identitet ved at sammenligne deres biometriske data med tidligere afgivne biometriske data
36)
„biometrickým ověřením“ automatizované „one-to-one“ ověření totožnosti fyzických osob, včetně autentizace, porovnáním jejich biometrických údajů s dříve poskytnutými biometrickými údaji;
37)
»særlige kategorier af personoplysninger«: de kategorier af personoplysninger, der er omhandlet i artikel 9, stk. 1, i forordning (EU) 2016/679, artikel 10 i direktiv (EU) 2016/680 og artikel 10, stk. 1, i forordning (EU) 2018/1725
37)
„zvláštními kategoriemi osobních údajů“ kategorie osobních údajů uvedené v čl. 9 odst. 1 nařízení (EU) 2016/679, článku 10 směrnice (EU) 2016/680 a čl. 10 odst. 1 nařízení (EU) 2018/1725;
38)
»følsomme operationelle data«: operationelle data vedrørende aktiviteter med henblik på forebyggelse, afsløring, efterforskning eller retsforfølgning af strafbare handlinger, hvis videregivelse kan bringe straffesagens integritet i fare
38)
„citlivými operativními údaji“ operativní údaje týkající se činností v oblasti prevence, odhalování, vyšetřování nebo stíhání trestných činů, jejichž zpřístupnění by mohlo ohrozit integritu trestního řízení;
39)
»system til følelsesgenkendelse«: et AI-system, der har til formål at genkende eller udlede fysiske personers følelser eller hensigter på grundlag af deres biometriske data
39)
„systémem rozpoznávání emocí“ systém AI pro účely zjišťování nebo odvozování emocí nebo záměrů fyzických osob na základě jejich biometrických údajů;
40)
»system til biometrisk kategorisering«: et AI-system, der har til formål at placere fysiske personer i bestemte kategorier på grundlag af deres biometriske data, medmindre de understøtter en anden kommerciel tjeneste og er strengt nødvendige af objektive tekniske årsager
40)
„systémem biometrické kategorizace“ systém AI pro účely zařazení fyzických osob do určitých kategorií na základě jejich biometrických údajů, pokud není doplňkem k jiné komerční službě a není nezbytně nutný z objektivních technických důvodů;
41)
»system til biometrisk fjernidentifikation«: et AI-system, der har til formål at identificere fysiske personer uden deres aktive deltagelse, typisk på afstand, ved at sammenligne en persons biometriske data med de biometriske data i en referencedatabase
41)
„systémem biometrické identifikace na dálku“ systém AI pro účely identifikace fyzických osob bez jejich aktivního zapojení, obvykle na dálku, na základě porovnání biometrických údajů dané osoby s biometrickými údaji obsaženými v referenční databázi;
42)
»system til biometrisk fjernidentifikation i realtid«: et system til biometrisk fjernidentifikation, hvor optagelse af biometriske data, sammenligning og identifikation alle finder sted uden væsentlig forsinkelse, omfattende ikke blot øjeblikkelig identifikation, men også begrænsede, korte forsinkelser for at undgå omgåelse
42)
„systémem biometrické identifikace na dálku v reálném čase“ systém biometrické identifikace na dálku, kdy zachycení biometrických údajů, porovnání a identifikace probíhají bez zbytečného odkladu a zahrnují nejen okamžitou identifikaci, ale také omezená krátká zpoždění, jejichž cílem je zabránit obcházení pravidel;
43)
»system til efterfølgende biometrisk fjernidentifikation«: et system til biometrisk fjernidentifikation, som ikke er et system til biometrisk fjernidentifikation i realtid
43)
„systémem následné biometrické identifikace na dálku“ systém biometrické identifikace na dálku jiný než systém biometrické identifikace na dálku v reálném čase;
44)
»offentligt sted«: ethvert offentligt eller privatejet fysisk sted, der er tilgængeligt for et ubestemt antal fysiske personer, uanset om der kan gælde visse adgangsbetingelser, og uanset de potentielle kapacitetsbegrænsninger
44)
„veřejně přístupným prostorem“ jakékoli fyzické místo ve veřejném nebo soukromém vlastnictví přístupné neurčenému počtu fyzických osob bez ohledu na to, zda se mohou uplatňovat určité podmínky přístupu, a bez ohledu na možná omezení kapacity;
45)
»retshåndhævende myndigheder«:
45)
„donucovacím orgánem“
a)
enhver offentlig myndighed, der er kompetent med hensyn til at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner, herunder beskytte mod og forebygge trusler mod den offentlige sikkerhed, eller
a)
jakýkoliv veřejný orgán příslušný k prevenci, vyšetřování, odhalování či stíhání trestných činů či výkonu trestů, včetně ochrany před hrozbami pro veřejnou bezpečnost a jejich předcházení, nebo
b)
ethvert andet organ eller enhver anden enhed, som i henhold til medlemsstaternes nationale ret udøver offentlig myndighed og offentlige beføjelser med henblik på at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner, herunder beskytte mod og forebygge trusler mod den offentlige sikkerhed
b)
jakýkoliv jiný orgán nebo subjekt pověřený právem členského státu plnit veřejnou funkci a vykonávat veřejnou moc pro účely prevence, vyšetřování, odhalování či stíhání trestných činů či výkonu trestů, včetně ochrany před hrozbami pro veřejnou bezpečnost a jejich předcházení;
46)
»retshåndhævelse«: aktiviteter, som udføres af retshåndhævende myndigheder eller på deres vegne, med hensyn til at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner, herunder beskytte mod og forebygge trusler mod den offentlige sikkerhed
46)
„vymáháním práva“ činnosti prováděné donucovacími orgány nebo jejich jménem za účelem prevence, vyšetřování, odhalování či stíhání trestných činů nebo výkonu trestů, včetně ochrany před hrozbami pro veřejnou bezpečnost a jejich předcházení;
47)
»AI-kontoret«: Kommissionens funktion med at bidrage til gennemførelsen og overvågningen af og tilsynet med AI-systemer og AI-modeller til almen brug og AI-forvaltning, der er fastsat i Kommissionens afgørelse af 24. januar 2024; henvisninger i denne forordning til AI-kontoret forstås som henvisninger til Kommissionen
47)
„úřadem pro AI“ úloha Komise přispívat k zavádění a monitorování systémů AI a obecných modelů AI a k dohledu nad nimi, a správy AI jak je stanoveno v rozhodnutí Komise ze dne 24. ledna. 2024; odkazy na úřad pro AI v tomto nařízení se považují za odkazy na Komisi;
48)
»national kompetent myndighed«: en bemyndigende myndighed eller en markedsovervågningsmyndighed; for så vidt angår AI-systemer, der tages i brug eller anvendes af EU-institutioner, -agenturer, -kontorer og -organer, forstås henvisninger til nationale kompetente myndigheder eller markedsovervågningsmyndigheder i denne forordning som henvisninger til Den Europæiske Tilsynsførende for Databeskyttelse
48)
„příslušným vnitrostátním orgánem“ oznamující orgán nebo orgán dozoru nad trhem; pokud jde o systémy AI uváděné do provozu nebo používané orgány, institucemi a jinými subjekty Unie, odkazy na příslušné vnitrostátní orgány nebo orgány dozoru nad trhem v tomto nařízení se považují za odkazy na Evropského inspektora ochrany údajů;
49)
»alvorlig hændelse«: en hændelse eller funktionsfejl i et AI-system, som direkte eller indirekte fører til et af følgende udfald:
49)
„závažným incidentem“ incident nebo chybné fungování systému AI, které přímo nebo nepřímo vedou k některému z těchto následků:
a)
et menneskes død eller alvorlig skade på et menneskes helbred
a)
smrt určité osoby nebo závažné poškození zdraví určité osoby;
b)
en alvorlig og uoprettelig forstyrrelse i forvaltningen eller driften af kritisk infrastruktur
b)
závažné a nevratné narušení správy nebo provozu kritické infrastruktury;
c)
overtrædelse af forpligtelser i henhold til den del af EU-retten, der har til formål at beskytte de grundlæggende rettigheder
c)
porušení povinností vyplývajících z práva Unie, jejichž účelem je ochrana základních práv;
d)
alvorlig skade på ejendom eller miljøet
d)
závažné poškození majetku nebo životního prostředí;
50)
»personoplysninger«: personoplysninger som defineret i artikel 4, nr. 1), i forordning (EU) 2016/679
50)
„osobními údaji“ osobní údaje ve smyslu čl. 4 bodu 1 nařízení (EU) 2016/679;
51)
»andre data end personoplysninger«: andre data end personoplysninger som defineret i artikel 4, nr. 1), i forordning (EU) 2016/679
51)
„neosobními údaji“ jiné než osobní údaje ve smyslu čl. 4 bodu 1 nařízení (EU) 2016/679;
52)
»profilering«: profilering som defineret artikel 4, nr. 4), i forordning (EU) 2016/679
52)
„profilováním“ profilování ve smyslu čl. 4 bodu 4 nařízení (EU) 2016/679;
53)
»plan for afprøvning under faktiske forhold«: et dokument, der beskriver mål, metode, geografisk, befolkningsmæssig og tidsmæssig rækkevidde, overvågning, tilrettelæggelse og gennemførelse af afprøvning under faktiske forhold
53)
„plánem testování v reálných podmínkách“ dokument, který popisuje cíle, metodiku, zeměpisnou oblast, populaci a časový rozsah, monitorování, organizaci a provádění testování v reálných podmínkách;
54)
»sandkasseplan«: et dokument, der er opnået enighed om mellem den deltagende udbyder og den kompetente myndighed, og som beskriver mål, betingelser, tidsramme, metode og kravene for de aktiviteter, der udføres inden for sandkassen
54)
„plánem testování v sandboxu“ dokument dohodnutý mezi zúčastněným poskytovatelem a příslušným orgánem obsahující popis cílů, podmínky, časový rámec, metodiku a požadavky na činnosti prováděné v rámci sandboxu;
55)
»reguleringsmæssig AI-sandkasse«: en kontrolleret ramme, som er oprettet af en kompetent myndighed, og som giver udbydere eller potentielle udbydere af AI-systemer mulighed for, hvis det er relevant, under faktiske forhold at udvikle, træne, validere og afprøve et innovativt AI-system i henhold til en sandkasseplan i en begrænset periode under reguleringsmæssigt tilsyn
55)
„regulačním sandboxem pro AI“ kontrolovaný rámec zřízený příslušným orgánem, který poskytovatelům nebo potenciálním poskytovatelům systémů AI nabízí možnost vyvíjet, trénovat, ověřovat a testovat inovativní systém AI, případně v reálných podmínkách, podle plánu testování v sandboxu po omezenou dobu pod regulačním dohledem;
56)
»AI-færdigheder«: færdigheder, viden og forståelse, der giver udbydere, idriftsættere og berørte personer mulighed for under hensyntagen til deres respektive rettigheder og forpligtelser i forbindelse med denne forordning at idriftsætte AI-systemer på et informeret grundlag samt at øge bevidstheden om muligheder og risici ved AI og den mulige skade, som den kan forvolde
56)
„gramotností v oblasti AI“ dovednosti, znalosti a chápání, které poskytovatelům, zavádějícím subjektům a dotčeným osobám umožňují, aby s přihlédnutím k jejich příslušným právům a povinnostem v souvislosti s tímto nařízením zaváděli systémy AI informovaným způsobem a aby si byli vědomi možností a rizik spojených s AI i možných škod, které může způsobit;
57)
»afprøvning under faktiske forhold«: midlertidig afprøvning af et AI-system med henblik på dets tilsigtede formål under faktiske forhold uden for et laboratorium eller på anden måde simuleret miljø med henblik på at indsamle pålidelige og solide data og vurdere og verificere AI-systemets overensstemmelse med kravene i denne forordning, og det er ikke ensbetydende med at bringe AI-systemet i omsætning eller ibrugtage det som omhandlet i denne forordning, forudsat at alle betingelserne i henhold til artikel 57 eller 60 er opfyldt
57)
„testováním v reálných podmínkách“ dočasné testování systému AI pro jeho zamýšlený účel v reálných podmínkách mimo laboratoř nebo jinak simulované prostředí za účelem shromažďování spolehlivých a hodnověrných údajů a posuzování a ověřování shody systému AI s požadavky tohoto nařízení, u něhož nejsou naplněny podmínky spojené s uváděním systému AI na trh nebo do provozu ve smyslu tohoto nařízení, jsou-li splněny všechny podmínky stanovené v článcích 57 nebo 60;
58)
»forsøgsperson« med henblik på afprøvning under faktiske forhold: en fysisk person, der deltager i afprøvning under faktiske forhold
58)
„subjektem“ pro účely testování v reálných podmínkách fyzická osoba, která se účastní testování v reálných podmínkách;
59)
»informeret samtykke«: en forsøgspersons frie, specifikke, utvetydige og frivillige tilkendegivelse af sin vilje til at deltage i en bestemt afprøvning under faktiske forhold efter at være blevet informeret om alle aspekter af afprøvningen, der er relevante for forsøgspersonens beslutning om at deltage
59)
„informovaným souhlasem“ svobodný, konkrétní, jednoznačný a dobrovolný projev vůle subjektu účastnit se konkrétního testování v reálných podmínkách poté, co byl informován o všech aspektech testování, které jsou relevantní pro rozhodnutí subjektu účastnit se;
60)
»deepfake«: et ved hjælp af AI genereret eller manipuleret billed-, lyd- eller videoindhold, der i væsentlig grad ligner faktiske personer, genstande, steder, enheder eller begivenheder, og som fejlagtigt vil fremstå ægte eller sandfærdigt
60)
„deep fake“ obrazový, zvukový nebo video obsah vytvořený nebo manipulovaný umělou inteligencí, který se podobá existujícím osobám, objektům, místům subjektům či událostem a který by se dané osobě mohl nepravdivě jevit jako autentický nebo pravdivý;
61)
»udbredt overtrædelse«: enhver handling eller undladelse, der er i strid med EU-retten, som beskytter enkeltpersoners interesser, og som:
61)
„rozsáhlým porušením práva“ jakékoli jednání nebo opomenutí, které je v rozporu s právem Unie na ochranu zájmů jednotlivců a které:
a)
har skadet eller må antages at kunne skade de kollektive interesser for enkeltpersoner med bopæl i mindst to medlemsstater ud over den medlemsstat, hvor:
a)
poškodilo nebo by mohlo poškodit společné zájmy jednotlivců s bydlištěm v nejméně dvou jiných členských státech, než je členský stát, v němž:
i)
handlingen eller undladelsen har sin oprindelse eller har fundet sted
i)
má předmětné jednání nebo opomenutí původ nebo v němž k němu došlo;
ii)
den pågældende udbyder eller, hvis det er relevant, dennes bemyndigede repræsentant befinder sig eller er etableret, eller
ii)
je usazen dotčený poskytovatel nebo případně jeho zplnomocněný zástupce, nebo
iii)
idriftsætteren er etableret, når overtrædelsen bliver begået af idriftsætteren
iii)
je usazen zavádějící subjekt, pokud se protiprávního jednání dopustil takový subjekt;
b)
har skadet, skader eller må antages at kunne skade enkeltpersoners kollektive interesser og har fælles træk, herunder samme ulovlige praksis og tilsidesættelse af den samme interesse, og begås samtidigt af den samme operatør i mindst tre medlemsstater
b)
poškodilo, poškozuje nebo může poškodit společné zájmy jednotlivců a které má společné rysy, včetně stejných protiprávních praktik nebo porušení téhož zájmu, a vyskytuje se souběžně nejméně ve třech členských státech, přičemž se jej dopouští stejný provozovatel;
62)
»kritisk infrastruktur«: kritisk infrastruktur som defineret i artikel 2, nr. 4), i direktiv (EU) 2022/2557
62)
„kritickou infrastrukturou“ kritická infrastruktura ve smyslu čl. 2 bodu 4 směrnice (EU) 2022/2557;
63)
»AI-model til almen brug«: en AI-model, herunder når en sådan AI-model er trænet med en stor mængde data ved hjælp af selvovervågning i stor skala, som udviser betydelig generalitet og har kompetence til at udføre en lang række forskellige opgaver, uanset hvordan modellen bringes i omsætning, og som kan integreres i en række downstreamsystemer eller -applikationer, bortset fra AI-modeller, der anvendes til forsknings-, udviklings- og prototypeaktiviteter, inden de bringes i omsætning
63)
„obecným modelem AI“ model AI, včetně případů, kdy je tento model AI trénován velkým množstvím dat s využitím vlastního dohledu ve velkém měřítku, který vykazuje významnou obecnost a je schopen kompetentně plnit širokou škálu různých úkolů bez ohledu na způsob, jakým je daný model uveden na trh, a který lze začlenit do různých navazujících systémů nebo aplikací, s výjimkou modelů AI, které se používají pro činnosti výzkumu, vývoje nebo činnosti zaměřené na tvorbu prototypů před jejich uvedením na trh;
64)
»kapaciteter med stor virkning«: kapaciteter, som svarer til eller overstiger de kapaciteter, der er registreret i de mest avancerede AI-modeller til almen brug
64)
„schopnostmi s velkým dopadem“ schopnosti, které odpovídají schopnostem zaznamenaným v nejpokročilejších obecných modelech AI nebo je překračují;
65)
»systemisk risiko«: en risiko, der er specifik for kapaciteter med stor virkning i AI-modeller til almen brug, og som har betydelig indvirkning på EU-markedet på grund af deres omfang eller på grund af faktiske negative virkninger, der med rimelighed kan forudses, for folkesundheden, sikkerheden, den offentlige sikkerhed, de grundlæggende rettigheder eller samfundet som helhed, som kan opformeres i stor skala i hele værdikæden
65)
„systémovým rizikem“ riziko, které je specifické pro schopnosti s velkým dopadem u obecných modelů AI, které má významný dopad na trh Unie v důsledku dosahu takových modelů nebo v důsledku skutečných či rozumně předvídatelných negativních dopadů na veřejné zdraví, bezpečnost, veřejnou bezpečnost, základní práva nebo společnost jako celek, které lze šířit ve velkém měřítku v celém hodnotovém řetězci;
66)
»AI-system til almen brug«: et AI-system, som er baseret på en AI-model til almen brug, og som har kapacitet til at opfylde en række forskellige formål, både til direkte anvendelse og til integration i andre AI-systemer
66)
„obecným systémem AI“ systém AI založený na obecném modelu AI, který je schopen sloužit různým účelům, a to jak pro přímé použití, tak pro integraci do jiných systémů AI;
67)
»flydende kommatalsberegning«: enhver matematisk beregning eller ligning, der omfatter flydende kommatal, som er en delmængde af de reelle tal, der typisk vises på computere i form af et heltal med fast præcision, som justeres med en heltalseksponent med fastlagt basis
67)
„operací s pohyblivou řádovou čárkou“ jakákoli matematická operace nebo přiřazení zahrnující čísla s pohyblivou řádovou čárkou, což je podmnožina reálných čísel v počítači obvykle reprezentovaných celým číslem s pevně danou přesností, násobeným celočíselným exponentem pevného základu;
68)
»downstreamudbyder«: en udbyder af et AI-system, herunder et AI-system til almen brug, som integrerer en AI-model, uanset om AI-modellen leveres af udbyderen selv og integreres vertikalt eller leveres af en anden enhed på grundlag af kontraktforhold.
68)
„navazujícím poskytovatelem“ poskytovatel systému AI, včetně obecného systému AI, který integruje model AI, bez ohledu na to, zda je model AI poskytován tímto samotným poskytovatelem a je vertikálně integrovaný, nebo zda je poskytován jiným subjektem na základě smluvních vztahů.
Artikel 4
Článek 4
AI-færdigheder
Gramotnost v oblasti AI
Udbydere og idriftsættere af AI-systemer træffer foranstaltninger til i videst muligt omfang at sikre et tilstrækkeligt niveau af AI-færdigheder hos deres personale og andre personer, der er involveret i drift og anvendelse af AI-systemer på deres vegne, og tager herved hensyn til disse personers tekniske viden, erfaring og uddannelse og den kontekst, hvori AI-systemerne skal anvendes, og de personer eller grupper af personer, som AI-systemerne skal anvendes på.
Poskytovatelé systémů AI a subjekty zavádějící AI přijímají opatření, aby v co největší možné míře zajistili dostatečnou úroveň gramotnosti v oblasti AI u svých zaměstnanců i u všech dalších osob, které se jejich jménem zabývají provozem a používáním systémů AI, s přihlédnutím k jejich technickým znalostem, zkušenostem, vzdělání a odborné přípravě a prostředí, v němž mají být systémy AI používány, a s ohledem na osoby nebo skupiny osob, na kterých mají být systémy AI používány.
KAPITEL II
KAPITOLA II
FORBUDTE FORMER FOR AI-PRAKSIS
ZAKÁZANÉ POSTUPY V OBLASTI UMĚLÉ INTELIGENCE
Artikel 5
Článek 5
Forbudte former for AI-praksis
Zakázané postupy v oblasti AI
1. Følgende former for AI-praksis er forbudt:
1. Zakazují se následující postupy v oblasti AI:
a)
omsætning, ibrugtagning eller anvendelse af et AI-system, der anvender subliminale teknikker, der rækker ud over den menneskelige bevidsthed, eller bevidst manipulerende eller vildledende teknikker med henblik på eller med det resultat i væsentlig grad at fordreje en persons eller en gruppe af personers adfærd ved betydeligt at hæmme dennes evne til at træffe informerede beslutninger, hvilket får dem til at træffe en beslutning, som de ellers ikke ville have truffet, på en måde, der forvolder eller med rimelig sandsynlighed vil forvolde den pågældende person, en anden person eller en gruppe af personer betydelig skade
a)
uvádění na trh, uvádění do provozu nebo používání systémů AI, které využívají podprahových technik mimo vědomí osob nebo záměrně manipulativních či klamavých technik, jejichž cílem nebo důsledkem je podstatné narušení chování osoby nebo skupiny osob tím, že znatelně zhoršují jejich schopnost učinit informované rozhodnutí, což vede k tomu, že přijmou rozhodnutí, které by jinak neučinily, což dotčené osobě, jiné osobě nebo skupině osob způsobuje nebo by s přiměřenou pravděpodobností mohlo způsobit významnou újmu;
b)
omsætning, ibrugtagning eller anvendelse af et AI-system, der hos en fysisk person eller en specifik gruppe af personer udnytter sårbarheder på grundlag af alder, handicap eller en særlig social eller økonomisk situation med henblik på eller med det resultat i væsentlig grad at fordreje den pågældende persons eller en til gruppen hørende persons adfærd på en måde, der forvolder eller med rimelig sandsynlighed vil forvolde den pågældende person eller en anden person betydelig skade
b)
uvádění na trh, uvádění do provozu nebo používání systémů AI, které využívají zranitelnosti fyzické osoby nebo určité skupiny osob v důsledku jejich věku, zdravotního postižení nebo specifické sociální nebo ekonomické situace a jejichž cílem nebo důsledkem je podstatné narušení chování této osoby nebo osoby náležející k této skupině tak, že to dotčené osobě nebo jiné osobě způsobuje nebo by s přiměřenou pravděpodobností mohlo způsobit významnou újmu;
c)
omsætning, ibrugtagning eller anvendelse af AI-systemer til evaluering eller klassificering af fysiske personer eller grupper af personer over en given periode på grundlag af deres sociale adfærd eller kendte, udledte eller forudsagte personlige egenskaber eller personlighedstræk, således at den sociale bedømmelse fører til et af eller begge følgende udfald:
c)
uvádění na trh, uvádění do provozu nebo používání systémů AI pro hodnocení nebo klasifikace fyzických osob nebo skupin osob v určitém časovém úseku na základě jejich sociálního chování nebo známých, odvozených nebo předvídaných osobních či osobnostních vlastností, přičemž výsledný sociální kredit vede k jednomu nebo oběma následujícím důsledkům:
i)
skadelig eller ugunstig behandling af visse fysiske personer eller grupper af personer i sociale sammenhænge, som ikke har noget at gøre med de sammenhænge, i hvilke dataene oprindeligt blev genereret eller indsamlet
i)
ke znevýhodňujícímu nebo nepříznivému zacházení s některými fyzickými osobami nebo skupinami osob v sociálních kontextech nesouvisejících s kontextem, ve kterém byly dané údaje původně vytvořeny nebo shromážděny;
ii)
skadelig eller ugunstig behandling af visse fysiske personer eller grupper af personer, som er uberettiget eller uforholdsmæssig i forhold til deres sociale adfærd eller betydningen heraf
ii)
ke znevýhodňujícímu nebo nepříznivému zacházení s některými fyzickými osobami nebo skupinami těchto osob, které je neodůvodněné nebo nepřiměřené jejich sociálnímu chování nebo jeho závažnosti;
d)
omsætning, ibrugtagning til dette specifikke formål eller anvendelse af et AI-system til at foretage risikovurderinger af fysiske personer for at vurdere eller forudsige risikoen for, at en fysisk person begår en strafbar handling, hvilket alene er baseret på profilering af en fysisk person eller en vurdering af deres personlighedstræk og personlige egenskaber; dette forbud finder ikke anvendelse på AI-systemer, der anvendes til at understøtte den menneskelige vurdering af en persons involvering i en kriminel aktivitet, som allerede er baseret på objektive og verificerbare kendsgerninger, der er direkte knyttet til en kriminel aktivitet
d)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů AI pro posuzování rizik fyzických osob s cílem posoudit nebo předvídat riziko, že fyzická osoba spáchá trestný čin, a to výhradně na základě profilování fyzické osoby nebo posouzení jejích osobnostních znaků a vlastností; tento zákaz se nevztahuje na systémy AI používané na podporu lidského posouzení zaměřeného na zapojení osoby do trestné činnosti, které je již založeno na objektivních a ověřitelných skutečnostech přímo souvisejících s trestnou činností;
e)
omsætning, ibrugtagning til dette specifikke formål eller anvendelse af AI-systemer, der opretter eller udvider ansigtsgenkendelsesdatabaser gennem ikkemålrettet indsamling af ansigtsbilleder fra internettet eller kameraovervågning
e)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů AI, které vytvářejí nebo rozšiřují databáze rozpoznávání obličeje prostřednictvím necíleného získávání zobrazení obličeje z internetu nebo kamerových záznamů;
f)
omsætning, ibrugtagning til dette specifikke formål eller anvendelse af AI-systemer til at udlede følelser hos en fysisk person på arbejdspladser og uddannelsesinstitutioner, undtagen hvis anvendelsen af AI-systemet er tilsigtet at blive bragt i omsætning af medicinske eller sikkerhedsmæssige årsager
f)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů AI s cílem odvodit emoce fyzické osoby na pracovišti a ve vzdělávacích institucích, s výjimkou případů, kdy je použití systému AI určeno k zavedení či k uvedení na trh z lékařských nebo bezpečnostních důvodů;
g)
omsætning, ibrugtagning til dette specifikke formål eller anvendelse af systemer til biometrisk kategorisering, som kategoriserer fysiske personer individuelt på grundlag af deres biometriske data med henblik på at udlede deres race, politiske anskuelser, fagforeningsmedlemskab, religiøse eller filosofiske overbevisning, seksuelle forhold eller seksuelle orientering; dette forbud omfatter ikke mærkning eller filtrering af lovligt indhentede biometriske datasæt såsom billeder på grundlag af biometriske data eller kategorisering af biometriske data på retshåndhævelsesområdet
g)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů biometrické kategorizace, které jednotlivě kategorizují fyzické osoby na základě jejich biometrických údajů za účelem dovození nebo odvození jejich rasy, politických názorů, členství v odborových organizacích, náboženského nebo filozofického přesvědčení, sexuálního života nebo sexuální orientace; tento zákaz se nevztahuje na označování nebo filtrování legálně získaných souborů biometrických údajů, jako jsou snímky, na základě biometrických údajů nebo kategorizace biometrických údajů v oblasti vymáhání práva;
h)
anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse, medmindre og i det omfang en sådan anvendelse er strengt nødvendig til et af følgende formål:
h)
používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva, pokud to není nezbytně nutné pro jeden z následujících cílů, a jen v nezbytně nutné míře:
i)
målrettet eftersøgning af specifikke ofre for bortførelse, menneskehandel eller seksuel udnyttelse af mennesker samt eftersøgning af forsvundne personer
i)
cílené vyhledávání určitých obětí únosů, obchodování s lidmi nebo sexuálního vykořisťování lidí, jakož i vyhledávání pohřešovaných osob;
ii)
forebyggelse af en specifik, væsentlig og overhængende trussel mod fysiske personers liv eller fysiske sikkerhed eller en reel og aktuel eller reel og forudsigelig trussel om et terrorangreb
ii)
prevence konkrétního, závažného a bezprostředního ohrožení života nebo fyzické bezpečnosti fyzických osob nebo skutečného a bezprostředního či skutečného a předvídatelného teroristického útoku;
iii)
lokalisering eller identifikation af en person, der mistænkes for at have begået en strafbar handling, med henblik på en strafferetlig efterforskning af eller retsforfølgning eller fuldbyrdelse af en strafferetlig sanktion for overtrædelser, der er omhandlet i bilag II, og som i den pågældende medlemsstat kan straffes med frihedsstraf eller en anden frihedsberøvende foranstaltning af en maksimal varighed på mindst fire år.
iii)
lokalizace nebo identifikace osoby podezřelé ze spáchání trestného činu, za účelem trestního vyšetřování, stíhání nebo výkonu trestu za trestné činy uvedené v příloze II, za něž lze v dotčeném členském státě uložit trest odnětí svobody nebo ochranné opatření spojené s odnětím osobní svobody v maximální délce nejméně čtyři roky.
Første afsnit, litra h), berører ikke artikel 9 i forordning (EU) 2016/679 med hensyn til behandling af biometriske data til andre formål end retshåndhævelse.
Prvním pododstavcem písm. h) není dotčen článek 9 nařízení (EU) 2016/679, pokud jde o zpracování biometrických údajů pro jiné účely, než je vymáhání práva.
2. Anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse til et af de i stk. 1, første afsnit, litra h), omhandlede formål må kun idriftsættes til de formål, der er fastsat i nævnte litra, for at bekræfte den specifikt målrettede persons identitet og skal tage hensyn til følgende elementer:
2. Používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva pro některý z cílů uvedených v odst. 1 prvním pododstavci písm. h) se zavede pro účely stanovené v daném ustanovení pouze k potvrzení totožnosti konkrétně cílené fyzické osoby a zohlední tyto prvky:
a)
karakteren af den situation, der giver anledning til den mulige anvendelse, navnlig alvorligheden, sandsynligheden og omfanget af den skade, der ville blive forvoldt, hvis systemet ikke blev anvendt
a)
povahu situace, která vede k jejich potenciálnímu použití, zejména závažnost, pravděpodobnost a rozsah újmy, která by byla způsobena v případě, že by systém použit nebyl;
b)
konsekvenserne for alle de berørte personers rettigheder og friheder, navnlig alvorligheden, sandsynligheden og omfanget af disse konsekvenser, hvis systemet anvendes.
b)
důsledky používání systému pro práva a svobody všech dotčených osob, zejména závažnost, pravděpodobnost a rozsah těchto důsledků.
Ved anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse til et af de i denne artikels stk. 1, første afsnit, litra h), omhandlede formål overholdes desuden nødvendige og forholdsmæssige sikkerhedsforanstaltninger og betingelser vedrørende anvendelsen i overensstemmelse med den nationale ret, der tillader anvendelse heraf, navnlig for så vidt angår tidsmæssige, geografiske og personmæssige begrænsninger. Anvendelsen af systemet til biometrisk fjernidentifikation i realtid på offentlige steder tillades kun, hvis den retshåndhævende myndighed har gennemført en konsekvensanalyse vedrørende grundlæggende rettigheder som fastsat i artikel 27 og har registreret systemet i EU-databasen i overensstemmelse med artikel 49. I behørigt begrundede hastende tilfælde kan anvendelsen af sådanne systemer dog påbegyndes uden registrering i EU-databasen, forudsat at registreringen afsluttes uden unødigt ophold.
Použití systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva pro dosažení kteréhokoli z cílů uvedených v odst. 1 prvním pododstavci písm. h) tohoto článku musí být navíc v souladu s nezbytnými a přiměřenými zárukami a podmínkami ve vztahu k použití podle vnitrostátního práva, jež použití takových systémů povoluje, zejména pokud jde o časová, zeměpisná a osobní omezení. Používání systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech je povoleno pouze v případě, že donucovací orgán dokončil posouzení dopadů na základní práva podle článku 27 a zaregistroval systém v databázi EU podle článku 49. V řádně odůvodněných naléhavých případech však může být používání těchto systémů zahájeno bez registrace v databázi EU, pokud je tato registrace provedena bez zbytečného odkladu.
3. Med henblik på stk. 1, første afsnit, litra h), og stk. 2, er hver anvendelse af et system til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse betinget af en forudgående tilladelse, der er udstedt af en judiciel myndighed eller en uafhængig administrativ myndighed, hvis afgørelse er bindende i den medlemsstat, hvor anvendelsen skal finde sted, på grundlag af en begrundet anmodning og i overensstemmelse med de nærmere regler i national ret, jf. stk. 5. I behørigt begrundede hastende tilfælde kan anvendelsen af et sådant system dog påbegyndes uden tilladelse, på betingelse af at der anmodes om en sådan tilladelse uden unødigt ophold og senest inden for 24 timer. Hvis en sådan tilladelse afvises, bringes anvendelsen straks til ophør, og alle data såvel som resultater og output af denne anvendelse kasseres og slettes omgående.
3. Pro účely odst. 1 prvního pododstavce písm. h) a odstavce 2 každé použití systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva podléhá předchozímu povolení ze strany justičního orgánu nebo nezávislého správního orgánu, jehož rozhodnutí je závazné a jenž se nachází v členském státě, ve kterém má k tomuto použití dojít, přičemž toto povolení je vydáno na základě odůvodněné žádosti a v souladu s podrobnými pravidly vnitrostátního práva uvedenými v odstavci 5. V řádně odůvodněné naléhavé situaci však může být používání systému zahájeno bez povolení za předpokladu, že se o takové povolení požádá bez zbytečného odkladu, nejpozději do 24 hodin. Je-li takové povolení zamítnuto, použití se s okamžitým účinkem zastaví a veškeré údaje, jakož i výsledky a výstupy tohoto použití se okamžitě vyřadí a vymažou.
Den kompetente judicielle myndighed eller en uafhængig administrativ myndighed, hvis afgørelse er bindende, udsteder kun tilladelsen, hvis den på grundlag af objektive beviser eller klare indikationer, den får forelagt, finder det godtgjort, at anvendelsen af det pågældende system til biometrisk fjernidentifikation i realtid er nødvendig og forholdsmæssig for at opfylde et af de i stk. 1, første afsnit, litra h), anførte formål som anført i anmodningen og navnlig fortsat begrænses til, hvad der er strengt nødvendigt for så vidt angår tidsperioden samt det geografiske og personmæssige anvendelsesområde. Når den pågældende myndighed træffer afgørelse om anmodningen, tager den hensyn til de i stk. 2 omhandlede elementer. Der må ikke træffes nogen afgørelse, der har negative retsvirkninger for en person, udelukkende baseret på outputtet af systemet til efterfølgende biometrisk fjernidentifikation i realtid.
Příslušný justiční orgán nebo nezávislý správní orgán, jehož rozhodnutí je závazné, udělí povolení pouze v případě, že je na základě objektivních důkazů nebo jednoznačných údajů, které mu byly předloženy, přesvědčen, že použití dotčeného systému biometrické identifikace na dálku v reálném čase je nezbytné a přiměřené k dosažení jednoho z cílů specifikovaných v odst. 1 prvním pododstavci písm. h), který je uveden v žádosti, a zejména je omezeno na to, co je nezbytně nutné, pokud jde o dobu, jakož i zeměpisný a osobní rozsah. Při rozhodování o žádosti zohlední tento orgán skutečnosti uvedené v odstavci 2. Výlučně na základě výstupu systému biometrické identifikace na dálku v reálném čase nelze přijmout žádné rozhodnutí, které má pro určitou osobu nepříznivé právní účinky.
4. Uden at det berører stk. 3, skal hver anvendelse af et system til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse meddeles den relevante markedsovervågningsmyndighed og den nationale databeskyttelsesmyndighed i overensstemmelse med de nationale regler, jf. stk. 5. Meddelelsen skal som minimum indeholde de oplysninger, der er anført i stk. 6, og må ikke indeholde følsomme operationelle data.
4. Aniž je dotčen odstavec 3, každé použití systému biometrické identifikace na dálku v reálném čase na veřejně přístupných prostorech se pro účely vymáhání práva oznámí příslušnému orgánu dozoru nad trhem a vnitrostátnímu orgánu pro ochranu osobních údajů v souladu s vnitrostátními pravidly uvedenými v odstavci 5. Oznámení obsahuje přinejmenším informace uvedené v odstavci 6 a nezahrnuje citlivé operativní údaje.
5. En medlemsstat kan beslutte at give mulighed for helt eller delvist at tillade anvendelse af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse inden for de begrænsninger og på de betingelser, der er nævnt i stk. 1, første afsnit, litra h), og stk. 2 og 3. De pågældende medlemsstater fastsætter i deres nationale ret de nødvendige nærmere regler for anmodning om, udstedelse af og benyttelse af samt tilsyn og indberetning i forbindelse med de i stk. 3 omhandlede tilladelser. Disse regler præciserer også, til hvilke af de i stk. 1, første afsnit, litra h), anførte formål, herunder for hvilke af de i litra h), nr. iii), nævnte strafbare handlinger, de kompetente myndigheder kan få tilladelse til at anvende disse systemer med henblik på retshåndhævelse. Medlemsstaterne meddeler Kommissionen disse regler senest 30 dage efter vedtagelsen heraf. Medlemsstaterne kan i overensstemmelse med EU-retten indføre mere restriktiv lovgivning om anvendelsen af systemer til biometrisk fjernidentifikation.
5. Členský stát se může rozhodnout, že umožní plně nebo částečně povolit používání systémů biometrické identifikace na dálku v reálném čase na veřejně přístupných prostorech pro účely vymáhání práva v mezích a za podmínek uvedených v odst. 1 prvním pododstavci písm. h) a v odstavcích 2 a 3. Dotčené členské státy ve svém vnitrostátním právu stanoví nezbytná podrobná pravidla upravující žádosti o povolení uvedená v odstavci 3, vydávání a výkon těchto povolení, jakož i dohled nad nimi a podávání zpráv o nich. Tato pravidla rovněž stanoví, ve vztahu ke kterému cíli uvedenému v odst. 1 prvním pododstavci písm. h) a ke kterému trestnému činu uvedenému v písm. h) bodu iii) tohoto odstavce lze příslušným orgánům používání těchto systémů pro účely vymáhání práva povolit. Členské státy tato pravidla nejpozději 30 dnů po jejich přijetí oznámí Komisi. Členské státy mohou v souladu s právem Unie zavést přísnější právní předpisy týkající se používání systémů biometrické identifikace na dálku.
6. De nationale markedsovervågningsmyndigheder og de nationale databeskyttelsesmyndigheder i de medlemsstater, der er blevet underrettet om anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse i henhold til stk. 4, forelægger Kommissionen årlige rapporter om en sådan anvendelse. Med henblik herpå stiller Kommissionen efter anmodning om tilladelser i overensstemmelse med stk. 3 og resultatet heraf en skabelon til rådighed for medlemsstaterne og de nationale markedsovervågnings- og databeskyttelsesmyndigheder, herunder oplysninger om antallet af afgørelser, der er truffet af de kompetente judicielle myndigheder eller en uafhængig administrativ myndighed, hvis afgørelse er bindende.
6. Vnitrostátní orgány dozoru nad trhem a vnitrostátní orgány pro ochranu osobních údajů členských států, které byly informovány o používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva podle odstavce 4, předkládají Komisi ohledně tohoto používání výroční zprávy. Za tímto účelem poskytne Komise členským státům a vnitrostátním orgánům dozoru nad trhem a orgánům pro ochranu osobních údajů vzor, včetně informací o počtu rozhodnutí přijatých příslušnými justičními orgány nebo nezávislým správním orgánem, jejichž rozhodnutí je v případě žádostí o povolení v souladu s odstavcem 3 závazné, a o jejich výsledku.
7. Kommissionen offentliggør årlige rapporter om anvendelsen af systemer til biometrisk fjernidentifikation i realtid på offentlige steder med henblik på retshåndhævelse på grundlag af aggregerede data i medlemsstaterne, der bygger på de i stk. 6 omhandlede årlige rapporter. Disse rapporter må ikke indeholde følsomme operationelle data om de tilknyttede retshåndhævelsesaktiviteter.
7. Pro účely vymáhání práva Komise zveřejňuje výroční zprávy o používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech, a to na základě souhrnných údajů o členských státech vycházejících z výročních zpráv podle odstavce 6. Tyto výroční zprávy neobsahují citlivé operativní údaje o souvisejících činnostech v oblasti vymáhání práva.
8. Denne artikel berører ikke de forbud, der gælder, hvis en form for AI-praksis overtræder anden EU-ret.
8. Tímto článkem nejsou dotčeny zákazy, které se použijí v případě, že postupy AI porušují jiné právo Unie.
KAPITEL III
KAPITOLA III
HØJRISIKO-AI-SYSTEMER
POŽADAVKY NA VYSOCE RIZIKOVÉ SYSTÉMY AI
AFDELING 1
ODDÍL 1
Klassificering af AI-systemer som højrisiko
Klasifikace systémů AI jako vysoce rizikových
Artikel 6
Článek 6
Klassificeringsregler for højrisiko-AI-systemer
Klasifikační pravidla pro vysoce rizikové systémy AI
1. Uanset om et AI-system bringes i omsætning eller ibrugtages uafhængigt af de i litra a) og b) omhandlede produkter, betragtes AI-systemet som højrisiko, hvis begge følgende betingelser er opfyldt:
1. Bez ohledu na to, zda je určitý systém AI uváděn na trh nebo do provozu nezávisle na produktech uvedených v písmenech a) a b), je tento systém AI považován za vysoce rizikový, jsou-li splněny obě následující podmínky:
a)
AI-systemet tilsigtes anvendt som en sikkerhedskomponent i et produkt, eller AI-systemet er i sig selv et produkt, der er omfattet af den EU-harmoniseringslovgivning, der er anført i bilag I.
a)
daný systém AI je určen k použití jako bezpečnostní komponenta produktu nebo je samotný tento systém AI produktem, na který se vztahují harmonizační právní předpisy Unie uvedené v příloze I;
b)
Det produkt, hvis sikkerhedskomponent i henhold til litra a) er AI-systemet, eller AI-systemet selv som et produkt skal underkastes en overensstemmelsesvurdering foretaget af en tredjepart med henblik på omsætning eller ibrugtagning af produktet i henhold til den EU-harmoniseringslovgivning, der er anført i bilag I.
b)
na produkt, jehož je daný systém AI bezpečnostní komponentou podle bodu a), případně na samotný tento systém AI jako produkt se vztahuje povinnost posouzení shody třetí stranou za účelem uvedení tohoto produktu na trh nebo do provozu podle harmonizačních právních předpisů Unie uvedených v příloze I.
2. Ud over de højrisiko-AI-systemer, der er omhandlet i stk. 1, betragtes de AI-systemer, der er omhandlet i bilag III, også som højrisiko.
2. Kromě vysoce rizikových systémů AI uvedených v odstavci 1 jsou za vysoce rizikové považovány systémy AI uvedené v příloze III.
3. Uanset stk. 2 betragtes et AI-system, der er omhandlet i bilag III, ikke som højrisiko, hvis det ikke udgør en væsentlig risiko for skade på sundheden, sikkerheden eller fysiske personers grundlæggende rettigheder, herunder ved ikke i væsentlig grad at påvirke resultatet af beslutningstagning.
3. Odchylně od odstavce 2 se systém AI uvedený v příloze III za vysoce rizikový nepovažuje, pokud nepředstavuje významné riziko újmy na zdraví, bezpečnosti nebo základních právech fyzických osob, a to ani tím, že by podstatně ovlivňoval výsledek rozhodování.
Første afsnit finder anvendelse, hvis enhver af følgende betingelser er opfyldt:
První pododstavec se použije, pokud je splněna některá z následujících podmínek:
a)
AI-systemet tilsigtes at udføre en snæver proceduremæssig opgave
a)
systém AI je zamýšlen k plnění úzce zaměřeného procesního úkolu;
b)
AI-systemet tilsigtes at forbedre resultatet af en tidligere afsluttet menneskelig aktivitet
b)
systém AI je zamýšlen ke zlepšení výsledku dříve dokončené lidské činnosti;
c)
AI-systemet tilsigtes at påvise beslutningsmønstre eller afvigelser fra tidligere beslutningsmønstre og er ikke tiltænkt at skulle erstatte eller påvirke en tidligere afsluttet menneskelig vurdering uden en ordentlig menneskelig gennemgang, eller
c)
systém AI je zamýšlen k odhalování vzorců rozhodování nebo odchylek od předchozích vzorců rozhodování a nemá bez řádného lidského přezkumu nahradit nebo ovlivnit dříve dokončené lidské posouzení, nebo
d)
AI-systemet tilsigtes at udføre en forberedende opgave inden en vurdering, der er relevant for de anvendelsestilfælde, der er anført i bilag III.
d)
systém AI je zamýšlen k provedení přípravného úkolu v rámci posouzení, jež je relevantní pro účely případů použití uvedených v příloze III.
Uanset første afsnit betragtes et AI-system, der er omhandlet i bilag III, altid som højrisiko, hvis AI-systemet udfører profilering af fysiske personer.
Bez ohledu na první pododstavec se systém AI uvedený v příloze III za vysoce rizikový považuje vždy, pokud provádí profilování fyzických osob.
4. En udbyder, som finder, at et AI-system, der er omhandlet i bilag III, ikke er højrisiko, skal dokumentere sin vurdering, inden det pågældende system bringes i omsætning eller ibrugtages. En sådan udbyder er underlagt registreringsforpligtelsen i artikel 49, stk. 2. Efter anmodning fra de nationale kompetente myndigheder fremlægger udbyderen dokumentation for vurderingen.
4. Poskytovatel, který se domnívá, že určitý systém AI uvedený v příloze III není vysoce rizikový, své posouzení zdokumentuje před uvedením tohoto systému na trh nebo do provozu. Na tohoto poskytovatele se vztahuje povinnost registrace stanovená v čl. 49 odst. 2. Na žádost příslušných vnitrostátních orgánů předloží poskytovatel dokumentaci o posouzení.
5. Kommissionen udarbejder efter høring af Det Europæiske Udvalg for Kunstig Intelligens (»AI-udvalget«) og senest den 2. februar 2026 retningslinjer, der præciserer den praktiske gennemførelse af denne artikel i overensstemmelse med artikel 96, sammen med en omfattende liste over praktiske eksempler på anvendelsestilfælde af AI-systemer, der er højrisiko og ikke højrisiko.
5. Komise po konzultaci s Evropskou radou pro umělou inteligenci (dále jen „rada“) a nejpozději do 2. února 2026 poskytne pokyny upřesňující praktické provádění tohoto článku v souladu s článkem 96 spolu s úplným seznamem praktických příkladů použití systémů AI, které jsou a které nejsou vysoce rizikové.
6. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre nærværende artikels stk. 3, andet afsnit, ved at tilføje nye betingelser til dem, der er fastsat i nævnte stykke, eller ved at ændre dem, hvis der foreligger konkret og pålidelig dokumentation for, at der findes AI-systemer, som hører under anvendelsesområdet i bilag III, men som ikke udgør en væsentlig risiko for skade på fysiske personers sundhed, sikkerhed eller grundlæggende rettigheder.
6. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97 ke změně odst. 3 druhého pododstavce tohoto článku doplněním nových podmínek k podmínkám tam uvedeným nebo změnou těchto podmínek, pokud existují konkrétní a spolehlivé důkazy o existenci systémů AI, které spadají do oblasti působnosti přílohy III, ale nepředstavují významné riziko poškození zdraví, bezpečnosti nebo základních práv fyzických osob.
7. Kommissionen vedtager delegerede retsakter i overensstemmelse med artikel 97 for at ændre nærværende artikels stk. 3, andet afsnit, ved at lade enhver af de i nævnte stykke fastsatte betingelser udgå, hvis der foreligger konkret og pålidelig dokumentation for, at dette er nødvendigt for at opretholde det beskyttelsesniveauet for sundheden, sikkerheden og de grundlæggende rettigheder, der er fastsat ved denne forordning.
7. Komise přijme akty v přenesené pravomoci v souladu s článkem 97 ke změně odst. 3 druhého pododstavce tohoto článku zrušením některé z podmínek tam uvedených, pokud existují konkrétní a spolehlivé důkazy o tom, že je to nezbytné pro zachování úrovně ochrany zdraví, bezpečnosti a základních práv v Unii stanovené tímto nařízením.
8. Enhver ændring af betingelserne i stk. 3, andet afsnit, vedtaget i overensstemmelse med denne artikels stk. 6 og 7, må ikke reducere det overordnede beskyttelsesniveau for sundheden, sikkerheden og de grundlæggende rettigheder, der er fastsat ved denne forordning, og sikrer overensstemmelse med de delegerede retsakter, der er vedtaget i henhold til artikel 7, stk. 1, og tager hensyn til den markedsmæssige og teknologiske udvikling.
8. Změna podmínek stanovených v odst. 3 druhém pododstavci přijatá v souladu s odstavci 6 a 7 tohoto článku nesmí snížit celkovou úroveň ochrany zdraví, bezpečnosti a základních práv v Unii stanovenou tímto nařízením a musí zajistit soulad s akty v přenesené pravomoci přijatými podle čl. 7 odst. 1 a zohlednit vývoj trhu a technologií.
Artikel 7
Článek 7
Ændring af bilag III
Změny přílohy III
1. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre bilag III ved at tilføje eller ændre anvendelsestilfælde af højrisiko-AI-systemer, hvis begge følgende betingelser er opfyldt:
1. Komisi je svěřena pravomoc přijímat akty v přenesené pravomoci v souladu s článkem 97 za účelem úpravy přílohy III přidáním nebo změnou případů užívání vysoce rizikových systémů AI, pokud jsou splněny obě tyto podmínky:
a)
AI-systemerne tilsigtes anvendt på et af de områder, der er anført i bilag III
a)
systémy AI jsou určeny pro použití v kterékoli z oblastí uvedených v příloze III;
b)
AI-systemerne udgør en risiko for skade på sundheden og sikkerheden eller for negativ indvirkning på de grundlæggende rettigheder, og denne risiko svarer til eller er større end risikoen for skade eller negativ indvirkning ved de højrisiko-AI-systemer, der allerede er omhandlet i bilag III.
b)
systémy AI představují riziko pro zdraví a bezpečnost nebo riziko nepříznivého dopadu na základní práva, přičemž takové riziko je stejné nebo větší než riziko újmy nebo nepříznivého dopadu, které představují vysoce rizikové systémy AI, jež jsou již uvedeny v příloze III.
2. Ved vurderingen af betingelsen i henhold til stk. 1, litra b), tager Kommissionen hensyn til følgende kriterier:
2. Při posuzování podmínky podle odst. 1 písm. b) zohlední Komise tato kritéria:
a)
det tilsigtede formål med AI-systemet
a)
zamýšlený účel daného systému AI;
b)
i hvilket omfang et AI-system er blevet anvendt eller sandsynligvis vil blive anvendt
b)
do jaké míry je daný systém AI již využíván nebo pravděpodobně využíván bude;
c)
arten og omfanget af de data, der behandles og anvendes af AI-systemet, navnlig om der behandles særlige kategorier af personoplysninger
c)
povahu a množství údajů zpracovávaných a používaných systémem AI, zejména zda jsou zpracovávány zvláštní kategorie osobních údajů;
d)
i hvilket omfang AI-systemet handler autonomt, og muligheden for at et menneske kan underkende en afgørelse eller anbefalinger, som kan føre til potentiel skade
d)
rozsah, v jakém systém AI jedná samostatně, a možnost, aby člověk zrušil rozhodnutí nebo doporučení, která mohou vést k potenciální újmě;
e)
i hvilket omfang anvendelsen af et AI-system allerede har forvoldt skade på sundheden og sikkerheden, har haft negativ indvirkning på de grundlæggende rettigheder eller har skabt betydelig bekymring med hensyn til sandsynligheden for en sådan skade eller negativ indvirkning som påvist i f.eks. rapporter eller dokumenterede påstande, der er forelagt for de nationale kompetente myndigheder, eller i andre rapporter, alt efter hvad der er relevant
e)
do jaké míry již používání systému AI způsobilo újmu na zdraví a bezpečnosti nebo mělo nepříznivý dopad na základní práva nebo vzbudilo významné obavy ohledně pravděpodobnosti takové újmy nebo nepříznivého dopadu, jak vyplývá například ze zpráv nebo zdokumentovaných tvrzení předložených příslušným vnitrostátním orgánům nebo případně z jiných zpráv;
f)
det potentielle omfang af en sådan skade eller negativ indvirkning, navnlig med hensyn til dens størrelse og dens mulighed for påvirkning af flere personer eller for uforholdsmæssig påvirkning af en særlig gruppe af personer
f)
potenciální rozsah takové újmy nebo nepříznivého dopadu, zejména pokud jde o jejich intenzitu a způsobilost ovlivnit více osob nebo nepřiměřeně ovlivnit určitou skupinu osob;
g)
i hvilket omfang personer, der er potentielt skadede eller er ofre for en negativ indvirkning, er afhængige af det resultat, et AI-system giver, navnlig hvis det af praktiske eller juridiske grunde ikke med rimelighed er muligt at fravælge resultatet
g)
do jaké míry jsou osoby, které potenciálně utrpěly újmu nebo byly vystaveny nepříznivému dopadu, závislé na výsledku vytvořeném pomocí systému AI zejména proto, že z praktických nebo právních důvodů není rozumně možné účast na tomto výsledku odmítnout;
h)
i hvilket omfang der er magtmæssig ubalance, eller de personer, der er potentielt skadede eller er ofre for en negativ indvirkning, befinder sig i en sårbar situation i forhold til idriftsætteren af et AI-system, navnlig som følge af status, autoritet, viden, økonomiske eller sociale omstændigheder eller alder
h)
do jaké míry existuje nerovnováha moci či do jaké míry se osoby, které potenciálně utrpěly újmu nebo byly vystaveny nepříznivému dopadu, nacházejí ve zranitelném postavení ve vztahu k zavádějícímu subjektu daného systému AI, zejména v důsledku postavení, autority, znalostí, ekonomických nebo sociálních podmínek nebo věku;
i)
i hvilket omfang det resultat, der fremkommer ved inddragelse af et AI-system, let kan korrigeres eller ændres under hensyntagen til de tilgængelige tekniske løsninger til at korrigere eller ændre det, idet resultater, der har en negativ indvirkning på sundheden, sikkerheden eller de grundlæggende rettigheder, ikke anses for let at kunne korrigeres eller ændres
i)
do jaké míry je výsledek vytvořený s použitím systému AI snadno opravitelný či zvrátitelný, s přihlédnutí k dostupným technickým řešením pro jeho opravu či zvrácení, přičemž výsledky, které mají nepříznivý dopad na zdraví, bezpečnost nebo základní práva, se za snadno opravitelné či zvrátitelné nepovažují;
j)
omfanget af og sandsynligheden for fordele ved idriftsættelsen af AI-systemet for enkeltpersoner, grupper eller samfundet som helhed, herunder mulige forbedringer af produktsikkerheden
j)
význam a pravděpodobnost přínosu zavedení systému AI pro jednotlivce, skupiny nebo společnost obecně, včetně možného zlepšení bezpečnosti produktů;
k)
i hvilket omfang gældende EU-ret indeholder bestemmelser om:
k)
do jaké míry stávající právo Unie stanoví:
i)
effektive retsmidler med hensyn til de risici, der er forbundet med et AI-system, med undtagelse af erstatningskrav
i)
účinná nápravná opatření ve vztahu k rizikům, která daný systém AI představuje, s výjimkou nároků na náhradu škody;
ii)
effektive foranstaltninger til at forebygge eller i væsentlig grad minimere disse risici.
ii)
účinná opatření vedoucí k prevenci nebo podstatné minimalizaci těchto rizik.
3. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre listen i bilag III ved at fjerne højrisiko-AI-systemer, hvis begge følgende betingelser er opfyldt:
3. Komisi je svěřena pravomoc přijímat akty v přenesené pravomoci v souladu s článkem 97 za účelem změny seznamu v příloze III spočívající v odstranění vysoce rizikových systémů AI, pokud jsou splněny obě tyto podmínky:
a)
det pågældende højrisiko-AI-system udgør ikke længere nogen væsentlig risiko for de grundlæggende rettigheder, sundheden eller sikkerheden under hensyntagen til kriterierne i stk. 2
a)
dotčený vysoce rizikový systém AI již nepředstavuje významná rizika pro základní práva, zdraví nebo bezpečnost, a to s přihlédnutím ke kritériím uvedeným v odstavci 2;
b)
fjernelsen reducerer ikke det generelle beskyttelsesniveau for sundhed, sikkerhed og grundlæggende rettigheder i henhold til EU-retten.
b)
vypuštěním se nesnižuje celková úroveň ochrany zdraví, bezpečnosti a základních práv podle práva Unie.
AFDELING 2
ODDÍL 2
Krav til højrisiko-AI-systemer
Požadavky na vysoce rizikové systémy AI
Artikel 8
Článek 8
Overholdelse af krav
Soulad s požadavky
1. Højrisiko-AI-systemer skal overholde de krav, der er fastsat i denne afdeling, under hensyntagen til deres tilsigtede formål og det generelt anerkendte aktuelle teknologiske niveau for AI og AI-relaterede teknologier. Ved sikringen af, at disse krav overholdes, tages det risikostyringssystem, der er omhandlet i artikel 9, i betragtning.
1. Vysoce rizikové systémy AI musí splňovat požadavky stanovené v tomto oddíle, s přihlédnutím k jejich zamýšleným účelům, jakož i k obecně uznávanému stavu AI a technologií, které s AI souvisejí. Při zajišťování souladu s těmito požadavky se zohlední systém řízení rizik uvedený v článku 9.
2. Hvis et produkt indeholder et AI-system, som kravene i denne forordning samt kravene i den EU-harmoniseringslovgivning, der er anført i bilag I, afsnit A, finder anvendelse på, er producenterne ansvarlige for at sikre, at deres produkt fuldt ud overholder alle gældende krav i den gældende EU-harmoniseringslovgivning. For at sikre at de højrisiko-AI-systemer, der er omhandlet i stk. 1, overholder kravene i denne afdeling, og for at sikre sammenhæng, undgå overlap og minimere yderligere byrder skal udbyderne have mulighed for i relevant omfang at integrere de nødvendige afprøvnings- og rapporteringsprocesser, oplysninger og den nødvendige dokumentation, som de stiller til rådighed vedrørende deres produkt, i dokumentation og procedurer, der allerede eksisterer og kræves i henhold til den EU-harmoniseringslovgivning, der er anført i bilag I, afsnit A.
2. Pokud produkt obsahuje systém AI, na nějž se vztahují požadavky tohoto nařízení i požadavky harmonizačních právních předpisů Unie uvedené v příloze I oddíle A, nesou poskytovatelé odpovědnost za zajištění toho, aby byl jejich produkt plně v souladu se všemi příslušnými požadavky podle platných harmonizačních právních předpisů Unie. Při zajišťování souladu vysoce rizikových systémů AI uvedených v odstavci 1 s požadavky stanovenými v tomto oddíle a v zájmu zajištění konzistentnosti, zamezení zdvojování a minimalizace další zátěže mají poskytovatelé možnost případně začlenit nezbytné procesy testování a podávání zpráv, informace a dokumentaci, které v souvislosti se svým produktem poskytují, do dokumentace a postupů, které již existují a jsou vyžadovány podle harmonizačních právních předpisů Unie uvedených v příloze I oddíle A.
Artikel 9
Článek 9
Risikostyringssystem
Systém řízení rizik
1. Hvad angår højrisiko-AI-systemer oprettes og gennemføres der et risikostyringssystem, som dokumenteres og vedligeholdes.
1. Ve vztahu k vysoce rizikovým systémům AI je zaveden, uplatňován, zdokumentován a udržován systém řízení rizik.
2. Risikostyringssystemet skal forstås som en kontinuerlig iterativ proces, der er planlagt og løber i hele højrisiko-AI-systemets livscyklus, og som kræver regelmæssig systematisk gennemgang og opdatering. Det omfatter følgende trin:
2. Systém řízení rizik je chápán jako nepřetržitý opakující se proces plánovaný a prováděný v rámci celého životního cyklu vysoce rizikového systému AI, který vyžaduje pravidelný systematický přezkum a aktualizaci. Zahrnuje následující kroky:
a)
kortlægning og analyse af kendte og med rimelighed forudsigelige risici, som højrisiko-AI-systemet kan udgøre for sundheden, sikkerheden eller de grundlæggende rettigheder, når højrisiko-AI-systemet anvendes i overensstemmelse med dets tilsigtede formål
a)
identifikaci a analýzu známých a rozumně předvídatelných rizik, která může vysoce rizikový systém AI používaný v souladu se zamýšleným účelem představovat pro zdraví, bezpečnost nebo základní práva;
b)
vurdering og evaluering af de risici, der kan opstå, når højrisiko-AI-systemet anvendes i overensstemmelse med dets tilsigtede formål og ved fejlanvendelse, der med rimelighed kan forudses
b)
odhad a vyhodnocení rizik, která mohou vzniknout, když je vysoce rizikový systém AI používán v souladu se zamýšleným účelem a za podmínek rozumně předvídatelného nesprávného použití;
c)
evaluering af andre risici, der kan opstå, på grundlag af analyse af data indsamlet fra systemet til overvågning efter omsætningen, jf. artikel 72
c)
hodnocení dalších rizik, která mohou potenciálně vzniknout, na základě analýzy shromážděných údajů ze systému monitorování po uvedení na trh ve smyslu článku 72;
d)
vedtagelse af passende og målrettede risikostyringsforanstaltninger, der har til formål at imødegå de risici, der er identificeret i henhold til litra a).
d)
přijetí vhodných a cílených opatření k řízení rizik, jež jsou navržena tak, aby řešila rizika zjištěná podle písmene a).
3. De i denne artikel omhandlede risici vedrører kun dem, der med rimelighed kan afbødes eller fjernes gennem udviklingen eller udformningen af højrisiko-AI-systemet eller tilvejebringelsen af tilstrækkelige tekniske oplysninger.
3. Rizika uvedená v tomto článku zahrnují pouze rizika, která lze přiměřeně zmírnit nebo vyloučit vývojem nebo návrhem vysoce rizikového systému AI nebo poskytnutím odpovídajících technických informací.
4. De i stk. 2, litra d), omhandlede risikostyringsforanstaltninger tager behørigt hensyn til virkningerne og eventuelle interaktioner som følge af den kombinerede anvendelse af kravene i denne afdeling med henblik på at minimere risiciene mere effektivt og samtidig opnå en passende balance i gennemførelsen af foranstaltningerne til opfyldelse af disse krav.
4. Opatření k řízení rizik uvedená v odst. 2 písm. d) náležitě zohledňují účinky a možnou interakci vyplývající z kombinovaného uplatňování požadavků stanovených v tomto oddíle s cílem účinněji minimalizovat rizika a současně dosáhnout vhodné rovnováhy při provádění opatření ke splnění těchto požadavků.
5. De i stk. 2, litra d), omhandlede risikostyringsforanstaltninger er af en sådan art, at de relevante resterende risici, der er forbundet med hver fare, samt den samlede resterende risiko ved højrisiko-AI-systemerne vurderes at være acceptabel.
5. Opatření k řízení rizik uvedená v odst. 2 písm. d) musí být taková, aby bylo příslušné zbytkové riziko spojené s každým nebezpečím a rovněž celkové zbytkové riziko vysoce rizikových systémů AI považováno za přijatelné.
I fastlæggelsen af de mest hensigtsmæssige risikostyringsforanstaltninger sikres følgende:
Při určování nejvhodnějších opatření k řízení rizik je třeba zajistit:
a)
fjernelse eller begrænsning af de risici, der er identificeret og evalueret i henhold til stk. 2, i det omfang det er teknisk muligt, gennem passende udformning og udvikling af højrisiko-AI-systemet
a)
vyloučení nebo snížení rizik zjištěných a vyhodnocených podle odstavce 2, pokud možno prostřednictvím technicky proveditelného návrhu a vývoje vysoce rizikového systému AI;
b)
om nødvendigt gennemførelse af passende foranstaltninger til afbødning og kontrol, som imødegår risici, der ikke kan fjernes
b)
ve vhodných případech zavedení odpovídajících zmírňujících a kontrolních opatření, jež řeší rizika, která nelze vyloučit;
c)
tilvejebringelse af de oplysninger, der kræves i henhold til artikel 13, og, hvis det er relevant, træning af idriftsætterne.
c)
poskytování informací požadovaných podle článku 13 a v případě potřeby školení pro zavádějící subjekty.
Med henblik på fjernelse eller begrænsning af risici i forbindelse med anvendelsen af et højrisiko-AI-system tages der behørigt hensyn til den tekniske viden, erfaring, uddannelse og træning, som kan forventes af idriftsætteren, og den formodentlige kontekst, i hvilken systemet tilsigtes anvendt.
Za účelem vyloučení nebo snížení rizik souvisejících s používáním daného vysoce rizikového systému AI by měly být náležitě zváženy technické znalosti, zkušenosti, vzdělání, odborná příprava, které se od zavádějícího subjektu očekává, a předpokládaný kontext, ve kterém má být systém používán.
6. Højrisiko-AI-systemer afprøves med henblik på at identificere de mest hensigtsmæssige og målrettede risikostyringsforanstaltninger. Afprøvning sikrer, at højrisiko-AI-systemer yder konsistent i overensstemmelse med deres tilsigtede formål og overholder de krav, der er fastsat i denne afdeling.
6. Vysoce rizikové systémy AI jsou testovány za účelem identifikace nejvhodnějších a cílených opatření k řízení rizik. Testování zajistí, aby vysoce rizikové systémy AI podávaly výkony konzistentní s jejich zamýšleným účelem a aby byly v souladu s požadavky stanovenými v tomto oddíle.
7. Afprøvningsprocedurerne kan omfatte afprøvning under faktiske forhold i overensstemmelse med artikel 60.
7. Testovací postupy mohou zahrnovat testování v reálných podmínkách v souladu s článkem 60.
8. Afprøvning af højrisiko-AI-systemer foretages på et hvilket som helst tidspunkt under hele udviklingsprocessen, alt efter hvad der er relevant, og under alle omstændigheder inden de bringes i omsætning eller ibrugtages. Afprøvningen foretages på grundlag af på forhånd definerede parametre og probabilistiske tærskler, der er passende i forhold til det tilsigtede formål med højrisiko-AI-systemet.
8. Testování vysoce rizikových systémů AI se provádí podle potřeby kdykoli v průběhu celého procesu vývoje a v každém případě před uvedením na trh nebo do provozu. Testování probíhá na základě předem definovaných metrik a pravděpodobnostních prahových hodnot, které jsou pro zamýšlený účel vysoce rizikového systému AI vhodné.
9. Ved gennemførelsen af det risikostyringssystem, der er fastsat i stk. 1-7, tager udbyderne hensyn til, om der i betragtning af det tilsigtede formål med højrisiko-AI-systemet er sandsynlighed for, at det har en negativ indvirkning på personer under 18 år og i relevant omfang på andre sårbare grupper.
9. Při zavádění systému řízení rizik popsaného v odstavcích 1 až 7 poskytovatelé zváží, zda je s ohledem na jeho zamýšlený účel pravděpodobné, že vysoce rizikový systém AI bude mít nepříznivý dopad na osoby mladší 18 let a případně na jiné zranitelné skupiny.
10. For udbydere af højrisiko-AI-systemer, der er underlagt krav vedrørende interne risikostyringsprocesser i henhold til andre relevante bestemmelser i EU-retten, kan de aspekter, der er fastsat i stk. 1-9, være en del af eller kombineres med de risikostyringsprocedurer, der er fastlagt i henhold til den pågældende ret.
10. V případě poskytovatelů vysoce rizikových systémů AI, na něž se vztahují požadavky týkající se vnitřních procesů řízení rizik podle jiných příslušných ustanovení práva Unie, mohou být aspekty popsané v odstavcích 1 až 9 součástí postupů řízení rizik stanovených podle uvedeného práva nebo kombinovány s těmito postupy.
Artikel 10
Článek 10
Data og datastyring
Data a správa dat
1. De højrisiko-AI-systemer, der gør brug af teknikker, som omfatter træning af AI-modeller med data, udvikles på grundlag af trænings-, validerings- og afprøvningsdatasæt, der opfylder de kvalitetskriterier, der er omhandlet i stk. 2-5, når sådanne datasæt anvendes.
1. Vysoce rizikové systémy AI, které využívají techniky zahrnující trénování modelů AI obsahujících data, jsou vyvíjeny na základě souborů trénovacích, validačních a testovacích dat, které splňují kritéria kvality uvedená v odstavcích 2 až 5, a to kdykoli se tyto datové soubory používají.
2. Trænings-, validerings- og afprøvningsdatasæt skal være underlagt former for datastyrings- og dataforvaltningspraksis, som er tilpasset højrisiko-AI-systemets tilsigtede formål. Disse former for praksis vedrører navnlig:
2. Soubory trénovacích, validačních a testovacích dat podléhají příslušným postupům v oblasti správy a řízení dat, jež jsou pro zamýšlený účel vysoce rizikového systému AI vhodné. Tyto postupy se týkají zejména:
a)
de relevante valg med hensyn til udformning
a)
příslušných možností návrhu;
b)
dataindsamlingsprocesser og dataenes oprindelse og, hvis der er tale om personoplysninger, det oprindelige formål med dataindsamlingen
b)
postupů při sběru dat a původu dat a v případě osobních údajů původního účelu jejich sběru;
c)
relevant dataforberedelsesbehandling såsom annotation, mærkning, rensning, opdatering, berigelse og aggregering
c)
příslušných operací zpracování přípravy dat, jako jsou anotace, označování, čištění, aktualizace, obohacování a agregace;
d)
formuleringen af antagelser, navnlig med hensyn til de oplysninger, som dataene skal måle og repræsentere
d)
formulace předpokladů, zejména s ohledem na informace, které mají daná data měřit a představovat;
e)
en vurdering af tilgængeligheden, mængden og egnetheden af de datasæt, der er nødvendige
e)
posouzení dostupnosti, množství a vhodnosti potřebných souborů dat;
f)
undersøgelse med hensyn til mulige bias, der sandsynligvis vil påvirke personers sundhed og sikkerhed, have negativ indvirkning på de grundlæggende rettigheder eller føre til forskelsbehandling, som er forbudt i henhold til EU-retten, navnlig hvis dataoutput påvirker input til fremtidige operationer
f)
přezkoumání s ohledem na potenciální zkreslení, která by mohla ovlivnit zdraví a bezpečnost osob, mít nepříznivý dopad na základní práva nebo vést k diskriminaci, která je podle práva Unie zakázána, zejména pokud výstupy dat ovlivňují vstupy pro budoucí operace;
g)
passende foranstaltninger til at påvise, forebygge og afbøde de mulige bias, der er identificeret i henhold til litra f)
g)
vhodná opatření k odhalení, prevenci a zmírnění případných zkreslení zjištěných podle písmene f);
h)
kortlægning af relevante datamangler eller datautilstrækkeligheder, som forhindrer overholdelse af denne forordning, og hvordan de kan afhjælpes.
h)
identifikace relevantních nedostatků nebo chyb v datech, které brání dodržování tohoto nařízení, a způsobu, jak tyto nedostatky a chyby vyřešit.
3. Trænings-, validerings- og afprøvningsdatasæt skal i betragtning af det tilsigtede formål være relevante, tilstrækkeligt repræsentative og i videst muligt omfang fejlfrie og fuldstændige. De skal have de tilstrækkelige statistiske egenskaber, herunder, hvis det er relevant, med hensyn til de personer eller grupper af personer, på hvilke højrisiko-AI-systemet tilsigtes anvendt. Disse egenskaber kan opfyldes for de enkelte datasæt eller for en kombination heraf.
3. Soubory trénovacích, validačních a testovacích dat jsou s ohledem na svůj zamýšlený účel relevantní, dostatečně reprezentativní a v maximální možné míře bez chyb a úplné. Mají náležité statistické vlastnosti, a to i případně rovněž s ohledem na osoby nebo skupiny osob, v souvislosti s nimiž má být daný vysoce rizikový systém AI používán. Tyto vlastnosti souborů dat lze splnit na úrovni jednotlivých souborů dat nebo na úrovni jejich kombinací.
4. I datasæt tages der, i det omfang det er nødvendigt i lyset af deres tilsigtede formål, hensyn til de egenskaber eller elementer, der er særlige for den specifikke geografiske, kontekstuelle, adfærdsmæssige eller funktionelle ramme, inden for hvilken højrisiko-AI-systemet tilsigtes anvendt.
4. Soubory trénovacích, validačních a testovacích dat zohledňují v rozsahu nezbytném pro jejich zamýšlený účel vlastnosti nebo prvky, které jsou specifické pro konkrétní zeměpisné, kontextuální, behaviorální nebo funkční prostředí, ve kterém má být daný vysoce rizikový systém AI používán.
5. I det omfang det er strengt nødvendigt for at sikre, at bias i forbindelse med højrisiko-AI-systemer påvises og korrigeres i overensstemmelse med denne artikels stk. 2, litra f) og g), kan udbydere af sådanne systemer undtagelsesvis behandle særlige kategorier af personoplysninger, med forbehold af passende sikkerhedsforanstaltninger med hensyn til fysiske personers grundlæggende rettigheder og friheder. Ud over bestemmelserne i forordning (EU) 2016/679 og (EU) 2018/1725 samt direktiv (EU) 2016/680 skal følgende betingelser overholdes for at udføre en sådan behandling:
5. Pokud je to nezbytně nutné pro zajištění detekce a oprav zkreslení ve vztahu k vysoce rizikovým systémům AI v souladu s odst. 2 písm. f) a g) tohoto článku, mohou poskytovatelé těchto systémů výjimečně zpracovávat zvláštní kategorie osobních údajů s výhradou vhodných záruk týkajících se základních práv a svobod fyzických osob. Kromě ustanovení nařízení (EU) 2016/679 a (EU) 2018/1725 a směrnice (EU) 2016/680musí být ve vztahu k takovému zpracování naplněny všechny tyto podmínky:
a)
påvisning og korrektion af bias kan ikke opnås effektivt ved behandling af andre data, herunder syntetiske eller anonymiserede data
a)
detekce a opravy zkreslení nelze účinně provést zpracováním jiných údajů, včetně syntetických nebo anonymizovaných údajů;
b)
de særlige kategorier af personoplysninger er underlagt tekniske begrænsninger for videreanvendelse af personoplysninger og de mest avancerede sikkerhedsforanstaltninger og foranstaltninger til beskyttelse af privatlivet fred, herunder pseudonymisering
b)
zvláštní kategorie osobních údajů podléhají technickým omezením opakovaného použití osobních údajů, jakož i nejmodernějším bezpečnostním opatřením a opatřením v oblasti ochrany soukromí, včetně pseudonymizace;
c)
de særlige kategorier af personoplysninger er underlagt foranstaltninger, der skal sikre, at de behandlede personoplysninger er sikrede, beskyttede og omfattet af passende sikkerhedsforanstaltninger, herunder streng kontrol og dokumentation af adgangen, for at undgå misbrug og sikre, at kun autoriserede personer har adgang til disse personoplysninger med passende fortrolighedsforpligtelser
c)
zvláštní kategorie osobních údajů podléhají opatřením, která zajistí, aby zpracovávané osobní údaje byly zabezpečeny a chráněny a aby se na ně vztahovaly vhodné záruky, včetně přísných kontrol a dokumentace přístupu, s cílem zabránit zneužití a zajistit, aby k těmto osobním údajům měly přístup pouze oprávněné osoby s odpovídajícími povinnostmi zachování důvěrnosti;
d)
de særlige kategorier af personoplysninger må ikke transmitteres til, overføres til eller på anden måde tilgås af andre parter
d)
zvláštních kategorie osobních údajů nejsou přenášeny, převáděny nebo jinak zpřístupněny jiným stranám;
e)
de særlige kategorier af personoplysninger slettes, når bias er blevet korrigeret, eller når opbevaringsperioden for personoplysningerne udløber, alt efter hvad der indtræffer først
e)
zvláštních kategorie osobních údajů se vymažou, jakmile je zkreslení opraveno nebo jakmile u těchto údajů uplyne doba uchovávání, podle toho, co nastane dříve;
f)
fortegnelserne over behandlingsaktiviteter i henhold til forordning (EU) 2016/679 og (EU) 2018/1725 samt direktiv (EU) 2016/680 indeholder en begrundelse for, hvorfor behandlingen af særlige kategorier af personoplysninger var strengt nødvendig for at opdage og korrigere bias, og hvorfor dette mål ikke kunne nås ved behandling af andre data.
f)
záznamy o činnostech zpracování podle nařízení (EU) 2016/679 a (EU) 2018/1725 a směrnice (EU) 2016/680 obsahují důvody vedoucí k tomu, že bylo zpracování zvláštních kategorií osobních údajů nezbytně nutné k odhalení a nápravě zkreslení a že tohoto cíle nemohlo být dosaženo zpracováním jiných údajů.
6. Ved udvikling af højrisiko-AI-systemer, der ikke gør brug af teknikker, der omfatter træning af AI-modeller, finder stk. 2-5 kun anvendelse på afprøvningsdatasættene.
6. Pro vývoj vysoce rizikových systémů AI, které nevyužívají techniky zahrnující trénování modelů AI, se odstavce 2 až 5 použijí pouze na soubory testovacích dat.
Artikel 11
Článek 11
Teknisk dokumentation
Technická dokumentace
1. Den tekniske dokumentation for et højrisiko-AI-system udarbejdes, inden systemet bringes i omsætning eller ibrugtages, og holdes ajour.
1. Před uvedením vysoce rizikového systému AI na trh je vypracována jeho technická dokumentace, jež je pak průběžně aktualizována.
Den tekniske dokumentation udarbejdes således, at den påviser, at højrisiko-AI-systemet overholder de krav, der er fastsat i denne afdeling, og at de oplysninger, der er nødvendige for at vurdere AI-systemets overholdelse af disse krav, gives på en klar og forståelig måde til de nationale kompetente myndigheder og bemyndigede organer. Den skal som minimum indeholde de i bilag IV fastsatte elementer. SMV'er, herunder iværksættervirksomheder, kan fremlægge de elementer i den tekniske dokumentation, der er anført i bilag IV, på en forenklet måde. Med henblik herpå udarbejder Kommissionen en forenklet formular for teknisk dokumentation, der er målrettet små virksomheders og mikrovirksomheders behov. Hvis en SMV, herunder en iværksættervirksomhed, vælger at fremlægge de oplysninger, der kræves i bilag IV, på en forenklet måde, anvender den formularen, der er omhandlet i dette stykke. Bemyndigede organer skal acceptere formularen med henblik på overensstemmelsesvurderingen.
Technická dokumentace je vypracována tak, aby prokazovala, že daný vysoce rizikový systém AI splňuje požadavky stanovené v tomto oddíle, a aby příslušným vnitrostátním orgánům a oznámeným subjektům poskytovala jasné a komplexní informace nezbytné k posouzení souladu systému AI s těmito požadavky. Obsahuje přinejmenším prvky uvedené v příloze IV. Malé a střední podniky, včetně podniků začínajících, mohou poskytnout jednotlivé položky technické dokumentace uvedené v příloze IV zjednodušeným způsobem. Za tímto účelem vytvoří Komise zjednodušený formulář technické dokumentace zaměřený na potřeby malých podniků a mikropodniků. V případě, že se malý nebo střední podnik, včetně podniků začínajících, rozhodne poskytnout informace požadované v příloze IV ve zjednodušeném formátu, použije formulář uvedený v tomto odstavci. Oznámené subjekty tento formulář akceptují pro účely posouzení shody.
2. Hvis et højrisiko-AI-system tilknyttet et produkt, der er omfattet af den i bilag I, afsnit A, anførte EU-harmoniseringslovgivning, bringes i omsætning eller ibrugtages, udarbejdes der et enkelt sæt teknisk dokumentation, der indeholder alle de oplysninger, der er fastsat i stk. 1, samt de oplysninger, der kræves i henhold til disse retsakter.
2. Pokud je uváděn na trh nebo do provozu vysoce rizikový systém AI související s produktem, na který se vztahují harmonizační právní předpisy Unie uvedené v příloze I oddíle A, vypracuje se jediná technická dokumentace obsahující všechny informace uvedené v odstavci 1, jakož i informace požadované podle těchto právních aktů.
3. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre bilag IV, hvis det i lyset af den tekniske udvikling er nødvendigt for, at den tekniske dokumentation giver alle de oplysninger, der er nødvendige for at vurdere, om systemet overholder de krav, der er fastsat i denne afdeling.
3. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97 za účelem změny přílohy IV, je-li to nezbytné k zajištění toho, aby technická dokumentace s ohledem na technický pokrok poskytovala veškeré informace nezbytné k posouzení souladu systému s požadavky stanovenými v tomto oddíle.
Artikel 12
Článek 12
Registrering
Vedení záznamů
1. Højrisiko-AI-systemer skal teknisk muliggøre automatisk registrering af hændelser (»logfiler«) under systemets levetid.
1. Vysoce rizikové systémy AI po dobu svého životního cyklu technicky umožňují automatické zaznamenávání událostí (dále jen „protokoly“).
2. For at sikre en passende grad af sporbarhed i højrisiko-AI-systemets funktion i forhold til systemets tilsigtede formål skal logningskapaciteten muliggøre registrering af hændelser, der er relevante for:
2. Aby byla zajištěna úroveň sledovatelnosti fungování vysoce rizikového systému AI, která je přiměřená zamýšlenému účelu systému, funkce protokolování umožní zaznamenávání událostí, které jsou relevantní pro:
a)
identifikation af situationer, der kan medføre, at højrisiko-AI-systemet udgør en risiko som omhandlet i artikel 79, stk. 1, eller en væsentlig ændring
a)
identifikaci situací, které mohou vést k tomu, že daný vysoce rizikový systém AI bude představovat riziko ve smyslu čl. 79 odst. 1 nebo že dojde k podstatné změně;
b)
lettelse af overvågningen efter omsætningen, jf. artikel 72, og
b)
usnadnění monitorování po uvedení na trh uvedené v článku 72, a
c)
overvågning af driften af højrisiko-AI-systemer, jf. artikel 26, stk. 5.
c)
sledování fungování vysoce rizikových systémů AI podle čl. 26 odst. 5.
3. For så vidt angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, litra a), omfatter logningskapaciteten som minimum:
3. U vysoce rizikových systémů AI uvedených v bodu 1 písm. a) přílohy III funkce protokolování zajišťuje minimálně:
a)
registrering af tidsperioden for hver anvendelse af systemet (startdato og -klokkeslæt samt slutdato og -klokkeslæt for hver anvendelse)
a)
záznam trvání každého použití systému (datum a čas zahájení a datum a čas ukončení každého použití);
b)
den referencedatabase, med hvilken systemet har sammenholdt inputdata
b)
referenční databázi, s níž systém porovnává vstupní data;
c)
de inputdata, som i søgningen har givet et match
c)
vstupní data, u nichž vyhledávání vedlo ke shodě;
d)
identifikation af de fysiske personer, der er involveret i verifikationen af resultaterne, jf. artikel 14, stk. 5.
d)
identifikaci fyzických osob podílejících se na ověřování výsledků, jak je uvedeno v čl. 14 odst. 5.
Artikel 13
Článek 13
Gennemsigtighed og formidling af oplysninger til idriftsætterne
Transparentnost a poskytování informací zavádějícím subjektům
1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at deres drift er tilstrækkelig gennemsigtig til, at idriftsætterne kan fortolke et systems output og anvende det korrekt. Der sikres en passende type og grad af gennemsigtighed med henblik på at opnå overholdelse af de relevante udbyder- og idriftsætterforpligtelser, der er fastsat i afdeling 3.
1. Vysoce rizikové systémy AI jsou navrženy a vyvinuty tak, aby bylo jejich fungování dostatečně transparentní a zavádějícím subjektům umožňovalo interpretovat výstup systému a vhodně jej používat. Je zajištěn vhodný typ a stupeň transparentnosti s cílem dosáhnout souladu s příslušnými povinnostmi poskytovatele a zavádějícího subjektu stanovenými v oddíle 3.
2. Højrisiko-AI-systemer ledsages af en brugsanvisning i et passende digitalt format eller på anden vis, som indeholder kortfattede, fuldstændige, korrekte og klare oplysninger, som er relevante, tilgængelige og forståelige for idriftsætterne.
2. Vysoce rizikové systémy AI jsou opatřeny návodem k použití ve vhodném digitálním nebo jiném formátu, který obsahuje stručné, úplné, správné a jasné informace, které jsou pro zavádějící subjekty relevantní, přístupné a srozumitelné.
3. Brugsanvisningen skal som minimum indeholde følgende oplysninger:
3. Návod k použití obsahuje alespoň tyto informace:
a)
identitet på og kontaktoplysninger for udbyderen og dennes eventuelle bemyndigede repræsentant
a)
totožnost a kontaktní údaje poskytovatele a tam, kde je to relevantní, jeho zplnomocněného zástupce;
b)
højrisiko-AI-systemets egenskaber, kapacitet og begrænsninger for dets ydeevne, herunder:
b)
vlastnosti, schopnosti a omezení výkonnosti vysoce rizikového systému AI, mezi něž patří:
i)
det tilsigtede formål
i)
jeho zamýšlený účel;
ii)
det niveau af nøjagtighed, herunder systemets parametre, robusthed og cybersikkerhed, jf. artikel 15, i forhold til hvilket højrisiko-AI-systemet er afprøvet og valideret, og som kan forventes, samt alle kendte og forudsigelige omstændigheder, der kan have indvirkning på det forventede niveau af nøjagtighed, robusthed og cybersikkerhed
ii)
úroveň přesnosti, včetně metrik, spolehlivosti a kybernetické bezpečnosti uvedené v článku 15, ve vztahu k níž byl daný vysoce rizikový systém AI testován a ověřen a kterou lze očekávat, a jakékoli známé a předvídatelné okolnosti, jež mohou mít dopad na tuto očekávanou úroveň přesnosti, spolehlivosti a kybernetické bezpečnosti;
iii)
alle kendte eller forudsigelige omstændigheder i forbindelse med anvendelse af højrisiko-AI-systemet i overensstemmelse med dets tilsigtede formål eller ved fejlanvendelse, der med rimelighed kan forudses, der kan medføre risici for sundhed og sikkerhed eller grundlæggende rettigheder, jf. artikel 9, stk. 2
iii)
jakékoli známé nebo předvídatelné okolnosti související s používáním daného vysoce rizikového systému AI v souladu s jeho zamýšleným účelem nebo za podmínek rozumně předvídatelného nesprávného použití, které mohou vést k rizikům pro zdraví a bezpečnost nebo pro základní práva uvedeným v čl. 9 odst. 2;
iv)
hvis det er relevant, højrisiko-AI-systemets tekniske kapacitet og egenskaber til at give oplysninger, som er relevante for at forklare dets output
iv)
v příslušných případech technické schopnosti a vlastnosti vysoce rizikového systému AI, pokud jde o poskytování informací, které jsou relevantní pro vysvětlení jeho výstupů;
v)
hvis det er relevant, dets ydeevne for så vidt angår de specifikke personer eller grupper af personer, på hvilke systemet tilsigtes anvendt
v)
v příslušných případech jeho chování ve vztahu ke konkrétním osobám nebo skupinám osob, na něž má být systém používán;
vi)
hvis det er relevant, specifikationer for inputdataene eller andre relevante oplysninger med hensyn til de anvendte trænings-, validerings- og afprøvningsdatasæt under hensyntagen til højrisiko-AI-systemets tilsigtede formål
vi)
v příslušných případech specifikace vstupních údajů nebo jakýchkoli dalších informací relevantních z hlediska použitých souborů trénovacích, validačních a testovacích dat při zohlednění zamýšleného účelu vysoce rizikového systému AI;
vii)
hvis det er relevant, oplysninger, der sætter idriftsætterne i stand til at fortolke højrisiko-AI-systemets output og anvende det korrekt
vii)
v příslušných případech informace, které zavádějícím subjektům umožní interpretovat výstup vysoce rizikového systému AI a odpovídajícím způsobem jej používat;
c)
eventuelle ændringer af højrisiko-AI-systemet og dets ydeevne, som udbyderen på forhånd har fastsat på tidspunktet for den indledende overensstemmelsesvurdering
c)
změny vysoce rizikového systému AI a jeho výkonnosti, které poskytovatel předem stanovil v okamžiku počátečního posouzení shody;
d)
foranstaltninger til menneskeligt tilsyn, jf. artikel 14, herunder de tekniske foranstaltninger, der er indført for at lette idriftsætternes fortolkning af højrisiko-AI-systemers output
d)
opatření v oblasti lidského dohledu uvedená v článku 14, včetně technických opatření zavedených za účelem usnadnění interpretace výstupů vysoce rizikových systémů AI ze strany zavádějících subjektů;
e)
de nødvendige beregningskrafts- og hardwareressourcer, højrisiko-AI-systemets forventede levetid og eventuelle nødvendige vedligeholdelses- og plejeforanstaltninger, herunder deres hyppighed, for at sikre, at AI-systemet fungerer korrekt, herunder med hensyn til softwareopdateringer
e)
potřebné výpočetní a hardwarové zdroje, očekávanou životnost vysoce rizikového systému AI a veškerá nezbytná opatření v oblasti údržby a péče, včetně jejich frekvence, umožňující zajistit řádné fungování tohoto systému AI, včetně aktualizací softwaru;
f)
hvis det er relevant, en beskrivelse af de mekanismer, der er medtaget i højrisiko-AI-systemet, og som giver idriftsætterne mulighed for på korrekt vis at indsamle, lagre og fortolke logfilerne i overensstemmelse med artikel 12.
f)
v relevantních případech popis mechanismů zahrnutých do vysoce rizikového systému AI, který zavádějícím subjektům umožní řádně shromažďovat, uchovávat a interpretovat protokoly v souladu s článkem 12.
Artikel 14
Článek 14
Menneskeligt tilsyn
Lidský dohled
1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, herunder med passende menneske-maskine-grænsefladeværktøjer, at fysiske personer effektivt kan overvåge dem i den periode, hvor de er i brug.
1. Vysoce rizikové systémy AI jsou navrženy a vyvinuty takovým způsobem, a to i pomocí vhodných nástrojů rozhraní člověk-stroj, aby na ně mohly během období, kdy jsou používány, účinně dohlížet fyzické osoby.
2. Menneskeligt tilsyn har til formål at forebygge eller minimere de risici for sundhed, sikkerhed eller grundlæggende rettigheder, der kan opstå, når et højrisiko-AI-system anvendes i overensstemmelse med dets tilsigtede formål eller under forhold med fejlanvendelse, der med rimelighed kan forudses, navnlig hvis sådanne risici fortsat består trods anvendelsen af andre krav, der er fastsat i denne afdeling.
2. Lidský dohled je zaměřen na prevenci nebo minimalizaci rizik pro zdraví, bezpečnost nebo základní práva, která mohou vzniknout při používání vysoce rizikového systému AI v souladu s jeho zamýšleným účelem nebo za podmínek rozumně předvídatelného nesprávného použití, zejména pokud tato rizika přetrvávají navzdory uplatňování dalších požadavků stanovených v tomto oddíle.
3. Tilsynsforanstaltningerne skal stå i et rimeligt forhold til risiciene, graden af autonomi og den kontekst, som højrisiko-AI-systemet anvendes i, og sikres ved hjælp af en af eller samtlige følgende typer foranstaltninger:
3. Opatření dohledu jsou úměrná rizikům, úrovni autonomie a kontextu používání vysoce rizikového systému AI a jsou zajištěna jedním nebo oběma z těchto druhů opatření:
a)
foranstaltninger, der er fastlagt og, hvis det er teknisk muligt, indbygget i højrisiko-AI-systemet fra udbyderens side, inden systemet bringes i omsætning eller ibrugtages
a)
opatření, která identifikuje poskytovatel, a pokud je to technicky proveditelné, zabuduje je do daného vysoce rizikového systému AI před jeho uvedením na trh nebo do provozu;
b)
foranstaltninger, der er fastlagt af udbyderen, inden højrisiko-AI-systemet bringes i omsætning eller ibrugtages, og som er egnede til at blive gennemført af idriftsætteren.
b)
opatření, která identifikuje poskytovatel před uvedením daného vysoce rizikového systému AI na trh nebo do provozu a u nichž je vhodné, aby je provedl zavádějící subjekt.
4. Med henblik på gennemførelsen af stk. 1, 2 og 3 leveres højrisiko-AI-systemet til idriftsætteren på en sådan måde, at det er muligt for fysiske personer, der har fået til opgave at varetage menneskeligt tilsyn, alt efter hvad der er relevant og forholdsmæssigt, at:
4. Pro účely provádění odstavců 1, 2 a 3 je vysoce rizikový systém AI poskytován zavádějícímu subjektu způsobem, jenž fyzickým osobám pověřeným lidským dohledem umožňuje, pokud je to vhodné a přiměřené, aby:
a)
forstå højrisiko-AI-systemets relevante kapacitet og begrænsninger korrekt og være i stand til at overvåge dets drift på behørig vis, herunder med henblik på at opdage og håndtere uregelmæssigheder, funktionsforstyrrelser og uventet ydeevne
a)
řádně porozuměly příslušným kapacitám a omezením daného vysoce rizikového systému AI a byly schopny náležitě monitorovat jeho fungování, a to i s ohledem na odhalování a řešení anomálií, dysfunkcí a neočekávaného výkonu;
b)
være opmærksomme på den mulige tendens til automatisk eller i overdreven grad af forlade sig på output frembragt af et højrisiko-AI-system (automatiseringsbias), navnlig for så vidt angår højrisiko-AI-systemer, der anvendes til at give oplysninger eller anbefalinger til afgørelser, der skal træffes af fysiske personer
b)
si nadále uvědomovaly možnou tendenci automatického nebo nadměrného spoléhání na výstup vysoce rizikového systému AI (dále jen „zkreslení způsobené automatizací“, v angličtině „automation bias“), zejména u vysoce rizikových systémů AI užívaných pro poskytování informací nebo doporučení pro rozhodování fyzických osob;
c)
fortolke højrisiko-AI-systemets output korrekt under hensyntagen til f.eks. de tilgængelige fortolkningsværktøjer og -metoder
c)
správně interpretovaly výstup vysoce rizikového systému AI, například dostupné interpretační nástroje a metody;
d)
beslutte i en særlig situation ikke at anvende højrisiko-AI-systemet eller på anden måde se bort fra, tilsidesætte eller omgøre outputtet fra højrisiko-AI-systemet
d)
se v jakékoli konkrétní situaci rozhodly, že vysoce rizikový systém AI nepoužijí nebo výstup z vysoce rizikového systému AI jiným způsobem nezohlední, zruší nebo zvrátí;
e)
gribe ind i højrisiko-AI-systemets drift eller afbryde systemet ved hjælp af en »stopknap« eller en lignende procedure, som gør det muligt at afbryde systemet i en sikker tilstand.
e)
zasáhly do fungování vysoce rizikového systému AI nebo jej přerušily tlačítkem „stop“ nebo podobným postupem, který umožní systém zastavit v bezpečném módu.
5. For så vidt angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, litra a), sikrer de foranstaltninger, der er omhandlet i denne artikels stk. 3, desuden, at idriftsætteren ikke foretager noget tiltag eller træffer nogen beslutninger på grundlag af en identifikation, der følger af systemet, medmindre denne identifikation er blevet verificeret og bekræftet særskilt af mindst to fysiske personer med den nødvendige kompetence, uddannelse og myndighed.
5. U vysoce rizikových systémů AI uvedených v bodě 1 písm. a) přílohy III jsou opatření uvedená v odstavci 3 tohoto článku taková, aby navíc zajišťovala, že na základě identifikace vyplývající z tohoto systému neprovede zavádějící subjekt žádné kroky ani rozhodnutí, pokud tato identifikace nebude samostatně ověřena a potvrzena alespoň dvěma fyzickými osobami, které disponují nezbytnou odbornou způsobilostí, odbornou přípravou a pravomocí.
Kravet om særskilt verifikation foretaget af mindst to fysiske personer finder ikke anvendelse på højrisiko-AI-systemer, der anvendes med henblik på retshåndhævelse, migrationsstyring, grænsekontrol og asylforvaltning, hvis anvendelsen af dette krav efter EU-retten eller national ret skønnes uforholdsmæssig.
Požadavek na samostatné ověření nejméně dvěma fyzickými osobami se nevztahuje na vysoce rizikové systémy AI používané pro účely vymáhání práva, migrace, ochrany hranic nebo azylu, pokud unijní nebo vnitrostátní právo považuje uplatňování tohoto požadavku za nepřiměřené.
Artikel 15
Článek 15
Nøjagtighed, robusthed og cybersikkerhed
Přesnost, spolehlivost a kybernetická bezpečnost
1. Højrisiko-AI-systemer udformes og udvikles på en sådan måde, at de opnår et passende niveau af nøjagtighed, robusthed og cybersikkerhed, og at de i disse henseender yder konsistent i hele deres livscyklus.
1. Vysoce rizikové systémy AI jsou navrženy a vyvinuty tak, aby dosahovaly náležité úrovně přesnosti, spolehlivosti a kybernetické bezpečnosti a aby v tomto ohledu dosahovaly konzistentních výsledků během celého svého životního cyklu.
2. For at håndtere de tekniske aspekter af, hvordan de passende niveauer af nøjagtighed og robusthed, der er fastsat i stk. 1, og andre relevante ydeevneparametre måles, tilskynder Kommissionen, alt efter hvad der er relevant, i samarbejde med relevante interessenter og organisationer såsom metrologi- og benchmarkingmyndigheder til udvikling af benchmarks og målemetoder.
2. S cílem řešit technické aspekty způsobů měření náležitých úrovní přesnosti a spolehlivosti stanovených v odstavci 1 a jakékoli další relevantní metriky výkonnosti Komise ve spolupráci s příslušnými zúčastněnými stranami a organizacemi, jako jsou metrologické a srovnávací orgány, případně podpoří vypracování referenčních hodnot a metodik měření.
3. Højrisiko-AI-systemers niveau og relevante parametre med hensyn til nøjagtighed angives i den ledsagende brugsanvisning.
3. Úrovně přesnosti a příslušné metriky přesnosti vysoce rizikových systémů AI jsou oznámeny v přiloženém návodu k použití.
4. Højrisiko-AI-systemer skal være så modstandsdygtige som muligt over for fejl, svigt og uoverensstemmelser, der kan forekomme i systemet eller i det miljø, som systemet fungerer i, navnlig på grund af systemets interaktion med fysiske personer eller andre systemer. I denne henseende træffes der tekniske og organisatoriske foranstaltninger.
4. Vysoce rizikové systémy AI musí být v nejvyšší možné míře odolné vůči chybám, poruchám nebo nesrovnalostem, které se mohou vyskytnout v daném systému nebo v prostředí, ve kterém tento systém funguje, zejména v důsledku jejich interakce s fyzickými osobami nebo jinými systémy. Za tímto účelem se přijmou technická a organizační opatření.
Højrisiko-AI-systemers robusthed kan opnås ved hjælp af tekniske redundansløsninger, som kan omfatte backupplaner eller »fail-safe plans«.
Spolehlivosti vysoce rizikových systémů AI lze dosáhnout pomocí technicky redundantních řešení, která mohou zahrnovat plány zálohování nebo zajištění proti selhání.
De højrisiko-AI-systemer, der fortsætter med at lære efter at være bragt i omsætning eller ibrugtaget, udvikles på en sådan måde med henblik på i videst muligt omfang at fjerne eller reducere risikoen for, at eventuelt output behæftet med bias påvirker input i fremtidige operationer (feedbacksløjfer), og sikre, at sådanne feedbacksløjfer behørigt imødegås ved hjælp af passende afbødende foranstaltninger.
Vysoce rizikové systémy AI, které se po uvedení na trh nebo do provozu dále učí, jsou vyvíjeny tak, aby se vyloučilo nebo minimalizovalo riziko případně zkreslených výstupů ovlivňujících vstup pro budoucí operace (dále jen „smyčky zpětné vazby“, v angličtině. „feedback loops“) a aby se zajistilo, že tyto smyčky zpětné vazby budou řádně řešeny formou vhodných zmírňujících opatření.
5. Højrisiko-AI-systemer skal være modstandsdygtige over for uautoriserede tredjeparters forsøg på at ændre deres anvendelse, output eller ydeevne ved at udnytte systemsårbarheder.
5. Vysoce rizikové systémy AI jsou odolné proti pokusům neoprávněných třetích stran změnit jejich použití, vstupy nebo výkonnost zneužitím zranitelných míst těchto systémů.
De tekniske løsninger, der har til formål at sikre cybersikkerhed i forbindelse med højrisiko-AI-systemer, skal stå i et passende forhold til de relevante omstændigheder og risiciene.
Technická řešení zaměřená na zajištění kybernetické bezpečnosti vysoce rizikových systémů AI odpovídají příslušným okolnostem a rizikům.
De tekniske løsninger til afhjælpning af AI-specifikke sårbarheder omfatter, alt efter hvad der er relevant, foranstaltninger til at forebygge, opdage, reagere på, afværge og kontrollere angreb, der søger at manipulere træningsdatasættet (dataforgiftning), eller forhåndstrænede komponenter, der anvendes i træning (modelforgiftning), input, der er udformet til at få AI-modellen til at begå fejl (ondsindede eksempler eller modelunddragelse), fortrolighedsangreb eller modelfejl.
Technická řešení umožňující řešení zranitelných míst specifických pro AI v příslušných případech zahrnují opatření pro prevenci, detekci, řešení a kontrolu útoků, které se pokoušejí manipulovat soubory trénovacích dat (tzv. „data poisoning“), případně předtrénovaných komponent používaných při trénování (tzv. „model poisoning“), vstupů, jejichž cílem je přimět daný model AI k tomu, aby udělal chybu (tzv. „matoucí vzory“ nebo „vyhýbání se modelu“), útoků na důvěrnost nebo chyb modelů a také opatření týkající se reakcí na uvedené útoky.
AFDELING 3
ODDÍL 3
Forpligtelser for udbydere og idriftsættere af højrisiko-AI-systemer og andre parter
Povinnosti poskytovatelů vysoce rizikových systémů AI, subjektů zavádějících vysoce rizikové systémy AI a dalších stran
Artikel 16
Článek 16
Forpligtelser for udbydere af højrisiko-AI-systemer
Povinnosti poskytovatelů vysoce rizikových systémů AI
Udbydere af højrisiko-AI-systemer skal:
Poskytovatelé vysoce rizikových systémů AI:
a)
sørge for, at deres højrisiko-AI-systemer overholder de krav, der er fastsat i afdeling 2
a)
zajišťují, aby jejich vysoce rizikové systémy AI splňovaly požadavky stanovené v oddíle 2;
b)
angive deres navn, registrerede firmanavn eller registrerede varemærke og kontaktadresse på højrisiko-AI-systemet, eller, hvis dette ikke er muligt, på dets emballage eller i den medfølgende dokumentation, alt efter hvad der er relevant
b)
uvedou na vysoce rizikovém systému AI, nebo není-li to možné, na obalu nebo v dokumentaci, která je k vysoce rizikovému systému AI přiložena, své jméno, zapsaný název společnosti nebo zapsanou ochrannou známku a adresu, na které je lze kontaktovat;
c)
have indført et kvalitetsstyringssystem, der er i overensstemmelse med artikel 17
c)
mají zaveden systém řízení kvality, který je v souladu s článkem 17;
d)
opbevare den dokumentation, der er omhandlet i artikel 18
d)
vedou dokumentaci uvedenou v článku 18;
e)
opbevare de logfiler, der automatisk genereres af deres højrisiko-AI-systemer, når logfilerne er under deres kontrol, som omhandlet i artikel 19
e)
pokud jsou vysoce rizikové systémy AI pod jejich kontrolou, zajišťují automatické generování protokolů těmito systémy, jak je uvedeno v článku 19;
f)
sørge for, at højrisiko-AI-systemet underkastes den relevante overensstemmelsesvurderingsprocedure som omhandlet i artikel 43, inden systemet bringes i omsætning eller ibrugtages
f)
zajistí, aby byl u daného vysoce rizikového systému AI před jeho uvedením na trh nebo do provozu proveden příslušný postup posuzování shody, jak je uvedeno v článku 43;
g)
udarbejde en EU-overensstemmelseserklæring i overensstemmelse med artikel 47
g)
vypracovávají EU prohlášení o shodě v souladu s článkem 47;
h)
anbringe CE-mærkningen på højrisiko-AI-systemet eller, hvis dette ikke er muligt, på dets emballage eller i den medfølgende dokumentation, for at angive overensstemmelse med denne forordning i overensstemmelse med artikel 48
h)
umístí na vysoce rizikový systém AI, nebo není-li to možné, na jeho obal nebo dokumentaci, která je k němu přiložena, označení CE, aby vyjádřili soulad s tímto nařízením podle článku 48;
i)
overholde de registreringsforpligtelser, der er omhandlet i artikel 49, stk. 1
i)
dodržují povinnosti registrace uvedené v čl. 49 odst. 1;
j)
foretage de nødvendige korrigerende tiltag og fremlægge oplysningerne som krævet i henhold til artikel 20
j)
přijímají nezbytná nápravná opatření a poskytují informace, jak je požadováno v článku 20;
k)
efter begrundet anmodning fra en national kompetent myndighed påvise, at højrisiko-AI-systemet er i overensstemmelse med de krav, der er fastsat i afdeling 2
k)
na odůvodněnou žádost příslušného vnitrostátního orgánu prokáží soulad daného vysoce rizikového systému AI s požadavky stanovenými v oddíle 2;
l)
sikre, at højrisiko-AI-systemet overholder tilgængelighedskravene i overensstemmelse med direktiv (EU) 2016/2102 og (EU) 2019/882.
l)
zajistí, aby vysoce rizikový systém AI splňoval požadavky na přístupnost v souladu se směrnicemi (EU) 2016/2102 a (EU) 2019/882.
Artikel 17
Článek 17
Kvalitetsstyringssystem
Systém řízení kvality
1. Udbydere af højrisiko-AI-systemer indfører et kvalitetsstyringssystem, der sikrer overensstemmelse med denne forordning. Systemet dokumenteres på en systematisk og velordnet måde i form af skriftlige politikker, procedurer og anvisninger og skal som minimum omfatte følgende aspekter:
1. Poskytovatelé vysoce rizikových systémů AI zavedou systém řízení kvality, který zajišťuje soulad s tímto nařízením. Tento systém je systematicky a řádně dokumentován formou písemných politik, postupů a pokynů a obsahuje alespoň tyto aspekty:
a)
en strategi for overholdelse af lovgivningen, herunder overholdelse af overensstemmelsesvurderingsprocedurer og procedurer for forvaltning af ændringer af højrisiko-AI-systemet
a)
strategii pro zajištění souladu s právními předpisy, včetně souladu s postupy posuzování shody a postupy pro řízení úprav daného vysoce rizikového systému AI;
b)
teknikker, procedurer og systematiske tiltag, der skal anvendes til udformningen, kontrollen af udformningen og verifikationen af udformningen af højrisiko-AI-systemet
b)
techniky, postupy a systematická opatření využívaná při vytváření, kontrole a ověřování návrhu vysoce rizikového systému AI;
c)
teknikker, procedurer og systematiske tiltag, der skal anvendes til udvikling, kvalitetskontrol og kvalitetssikring af højrisiko-AI-systemet
c)
techniky, postupy a systematická opatření využívaná při vývoji, kontrole a zajišťování kvality daného vysoce rizikového systému AI;
d)
undersøgelses-, afprøvnings- og valideringsprocedurer, der gennemføres før, under og efter udviklingen af højrisiko-AI-systemet, samt den hyppighed, hvormed de gennemføres
d)
postupy přezkoumání, testování a validace prováděné před vývojem vysoce rizikového systému AI, během něho a po něm, a četnost, s níž musí být prováděny;
e)
tekniske specifikationer, herunder standarder, der anvendes, og, hvis de relevante harmoniserede standarder ikke anvendes fuldt ud eller ikke omfatter alle de relevante krav, der er fastsat i afdeling 2, de midler, der skal anvendes for at sikre, at højrisiko-AI-systemet overholder disse krav
e)
technické specifikace, včetně norem, které mají být uplatňovány, a pokud nejsou příslušné harmonizované normy uplatňovány v plném rozsahu nebo nepokrývají všechny příslušné požadavky stanovené v oddíle 2, prostředky, které mají být použity k zajištění toho, aby vysoce rizikový systém AI tyto požadavky splňoval;
f)
systemer til og procedurer for dataforvaltning, herunder dataopsamling, dataindsamling, dataanalyse, datamærkning, datalagring, datafiltrering, datamining, dataaggregering, dataopbevaring og enhver anden handling vedrørende data, som udføres forud for og med henblik på omsætning eller ibrugtagning af højrisiko-AI-systemer
f)
systémy a postupy pro správu dat, včetně získávání, shromažďování, analýzy, označování, ukládání, filtrace, vytěžování, agregace a uchovávání dat a jakékoli další operace týkající se dat, které se provádějí před uvedením vysoce rizikových systémů AI na trh nebo do provozu a pro účely tohoto uvedení;
g)
det risikoforvaltningssystem, der er omhandlet i artikel 9
g)
systém řízení rizik podle článku 9;
h)
oprettelse, implementering og vedligeholdelse af et system til overvågning efter omsætningen i overensstemmelse med artikel 72
h)
vytvoření, uplatňování a udržování systému monitorování po uvedení na trh v souladu s článkem 72;
i)
procedurer for indberetning af en alvorlig hændelse i overensstemmelse med artikel 73
i)
postupy týkající se ohlašování závažného incidentu v souladu s článkem 73;
j)
håndtering af kommunikation med nationale kompetente myndigheder, andre relevante myndigheder, herunder dem, der giver eller understøtter adgang til data, bemyndigede organer, andre operatører, kunder eller andre interesserede parter
j)
řešení komunikace s příslušnými vnitrostátními orgány, dalšími příslušnými orgány včetně těch, které zajišťují nebo podporují přístupu k datům, s oznámenými subjekty, s jinými provozovateli, se zákazníky nebo s jinými zúčastněnými stranami;
k)
systemer til og procedurer for registrering af al relevant dokumentation og alle relevante oplysninger
k)
systémy a postupy pro uchovávání záznamů o veškeré příslušné dokumentaci a informacích;
l)
ressourceforvaltning, herunder foranstaltninger vedrørende forsyningssikkerhed
l)
řízení zdrojů, včetně opatření souvisejících s bezpečností dodávek;
m)
en ansvarlighedsramme, der fastlægger ledelsens og det øvrige personales ansvar med hensyn til alle de aspekter, der er anført i dette stykke.
m)
rámec odpovědnosti stanovující odpovědnost vedení a ostatních zaměstnanců ve vztahu ke všem aspektům uvedeným v tomto odstavci.
2. Gennemførelsen af de aspekter, der er omhandlet i stk. 1, skal stå i et rimeligt forhold til størrelsen af udbyderens organisation. Udbyderne skal under alle omstændigheder respektere den grad af strenghed og det beskyttelsesniveau, der kræves for at sikre, at deres højrisiko-AI-systemer er i overensstemmelse med denne forordning.
2. Provádění aspektů uvedených v odstavci 1 je přiměřené velikosti organizace poskytovatele. Poskytovatelé za všech okolností dodržují míru přísnosti a úroveň ochrany, jež jsou nezbytné k tomu, aby jejich vysoce rizikové systémy AI byly v souladu s tímto nařízením.
3. Udbydere af højrisiko-AI-systemer, der er underlagt forpligtelser vedrørende kvalitetssikringssystemer eller en tilsvarende funktion i henhold til relevant sektorspecifik EU-ret, kan medtage de aspekter, der er anført i stk. 1, som en del af kvalitetsstyringssystemerne i henhold til denne ret.
3. Poskytovatelé vysoce rizikových systémů AI, na něž se vztahují povinnosti v souvislosti se systémy řízení kvality nebo rovnocennou funkcí podle příslušného odvětvového práva Unie, mohou zahrnout aspekty uvedené v odstavci 1 do systémů řízení kvality stanovených podle uvedeného práva.
4. For de udbydere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse, ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, anses forpligtelsen til at indføre et kvalitetsstyringssystem med undtagelse af denne artikels stk. 1, litra g), h) og i), for at være opfyldt ved overholdelse af reglerne om ordninger eller processer for intern ledelse i henhold til den relevante EU-ret om finansielle tjenesteydelser. Med henblik herpå tages der hensyn til alle de harmoniserede standarder, der er omhandlet i artikel 40.
4. V případě poskytovatelů, kteří jsou finančními institucemi, na něž se vztahují požadavky týkající se jejich vnitřní správy, systémů nebo postupů podle práva Unie v oblasti finančních služeb, se povinnost zavést systém řízení kvality, s výjimkou odst. 1 písm. g), h) a i) tohoto článku, považuje za splněnou, jsou-li dodržena pravidla týkající se systémů nebo postupů vnitřní správy podle příslušného práva Unie v oblasti finančních služeb. Za tímto účelem se zohlední veškeré harmonizované normy uvedené v článku 40 tohoto nařízení.
Artikel 18
Článek 18
Opbevaring af dokumentation
Uchovávání dokumentace
1. Udbyderen skal i ti år, efter at højrisiko-AI-systemet er blevet bragt i omsætning eller ibrugtaget, kunne forelægge de nationale kompetente myndigheder:
1. Poskytovatel uchovává po dobu deseti let od uvedení vysoce rizikového systému AI na trh nebo do provozu pro potřebu příslušných vnitrostátních orgánů následující dokumenty:
a)
den i artikel 11 omhandlede tekniske dokumentation
a)
technickou dokumentaci uvedenou v článku 11;
b)
dokumentationen vedrørende det i artikel 17 omhandlede kvalitetsstyringssystem
b)
dokumentaci týkající se systému řízení kvality uvedenou v článku 17;
c)
dokumentationen vedrørende ændringer, der er godkendt af bemyndigede organer, hvis det er relevant
c)
v relevantních případech dokumentaci týkající se změn schválených oznámenými subjekty;
d)
de afgørelser og andre dokumenter, der er udstedt af de bemyndigede organer, hvis det er relevant
d)
v relevantních případech rozhodnutí a další dokumenty vydané oznámenými subjekty;
e)
den i artikel 47 omhandlede EU-overensstemmelseserklæring.
e)
EU prohlášení o shodě podle článku 47.
2. Hver medlemsstat fastsætter, på hvilke betingelser den i stk. 1 omhandlede dokumentation fortsat er til rådighed for de nationale kompetente myndigheder i den periode, der er anført i nævnte stykke, i de tilfælde, hvor en udbyder eller dennes bemyndigede repræsentant, der er etableret på dens område, går konkurs eller indstiller sine aktiviteter inden udløbet af denne periode.
2. Každý členský stát stanoví podmínky, za nichž dokumentace uvedená v odstavci 1 zůstává k dispozici příslušným vnitrostátním orgánům po dobu stanovenou v uvedeném odstavci pro případy, kdy poskytovatel nebo jeho zplnomocněný zástupce usazený na jeho území vyhlásí úpadek nebo ukončí svou činnost před koncem tohoto období.
3. De udbydere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse, ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, beholder den tekniske dokumentation som en del af den dokumentation, der opbevares i henhold til den relevante EU-ret om finansielle tjenesteydelser.
3. Poskytovatelé, kteří jsou finančními institucemi, na něž se vztahují požadavky týkající se jejich vnitřní správy, systémů nebo postupů podle práva Unie v oblasti finančních služeb, uchovávají technickou dokumentaci jako součást dokumentace vedené podle příslušného práva Unie v oblasti finančních služeb.
Artikel 19
Článek 19
Automatisk genererede logfiler
Automaticky generované protokoly
1. Udbydere af højrisiko-AI-systemer opbevarer de i artikel 12, stk. 1, omhandlede logfiler, der genereres automatisk af deres højrisiko-AI-systemer, i det omfang sådanne logfiler er under deres kontrol. Uden at det berører gældende EU-ret eller national ret, opbevares logfilerne i en periode, der er passende i forhold til det tilsigtede formål med højrisiko-AI-systemet, på mindst seks måneder, medmindre andet er fastsat i gældende EU-ret eller national ret, navnlig EU-retten om beskyttelse af personoplysninger.
1. Uživatelé vysoce rizikových systémů AI, uvedených v čl. 12 odst. 1, uchovávají protokoly automaticky generované jejich vysoce rizikovým systémem AI v rozsahu, v jakém jsou tyto protokoly pod jejich kontrolou. Aniž je dotčeno platné právo Unie nebo vnitrostátní právo, protokoly se uchovávají po dobu odpovídající zamýšlenému účelu vysoce rizikového systému AI, která činí nejméně šest měsíců, nestanoví-li jinak platné právo Unie nebo vnitrostátní právo, zejména právo Unie o ochraně osobních údajů.
2. De udbydere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse, ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, beholder de logfiler, der automatisk genereres af deres højrisiko-AI-systemer som en del af den dokumentation, der opbevares i henhold til den relevante ret om finansielle tjenesteydelser.
2. Poskytovatelé, kteří jsou finančními institucemi, na něž se vztahují požadavky týkající se jejich vnitřní správy, systémů nebo postupů podle práva Unie v oblasti finančních služeb, uchovávají protokoly automaticky generované jejich vysoce rizikovými systémy AI jako součást dokumentace vedené podle příslušného práva v oblasti finančních služeb.
Artikel 20
Článek 20
Korrigerende tiltag og oplysningspligt
Nápravná opatření a informační povinnost
1. De udbydere af højrisiko-AI-systemer, der mener eller har grund til at mene, at et højrisiko-AI-system, som de har bragt i omsætning eller ibrugtaget, ikke er i overensstemmelse med denne forordning, foretager omgående de nødvendige korrigerende tiltag til at bringe det pågældende system i overensstemmelse hermed, tilbagetrække det, tage det ud af drift eller tilbagekalde det, alt efter hvad der er relevant. De underretter distributørerne af det pågældende højrisiko-AI-system og om nødvendigt idriftsætterne, den bemyndigede repræsentant samt importører herom.
1. Poskytovatelé vysoce rizikových systémů AI, kteří se domnívají nebo mají důvod se domnívat, že vysoce rizikový systém AI, který uvedli na trh nebo do provozu, není s tímto nařízením ve shodě, přijmou okamžitě nezbytná nápravná opatření k uvedení daného systému ve shodu nebo k jeho případnému stažení z trhu či z oběhu nebo k jeho vyřazení z provozu. Náležitě informují distributory dotčeného vysoce rizikového systému AI a v relevantních případech zavádějící subjekty, zplnomocněného zástupce a dovozce.
2. Hvis et højrisiko-AI-system udgør en risiko som omhandlet i artikel 79, stk. 1, og udbyderen får kendskab til denne risiko, undersøger denne omgående årsagerne i samarbejde med den indberettende idriftsætter, hvis det er relevant, og underretter de markedsovervågningsmyndigheder, der er kompetente for det pågældende højrisiko-AI-system, og, hvis det er relevant, det bemyndigede organ, der har udstedt en attest for det pågældende højrisiko-AI-system i overensstemmelse med artikel 44, navnlig om arten af den manglende overholdelse og om eventuelle relevante korrigerende tiltag, der er foretaget.
2. Pokud určitý vysoce rizikový systém AI představuje riziko ve smyslu čl. 79 odst. 1 a poskytovatel se o tomto riziku dozví, neprodleně a případně ve spolupráci s nahlašujícím zavádějícím subjektem prošetří příčiny a informuje orgány dozoru nad trhem příslušné pro daný vysoce rizikový systém AI, a případně oznámený subjekt, který vydal pro daný vysoce rizikový systém AI certifikát podle článku 44, a uvede při tom zejména informace o povaze nesouladu a o všech příslušných nápravných opatřeních, která byla přijata.
Artikel 21
Článek 21
Samarbejde med kompetente myndigheder
Spolupráce s příslušnými orgány
1. Udbydere af højrisiko-AI-systemer giver efter begrundet anmodning fra en kompetent myndighed denne myndighed alle de fornødne oplysninger og al den fornødne dokumentation for at påvise, at højrisiko-AI-systemet er i overensstemmelse med de krav, der er fastsat i afdeling 2, på et sprog, som den pågældende myndighed let kan forstå, og på et af EU-institutionernes officielle sprog som angivet af den pågældende medlemsstat.
1. Poskytovatelé vysoce rizikových systémů AI předloží příslušnému orgánu na základě odůvodněné žádosti všechny informace a dokumenty nezbytné k prokázání shody vysoce rizikového systému AI s požadavky stanovenými v oddíle 2, a to v jednom z úředních jazyků orgánů Unie stanovených příslušným členským státem, který je danému orgánu snadno srozumitelný.
2. Efter begrundet anmodning fra en kompetent myndighed giver udbydere, alt efter hvad der er relevant, også den anmodende kompetente myndighed adgang til de automatisk genererede logfiler af højrisiko-AI-systemet, der er omhandlet i artikel 12, stk. 1, i det omfang sådanne logfiler er under deres kontrol.
2. Na základě odůvodněné žádosti příslušného orgánu poskytovatelé rovněž poskytnou žádajícímu příslušnému orgánu přístup k automaticky generovaným protokolům vysoce rizikového systému AI ve smyslu čl. 12 odst. 1 v rozsahu, v jakém jsou tyto protokoly pod jejich kontrolou.
3. Alle de oplysninger, som en kompetent myndighed kommer i besiddelse af i henhold til denne artikel, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
3. S veškerými informacemi obdrženým příslušným orgánem podle tohoto článku se nakládá v souladu s povinnostmi zachování důvěrnosti stanovenými v článku 78.
Artikel 22
Článek 22
Bemyndigede repræsentanter for udbydere af højrisiko-AI-systemer
Zplnomocněný zástupci poskytovatelů vysoce rizikových systémů AI
1. Udbydere, der er etableret i tredjelande, udpeger, inden deres højrisiko-AI-systemer gøres tilgængelige på EU-markedet, ved skriftligt mandat en bemyndiget repræsentant, der er etableret i Unionen.
1. Nežli poskytovatelé usazení ve třetích zemích dodají na trh Unie vysoce rizikové systémy AI, jmenují formou písemného pověření zplnomocněného zástupce usazeného v Unii.
2. Udbyderen skal gøre det muligt for sin bemyndigede repræsentant at udføre de opgaver, der er fastsat i det mandat, vedkommende har modtaget fra udbyderen.
2. Poskytovatel umožní svému zplnomocněnému zástupci provádět úkoly vymezené v pověření, které od poskytovatele obdržel.
3. Den bemyndigede repræsentant udfører de opgaver, der er fastsat i det mandat, vedkommende har modtaget fra udbyderen. Vedkommende skal på anmodning give markedsovervågningsmyndighederne en kopi af mandatet på et af EU-institutionernes officielle sprog som angivet af den kompetente myndighed. Med henblik på denne forordning sætter mandatet den bemyndigede repræsentant i stand til at udføre følgende opgaver:
3. Zplnomocněný zástupce provádí úkoly vymezené v pověření, které od poskytovatele obdržel. Kopii pověření poskytne na požádání orgánům dozoru nad trhem v jednom z úředních jazyků orgánů Unie určeném příslušným orgánem. Pro účely tohoto nařízení zmocňuje pověření zplnomocněného zástupce k provádění těchto úkolů:
a)
at kontrollere, at den EU-overensstemmelseserklæring, der er omhandlet i artikel 47, og den tekniske dokumentation, der er omhandlet i artikel 11, er blevet udarbejdet, og at en passende overensstemmelsesvurderingsprocedure er blevet gennemført af udbyderen
a)
ověřit, zda bylo vypracováno EU prohlášení o shodě uvedené v článku 47 a technická dokumentace uvedená v článku 11 a zda poskytovatel provedl příslušný postup posuzování shody;
b)
i en periode på ti år efter, at højrisiko-AI-systemet er blevet bragt i omsætning eller ibrugtaget, at kunne forelægge de kompetente myndigheder og nationale myndigheder eller organer, der er omhandlet i artikel 74, stk. 10, kontaktoplysningerne for den udbyder, der udpegede den bemyndigede repræsentant, en kopi af den i artikel 47 omhandlede EU-overensstemmelseserklæringen, den tekniske dokumentation og, hvis det er relevant, den attest, der er udstedt af det bemyndigede organ
b)
uchovávat pro potřebu příslušných orgánů a vnitrostátních orgánů či subjektů uvedených v čl. 74 odst. 10 po dobu deseti let od uvedení vysoce rizikového systému AI na trh nebo do provozu kontaktní údaje poskytovatele, který zplnomocněného zástupce jmenoval, kopii EU prohlášení o shodě uvedeného v článku 47, technickou dokumentaci a případně certifikát vydaný oznámeným subjektem;
c)
efter begrundet anmodning at give de kompetente myndigheder alle de fornødne oplysninger og al den fornødne dokumentation, herunder den, der er omhandlet i dette afsnits litra b), for at påvise, at et højrisiko-AI-system er i overensstemmelse med kravene fastsat i afdeling 2, herunder adgang til logfilerne som omhandlet i artikel 12, stk. 1, der genereres automatisk af højrisiko-AI-systemet, i det omfang sådanne logfiler er under udbyderens kontrol
c)
poskytnout příslušnému orgánu na odůvodněnou žádost veškeré informace a dokumentaci, včetně informací a dokumentů uvedených v písmenu b) tohoto pododstavce, jež jsou nezbytné k prokázání shody vysoce rizikového systému AI s požadavky stanovenými v oddíle 2, včetně přístupu k protokolům, uvedeným v čl. 12 odst. 1, které daný vysoce rizikový systém AI automaticky generuje, a to v rozsahu, v jakém jsou tyto protokoly pod kontrolou poskytovatele;
d)
efter begrundet anmodning at samarbejde med de kompetente myndigheder om ethvert tiltag, som sidstnævnte foretager i forbindelse med højrisiko-AI-systemet, navnlig med henblik på at reducere og afhjælpe de risici, som højrisiko-AI-systemet udgør
d)
spolupracovat s příslušnými orgány, na základě odůvodněné žádosti, na veškerých opatřeních, která takový orgán v souvislosti s daným vysoce rizikovým systémem AI přijme, zejména za účelem snížení a zmírnění rizik, která vysoce rizikový systém AI představuje;
e)
hvis det er relevant, at overholde registreringsforpligtelserne, jf. artikel 49, stk. 1, eller, hvis registreringen foretages af udbyderen selv, sikre, at de oplysninger, der er omhandlet i bilag VIII, afsnit A, punkt 3, er korrekte.
e)
případně splnit povinnosti registrace uvedené v čl. 49 odst. 1, nebo pokud registraci provádí sám poskytovatel, zajistit, aby informace uvedené v příloze VIII oddíle A bodu 3 byly správné.
Mandatet giver beføjelse til, at den bemyndigede repræsentant, ud over eller i stedet for udbyderen, kan modtage henvendelser fra de kompetente myndigheder om alle spørgsmål relateret til at sikre overholdelse af denne forordning.
Toto pověření zmocňuje zplnomocněného zástupce k tomu, aby se na něj vedle poskytovatele nebo namísto něj obracely příslušné orgány ve všech otázkách týkajících se zajištění souladu s tímto nařízením.
4. Den bemyndigede repræsentant bringer mandatet til ophør, hvis vedkommende mener eller har grund til at mene, at udbyderen handler i strid med sine forpligtelser i henhold til denne forordning. I så fald underretter den omgående den relevante markedsovervågningsmyndighed samt, hvis det er relevant, det relevante bemyndigede organ om mandatets ophør og begrundelsen herfor.
4. Pokud se zplnomocněný zástupce domnívá nebo má důvod se domnívat, že poskytovatel jedná v rozporu se svými povinnostmi podle tohoto nařízení, předmětné pověření ukončí. V takovém případě rovněž neprodleně informuje relevantní orgán dozoru nad trhem, a případně příslušný oznámený subjekt o ukončení pověření a jeho důvodech.
Artikel 23
Článek 23
Forpligtelser for importører
Povinnosti dovozců
1. Importører sikrer, før de bringer et højrisiko-AI-system i omsætning, at systemet er i overensstemmelse med denne forordning, ved at kontrollere, at:
1. Před uvedením vysoce rizikového systému AI na trh dovozci zajistí, aby byl systém v souladu s tímto nařízením, a v tomto ohledu ověří, že:
a)
udbyderen af dette højrisiko-AI-system har gennemført den relevante overensstemmelsesvurderingsprocedure, jf. artikel 43
a)
poskytovatel daného vysoce rizikového systému AI provedl příslušný postup posuzování shody uvedený v článku 43;
b)
udbyderen har udarbejdet den tekniske dokumentation i overensstemmelse med artikel 11 og bilag IV
b)
poskytovatel vypracoval technickou dokumentaci v souladu s článkem 11 a přílohou IV;
c)
systemet er forsynet med den krævede CE-mærkning og ledsages af den i artikel 47 omhandlede EU-overensstemmelseserklæring og brugsanvisning
c)
systém nese požadované označení CE a je k němu přiloženo EU prohlášení o shodě uvedené v článku 47 a návod k použití;
d)
udbyderen har udpeget en bemyndiget repræsentant i overensstemmelse med artikel 22, stk. 1.
d)
poskytovatel jmenoval zplnomocněného zástupce v souladu s čl. 22 odst. 1.
2. Hvis en importør har tilstrækkelig grund til at mene, at et højrisiko-AI-system ikke er i overensstemmelse med denne forordning eller er forfalsket eller ledsaget af forfalsket dokumentation, må vedkommende ikke bringe systemet i omsætning, før det er blevet bragt i overensstemmelse hermed. Hvis højrisiko-AI-systemet udgør en risiko som omhandlet i artikel 79, stk. 1, underretter importøren udbyderen af systemet, den bemyndigede repræsentant og markedsovervågningsmyndighederne herom.
2. Má-li dovozce dostatečný důvod se domnívat, že určitý vysoce rizikový systém AI není ve shodě s tímto nařízením nebo že je zfalšovaný či je k němu připojena zfalšovaná dokumentace, neuvede tento systém na trh, dokud nebude uveden ve shodu. Pokud daný vysoce rizikový systém AI představuje riziko ve smyslu čl. 79 odst. 1, dovozce o této skutečnosti informuje poskytovatele systému, zplnomocněné zástupce a orgány dozoru nad trhem.
3. Importører angiver deres navn, registrerede firmanavn eller registrerede varemærke og kontaktadresse på højrisiko-AI-systemet og på dets emballage eller i den medfølgende dokumentation, hvis det er relevant.
3. Dovozci případně uvedou na obalu nebo v dokumentaci, která je k vysoce rizikovému systému AI přiložena, svoje jméno, zapsaný obchodní název nebo zapsanou ochrannou známku a adresu, na které je lze kontaktovat.
4. Importører sikrer, at opbevarings- og transportbetingelserne, hvis det er relevant, for højrisiko-AI-systemer, som de har ansvaret for, ikke bringer dets overholdelse af kravene fastsat i afdeling 2 i fare.
4. Dovozci zajistí, aby v době, kdy nesou za vysoce rizikový systém AI odpovědnost, skladovací nebo přepravní podmínky případně neohrožovaly jeho soulad s požadavky stanovenými v oddíle 2.
5. Importører opbevarer i ti år efter, at højrisiko-AI-systemet er blevet bragt i omsætning eller ibrugtaget, en kopi af den attest, der er udstedt af det bemyndigede organ, hvis det er relevant, af brugsanvisningen og af den i artikel 47 omhandlede EU-overensstemmelseserklæring.
5. Dovozci uchovávají po dobu deseti let od uvedení vysoce rizikového systému AI na trh nebo do provozu kopii případného certifikátu vydaného oznámeným subjektem o návodu k použití a EU prohlášení o shodě uvedeného v článku 47.
6. Importører giver efter begrundet anmodning og på et sprog, som de relevante myndigheder let kan forstå, disse myndigheder alle de fornødne oplysninger og al den fornødne dokumentation, herunder den, der er omhandlet i stk. 5, for at påvise, at et højrisiko-AI-system er i overensstemmelse med kravene i afdeling 2. Med henblik herpå skal de også sikre, at den tekniske dokumentation kan stilles til rådighed for disse myndigheder.
6. Dovozci poskytnou relevantním příslušným orgánům na odůvodněnou žádost veškeré informace a dokumentaci, včetně informací a dokumentů podle odstavce 5, jež jsou nezbytné k prokázání shody vysoce rizikového systému AI s požadavky stanovenými v oddíle 2 v jazyce, který je takovým orgánům snadno srozumitelný. Za tímto účelem rovněž zajistí, aby těmto orgánům mohla být zpřístupněna technická dokumentace.
7. Importører samarbejder med de relevante kompetente myndigheder om ethvert tiltag, som disse myndigheder foretager vedrørende et højrisiko-AI-system, som importørerne har bragt i omsætning, navnlig med henblik på at reducere eller afbøde de risici, som det udgør.
7. Dovozci spolupracují s relevantními příslušnými orgány na veškerých opatřeních, která tyto orgány přijmou v souvislosti s vysoce rizikovým systémem AI, jejž dovozci uvedli na trh, zejména za účelem snížení a zmírnění rizik, která tento systém představuje.
Artikel 24
Článek 24
Forpligtelser for distributører
Povinnosti distributorů
1. Distributører kontrollerer, før de gør et højrisiko-AI-system tilgængeligt på markedet, at det er forsynet med den krævede CE-mærkning, at det ledsages af en kopi af den i artikel 47 omhandlede EU-overensstemmelseserklæring og brugsanvisning, og at udbyderen og importøren af dette system, alt efter hvad der er relevant, har opfyldt deres respektive forpligtelser som fastsat i artikel 16, litra b) og c), og artikel 23, stk. 3.
1. Před dodáním vysoce rizikového systému AI na trh distributoři ověří, zda je na daném systému umístěno požadované označení CE, zda je k němu přiloženo EU prohlášení o shodě uvedené v článku 47 a návod k použití a zda poskytovatel a případně dovozce systému splnili své příslušné povinnosti stanovené v čl. 16. písm. b) a c) a v čl. 23 odst. 3.
2. Hvis en distributør på grundlag af oplysningerne i dennes besiddelse mener eller har grund til at mene, at et højrisiko-AI-system ikke er i overensstemmelse med kravene i afdeling 2, må vedkommende ikke gøre højrisiko-AI-systemet tilgængeligt på markedet, før systemet er blevet bragt i overensstemmelse med de nævnte krav. Hvis højrisiko-AI-systemet ydermere udgør en risiko som omhandlet i artikel 79, stk. 1, underretter distributøren udbyderen eller importøren af systemet, alt efter hvad der er relevant, herom.
2. Domnívá-li se distributor nebo má-li důvod se domnívat, na základě informací, které má k dispozici, že vysoce rizikový systém AI není ve shodě s požadavky stanovenými v oddíle 2, nedodá tento vysoce rizikový systém AI na trh, dokud nebude uveden s těmito požadavky ve shodu. Pokud navíc tento vysoce rizikový systém AI představuje riziko ve smyslu čl. 79 odst. 1, distributor o této skutečnosti informuje poskytovatele, případně dovozce tohoto systému.
3. Distributører sikrer, hvis det er relevant, at opbevarings- og transportbetingelserne for højrisiko-AI-systemer, som de har ansvaret for, ikke bringer systemets overholdelse af kravene i afdeling 2 i fare.
3. Distributoři zajistí, aby v době, kdy nesou za vysoce rizikový systém AI odpovědnost, skladovací nebo přepravní podmínky v příslušných případech neohrožovaly jeho soulad s požadavky stanovenými v oddíle 2.
4. Hvis en distributør på grundlag af oplysningerne i dennes besiddelse mener eller har grund til at mene, at et højrisiko-AI-system, som vedkommende har gjort tilgængeligt på markedet, ikke er i overensstemmelse med kravene i afdeling 2, foretager vedkommende de nødvendige korrigerende tiltag for at bringe systemet i overensstemmelse med disse krav, tilbagetrække det eller tilbagekalde det eller sikrer, at udbyderen, importøren eller enhver relevant operatør, alt efter hvad der er relevant, foretager disse korrigerende tiltag. Hvis højrisiko-AI-systemet udgør en risiko som omhandlet i artikel 79, stk. 1, orienterer distributøren omgående udbyderen eller importøren af systemet og de myndigheder, der er kompetente for det pågældende højrisiko-AI-system, herom og giver navnlig nærmere oplysninger om den manglende overholdelse og de foretagne korrigerende tiltag.
4. Distributor, který se na základě informací, které má k dispozici, domnívá nebo má důvod se domnívat, že vysoce rizikový systém AI, který dodal na trh, není ve shodě s požadavky stanovenými v oddíle 2, přijme nápravná opatření nezbytná k uvedení tohoto systému ve shodu s těmito požadavky nebo k jeho stažení z trhu či z oběhu, případně zajistí, aby tato nápravná opatření přijal poskytovatel, dovozce nebo jakýkoli příslušný provozovatel. Představuje-li vysoce rizikový systém AI riziko ve smyslu čl. 79 odst. 1, distributor okamžitě informuje poskytovatele nebo dovozce systému a orgány příslušné pro dotčený vysoce rizikový systém AI, přičemž uvede podrobnosti, zejména o nesouladu a o veškerých přijatých nápravných opatřeních.
5. Efter begrundet anmodning fra en relevant kompetent myndighed giver distributører af et højrisiko-AI-system denne myndighed alle fornødne oplysninger og al fornøden dokumentation vedrørende deres handlinger i henhold til stk. 1-4 for at påvise, at dette højrisiko-AI-system er i overensstemmelse med kravene i afdeling 2.
5. Na odůvodněnou žádost relevantního příslušného orgánu poskytnou distributoři vysoce rizikového systému AI tomuto orgánu všechny informace a dokumentaci týkající se jimi přijatých opatření podle odstavců 1 až 4, které jsou nezbytné k prokázání shody tohoto systému s požadavky stanovenými v oddíle 2.
6. Distributører samarbejder med de relevante kompetente myndigheder om ethvert tiltag, som disse myndigheder foretager vedrørende et højrisiko-AI-system, som distributørerne har bragt i omsætning, navnlig med henblik på at reducere eller afbøde de risici, som det udgør.
6. Distributoři spolupracují s relevantními příslušnými orgány na veškerých opatřeních, která tyto orgány přijmou v souvislosti s vysoce rizikovým systémem AI, jejž distributoři dodali na trh, zejména za účelem snížení či zmírnění rizik, která tento systém představuje.
Artikel 25
Článek 25
Ansvar i hele AI-værdikæden
Povinnosti v celém hodnotovém řetězci AI
1. Enhver distributør, importør, idriftsætter eller anden tredjepart anses for at være udbyder af et højrisiko-AI-system med henblik på denne forordning og er underlagt forpligtelserne for udbydere, jf. artikel 16, i følgende tilfælde:
1. Jakýkoli distributor, dovozce, zavádějící subjekt nebo jiná třetí strana se pro účely tohoto nařízení považují za poskytovatele vysoce rizikového systému AI a vztahují se na ně povinnosti poskytovatele podle článku 16, pokud nastane kterákoli z následujících okolností:
a)
de anbringer deres navn eller varemærke på et højrisiko-AI-system, der allerede er bragt i omsætning eller ibrugtaget, uden at det berører kontraktlige ordninger om, at forpligtelserne er fordelt anderledes
a)
uvedli své jméno, název nebo ochrannou známku na vysoce rizikovém systému AI, který již byl uveden na trh nebo do provozu, aniž jsou dotčena smluvní ujednání, která stanoví, že povinnosti jsou rozděleny jiným způsobem;
b)
de foretager en væsentlig ændring af et højrisiko-AI-system, der allerede er bragt i omsætning eller allerede er ibrugtaget, på en sådan måde, at det forbliver et højrisiko-AI-system i henhold til artikel 6
b)
provádějí podstatnou změnu vysoce rizikového systému AI, který je již uveden na trh nebo je již uveden do provozu, a to tak, že zůstává vysoce rizikovým systémem AI v souladu s článkem 6;
c)
de ændrer det tilsigtede formål med et AI-system, herunder et AI-system til almen brug, der ikke er klassificeret som højrisiko og allerede er bragt i omsætning eller ibrugtaget, på en sådan måde, at det pågældende AI-system bliver et højrisiko-AI-system i overensstemmelse med artikel 6.
c)
mění zamýšlený účel systému AI, včetně obecného systému AI, který nebyl klasifikován jako vysoce rizikový a je již uveden na trh nebo do provozu takovým způsobem, že se dotčený systém AI stane vysoce rizikovým systémem AI v souladu s článkem 6.
2. Hvis de omstændigheder, der er omhandlet i stk. 1, indtræffer, anses den udbyder, der oprindeligt bragte AI-systemet i omsætning eller ibrugtog det, ikke længere for at være udbyder af dette specifikke AI-system i denne forordnings forstand. Denne oprindelige udbyder skal arbejde tæt sammen med nye udbydere og stille de nødvendige oplysninger til rådighed og give den teknisk adgang og anden bistand, som med rimelighed kan forventes, og som kræves for at opfylde forpligtelserne i denne forordning, navnlig hvad angår overholdelse af overensstemmelsesvurderingen af højrisiko-AI-systemer. Dette stykke finder ikke anvendelse i de tilfælde, hvor den oprindelige udbyder klart har præciseret, at dennes AI-system ikke skal ændres til et højrisiko-AI-system og dermed ikke er omfattet af forpligtelsen til at udlevere dokumentationen.
2. Pokud nastanou okolnosti uvedené v odstavci 1, poskytovatel, který původně uvedl systém AI na trh nebo do provozu, není pro účely tohoto nařízení již nadále považován za poskytovatele tohoto konkrétního systému AI. Tento původní poskytovatel úzce spolupracuje s novými poskytovateli a zpřístupní nezbytné informace a poskytne přiměřeně očekávaný technický přístup a další pomoc, které jsou nezbytné pro plnění povinností stanovených v tomto nařízení, zejména pokud jde o soulad s posuzováním shody vysoce rizikových systémů AI. Tento odstavec se nepoužije v případech, kdy původní poskytovatel jasně stanovil, že jeho systém AI nemá být změněn na vysoce rizikový systém AI, a proto se na něj nevztahuje povinnost předložit dokumentaci.
3. Hvad angår højrisiko-AI-systemer, der er sikkerhedskomponenter i produkter, der er omfattet af EU-harmoniseringslovgivningen opført i bilag I, afsnit A, anses producenten for at være udbyderen af højrisiko-AI-systemet og underlægges forpligtelserne i henhold til artikel 16 i følgende tilfælde:
3. V případě vysoce rizikových systémů AI, které jsou bezpečnostními komponentami produktů, na něž se vztahují harmonizační právní předpisy Unie uvedené v příloze I oddíle A, se za poskytovatele vysoce rizikového systému AI považuje výrobce produktů, na nějž se pak vztahují povinnosti stanovené v článku 16 v případě, že nastane jedna z těchto situací:
a)
Højrisiko-AI-systemet bringes i omsætning sammen med produktet under producentens navn eller varemærke.
a)
vysoce rizikový systém AI je uváděn na trh společně s výrobkem pod jménem, názvem nebo ochrannou známkou výrobce produktu;
b)
Højrisiko-AI-systemet ibrugtages under producentens navn eller varemærke, efter at produktet er bragt i omsætning.
b)
vysoce rizikový systém AI je uveden do provozu pod jménem, názvem nebo ochrannou známkou výrobce produktu poté, co byl výrobek uveden na trh.
4. Udbyderen af et højrisiko-AI-system og den tredjepart, der leverer et AI-system, værktøjer, tjenester, komponenter eller processer, der anvendes eller integreres i et højrisiko-AI-system, skal ved skriftlig aftale præcisere de nødvendige oplysninger, kapacitet, teknisk adgang og anden bistand på grundlag af det generelt anerkendte aktuelle teknologiske niveau, så udbydere af højrisiko-AI-systemet er i stand til fuldt ud at overholde forpligtelserne i denne forordning. Dette stykke finder ikke anvendelse på tredjeparter, der gør andre værktøjer, tjenester, processer eller komponenter, der ikke er AI-modeller til almen brug, tilgængelige for offentligheden i henhold til en gratis open source-licens.
4. Poskytovatel vysoce rizikového systému AI a třetí strana, která dodává systém AI, nástroje, služby, komponenty nebo procesy, které jsou v tomto vysoce rizikovém systému AI používány nebo jsou do něj zabudovány, upřesní prostřednictvím písemné dohody nezbytné informace, schopnosti, technický přístup a jinou pomoc na základě obecně uznávaného stavu techniky, aby poskytovatel vysoce rizikového systému AI mohl v plném rozsahu plnit povinnosti stanovené v tomto nařízení. Tento odstavec se nevztahuje na třetí strany, které na základě svobodné a otevřené licence zpřístupňují veřejnosti jiné nástroje, služby, procesy nebo komponenty, než jsou obecné modely AI.
AI-kontoret kan udvikle og anbefale frivillige standardaftalevilkår mellem udbydere af højrisiko-AI-systemer og tredjeparter, der leverer værktøjer, tjenester, komponenter eller processer, som anvendes til eller integreres i højrisiko-AI-systemer. Når AI-kontoret udarbejder disse frivillige standardaftalevilkår, tager det også hensyn til eventuelle kontraktlige krav, der gælder i specifikke sektorer eller forretningsscenarier. De frivillige standardaftalevilkår offentliggøres og stilles gratis til rådighed i et letanvendeligt elektronisk format.
Úřad pro AI může vypracovat a doporučit dobrovolné vzorové podmínky smluv uzavíraných mezi poskytovateli vysoce rizikových systémů AI a třetími stranami, které dodávají nástroje, služby, komponenty nebo procesy, které jsou používány nebo integrovány do vysoce rizikových systémů AI. Při vypracovávání těchto dobrovolných vzorových podmínek zohlední úřad pro AI možné smluvní požadavky uplatňované v konkrétních odvětvích nebo obchodních případech. Tyto dobrovolné vzorové podmínky se zveřejní a bezplatně zpřístupní ve snadno použitelném elektronickém formátu.
5. Stk. 2 og 3 berører ikke behovet for at overholde og beskytte intellektuelle ejendomsrettigheder, fortrolige forretningsoplysninger og forretningshemmeligheder i overensstemmelse med EU-retten og national ret.
5. Odstavci 2 a 3 není dotčena potřeba dodržovat a chránit práva duševního vlastnictví, důvěrné obchodní informace a obchodní tajemství v souladu s právem Unie a vnitrostátním právem.
Artikel 26
Článek 26
Forpligtelser for idriftsættere af højrisiko-AI-systemer
Povinnosti zavádějících subjektů vysoce rizikových systémů AI
1. Idriftsættere af højrisiko-AI-systemer træffer passende tekniske og organisatoriske foranstaltninger for at sikre, at de anvender disse systemer i overensstemmelse med den brugsanvisning, der ledsager systemerne, jf. stk. 3 og 6.
1. Subjekty zavádějící vysoce rizikové systémy AI přijmou vhodná technická a organizační opatření s cílem zajistit, že tyto systémy budou používány v souladu s návodem k použití přiloženým k těmto systémům na základě odstavců 3 a 6.
2. Idriftsættere overdrager varetagelsen af det menneskelige tilsyn til fysiske personer, der har den nødvendige kompetence, uddannelse og myndighed samt den nødvendige støtte.
2. Zavádějící subjekty pověří lidským dohledem fyzické osoby, které k tomu mají nezbytnou způsobilost, odbornou přípravu a pravomoc, jakož i potřebnou podporu.
3. Forpligtelserne i stk. 1 og 2 berører ikke andre idriftsætterforpligtelser i henhold til EU-retten eller national ret eller idriftsætterens frihed til at tilrettelægge sine egne ressourcer og aktiviteter med henblik på at gennemføre de af udbyderen angivne foranstaltninger til menneskeligt tilsyn.
3. Povinnostmi uvedenými v odstavcích 1 a 2 nejsou dotčeny ostatní povinnosti zavádějících subjektů podle práva Unie nebo vnitrostátního práva ani volnost zavádějících subjektů při organizaci vlastních zdrojů a činností za účelem provádění opatření v oblasti lidského dohledu uvedených poskytovatelem.
4. Uden at dette berører stk. 1 og 2, og i det omfang idriftsætteren udøver kontrol over inputdataene, sikrer denne idriftsætter, at inputdataene er relevante og tilstrækkeligt repræsentative med henblik på højrisiko-AI-systemets tilsigtede formål.
4. Aniž jsou dotčeny odstavce 1 a 2, zavádějící subjekt zajistí v rozsahu, v jakém vykonává kontrolu nad vstupními údaji, aby s ohledem na zamýšlený účel vysoce rizikového systému AI byla vstupní data relevantní a dostatečně reprezentativní.
5. Idriftsættere overvåger driften af højrisiko-AI-systemet på grundlag af brugsanvisningen og underretter, hvis det er relevant, udbyderne i overensstemmelse med artikel 72. Hvis idriftsættere har grund til at mene, at anvendelsen af højrisiko-AI-systemet i overensstemmelse med anvisningerne kan resultere i, at AI-systemet udgør en risiko som omhandlet i artikel 79, stk. 1, underretter de uden unødigt ophold udbyderen eller distributøren og den relevante markedsovervågningsmyndighed og stiller anvendelsen af dette system i bero. Hvis idriftsættere har konstateret en alvorlig hændelse, underretter de også omgående først udbyderen og dernæst importøren eller distributøren og de relevante markedsovervågningsmyndigheder om den pågældende hændelse. Hvis idriftsætteren ikke er i stand til at kontakte udbyderen, finder artikel 73 tilsvarende anvendelse. Denne forpligtelse omfatter ikke følsomme operationelle data fra idriftsættere af AI-systemer, som er retshåndhævende myndigheder.
5. Zavádějící subjekty monitorují provoz vysoce rizikového systému AI na základě návodu k použití a v příslušných případech informují poskytovatele v souladu s článkem 72. Mají-li zavádějící subjekty důvod se domnívat, že používání vysoce rizikového systému AI v souladu s návodem k použití může založit riziko spojené se systémem AI ve smyslu čl. 79 odst. 1, bez zbytečného odkladu o této skutečnosti uvědomí poskytovatele nebo distributora a příslušné orgány dozoru nad trhem a používání systému pozastaví. Zjistí-li zavádějící subjekty závažný incident, neprodleně o tomto incidentu informují nejprve poskytovatele a poté dovozce nebo distributora a příslušné orgány dozoru nad trhem. V případě, že se zavádějícímu subjektu nepodaří poskytovatele kontaktovat, použije se obdobně článek 73. Tato povinnost se nevztahuje na citlivé operativní údaje subjektů zavádějících systémy AI, kteří jsou donucovacími orgány.
For idriftsættere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse, ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, anses overvågningsforpligtelsen i første afsnit for at være opfyldt ved overholdelse af reglerne om ordninger, processer og mekanismer for intern ledelse i henhold til den relevante ret om finansielle tjenesteydelser.
V případě zavádějících subjektů, které jsou finančními institucemi, na něž se vztahují požadavky týkající se jejich vnitřní správy, systémů nebo postupů podle práva Unie v oblasti finančních služeb, se povinnost monitorování stanovená v prvním pododstavci považuje za splněnou, jsou-li dodržena pravidla týkající se systémů, postupů a mechanismů vnitřní správy podle příslušného práva Unie v oblasti finančních služeb.
6. Idriftsættere af højrisiko-AI-systemer opbevarer de logfiler, der genereres automatisk af det pågældende højrisiko-AI-system, i det omfang sådanne logfiler er under deres kontrol, i en periode, der er passende i forhold til det tilsigtede formål med højrisiko-AI-systemet, på mindst seks måneder, medmindre andet er fastsat i gældende EU-ret eller national ret, navnlig EU-retten om beskyttelse af personoplysninger.
6. Subjekty zavádějící vysoce rizikové systémy AI uchovávají protokoly automaticky generované tímto vysoce rizikovým systémem AI v rozsahu, v jakém jsou tyto protokoly pod jejich kontrolou, po dobu odpovídající zamýšlenému účelu vysoce rizikového systému AI, jež není kratší než šest měsíců, pokud platné unijní nebo vnitrostátní právo, zejména právo Unie o ochraně osobních údajů, nestanoví jinak.
Idriftsættere, der er finansielle institutioner, som er underlagt krav vedrørende deres interne ledelse, ordninger eller processer i henhold til EU-retten om finansielle tjenesteydelser, beholder logfilerne som en del af den dokumentation, der opbevares i henhold til den relevante EU-ret om finansielle tjenesteydelser.
Zavádějící subjekty, které jsou finančními institucemi, na něž se vztahují požadavky týkající se jejich vnitřní správy, systémů nebo postupů podle práva Unie v oblasti finančních služeb, uchovávají protokoly jako součást dokumentace vedené podle příslušného práva Unie v oblasti finančních služeb.
7. Inden ibrugtagning eller anvendelse af et højrisiko-AI-system på arbejdspladsen informerer idriftsættere, som er arbejdsgivere, arbejdstagerrepræsentanter og de berørte arbejdstagere om, at de vil være omfattet af anvendelsen af højrisiko-AI-systemet. Denne information forelægges, hvis det er relevant, i overensstemmelse med de regler og procedurer, der er fastsat i EU-retten og EU-praksis og national ret og praksis om informering af arbejdstagere og deres repræsentanter.
7. Zavádějící subjekty, jež jsou zaměstnavateli, před uvedením do provozu nebo používáním vysoce rizikového systému AI na pracovišti informují zástupce zaměstnanců a dotčené pracovníky, že budou používání vysoce rizikového systému AI vystaveni. Tyto informace se případně poskytují jednak v souladu s pravidly a postupy stanovenými v právu Unie a vnitrostátním právu, a jednak v souladu se zvyklostmi pro informování pracovníků a jejich zástupců.
8. Idriftsættere af højrisiko-AI-systemer, der er offentlige myndigheder eller EU-institutioner, -organer, -kontorer eller -agenturer, overholder de registreringsforpligtelser, der er omhandlet i artikel 49. Når sådanne idriftsættere konstaterer, at det højrisiko-AI-system, de påtænker at anvende, ikke er registreret i den EU-database, der er omhandlet i artikel 71, anvender de ikke dette system og underretter leverandøren eller distributøren.
8. Subjekty zavádějící vysoce rizikové systémy AI, jež jsou veřejnými orgány nebo orgány, institucemi nebo jinými subjekty Unie, plní povinnosti registrace uvedené v článku 49. Pokud tyto zavádějící subjekty zjistí, že vysoce rizikový systém AI, který hodlají používat, nebyl zaregistrován v databázi EU uvedené v článku 71, pak tento systém nepoužijí a informují o této skutečnosti poskytovatele nebo distributora.
9. Hvis det er relevant, anvender idriftsættere af højrisiko-AI-systemer de oplysninger, der er fastsat i henhold til denne forordnings artikel 13, til at overholde deres forpligtelse til at foretage en konsekvensanalyse vedrørende databeskyttelse i henhold til artikel 35 i forordning (EU) 2016/679 eller artikel 27 i direktiv (EU) 2016/680.
9. Subjekty zavádějící vysoce rizikové systémy AI v příslušných případech použijí informace poskytnuté podle článku 13 ke splnění své povinnosti provést posouzení vlivu na ochranu osobních údajů podle článku 35 nařízení (EU) 2016/679 nebo podle článku 27 směrnice (EU) 2016/680.
10. Uden at det berører direktiv (EU) 2016/680, anmoder idriftsætteren af et højrisiko-AI-system til efterfølgende biometrisk fjernidentifikation inden for rammerne af en efterforskning med henblik på en målrettet eftersøgning af en person, der er mistænkt eller tiltalt for at have begået en strafbar handling, om tilladelse fra en judiciel myndighed eller en administrativ myndighed, hvis afgørelse er bindende og underlagt domstolskontrol, til på forhånd eller uden unødigt ophold og senest inden for 48 timer at anvende det pågældende system, medmindre det anvendes til indledende identifikation af en potentiel mistænkt på grundlag af objektive og verificerbare kendsgerninger, der er direkte knyttet til overtrædelsen. Hver anvendelse begrænses til, hvad der er strengt nødvendigt for efterforskningen af en specifik strafbar handling.
10. Aniž je dotčena směrnice (EU) 2016/680, subjekt zavádějící vysoce rizikový systém AI pro následnou biometrickou identifikaci na dálku v rámci pátrání za účelem cíleného vyhledávání osoby podezřelé ze spáchání trestného činu nebo odsouzené za trestný čin požádá, buď předem, nebo bez zbytečného odkladu a nejpozději do 48 hodin, justiční orgán nebo správní orgán, jehož rozhodnutí je závazné a podléhá soudnímu přezkumu, o povolení použít daný systém, s výjimkou případů, kdy se tento systém používá k prvotní identifikaci potenciálního podezřelého na základě objektivních a ověřitelných skutečností přímo souvisejících s trestným činem. Každé použití je omezeno na to, co je nezbytně nutné pro vyšetřování konkrétního trestného činu.
Hvis den tilladelse, der er anmodet om i henhold til første afsnit, afvises, bringes anvendelsen af systemet til efterfølgende biometrisk fjernidentifikation, der er knyttet til denne tilladelse, der anmodes om, straks til ophør, og de personoplysninger, der er knyttet til anvendelsen af det højrisiko-AI-system, som der blev anmodet om tilladelse til, slettes.
Je-li povolení, o něž je požádáno podle prvního pododstavce, zamítnuto, používání systému pro následnou biometrickou identifikaci na dálku spojeného s tímto požadovaným povolením se s okamžitým účinkem ukončí a osobní údaje spojené s používáním daného vysoce rizikového systému AI, pro který bylo o povolení požádáno, se vymažou.
Et sådant højrisiko-AI-system til efterfølgende biometrisk fjernidentifikation må under ingen omstændigheder anvendes til retshåndhævelsesformål på en ikkemålrettet måde uden nogen forbindelse til en strafbar handling, en straffesag, en reel og aktuel eller reel og forudsigelig trussel om en strafbar handling eller eftersøgning af en specifik forsvundet person. Det sikres, at der ikke træffes nogen afgørelse, der har negative retsvirkninger for en person, af de retshåndhævende myndigheder, udelukkende baseret på outputtet af sådanne systemer til efterfølgende biometrisk fjernidentifikation.
V žádném případě nesmí být tento vysoce rizikový systém AI pro následnou biometrickou identifikaci na dálku používán pro účely vymáhání práva necíleným způsobem, bez jakékoli souvislosti s určitým trestným činem, trestním řízením, skutečnou a aktuální nebo skutečnou a předvídatelnou hrozbou trestného činu nebo pátráním po konkrétní pohřešované osobě. Zajistí se, aby donucovací orgány nemohly výlučně na základě výstupu těchto systémů pro následnou biometrickou identifikaci na dálku přijmout žádné rozhodnutí, které má pro danou osobu nepříznivé právní účinky.
Dette stykke berører ikke artikel 9 i forordning (EU) 2016/679 og artikel 10 i direktiv (EU) 2016/680 med hensyn til behandling af biometriske data.
Tímto odstavcem není dotčen článek 9 nařízení (EU) 2016/679 a článek 10 směrnice (EU) 2016/680, pokud jde o zpracování biometrických údajů.
Uanset formålet eller idriftsætteren skal hver anvendelse af sådanne højrisiko-AI-systemer dokumenteres i det relevante politiregister og efter anmodning stilles til rådighed for den relevante markedsovervågningsmyndighed og den nationale databeskyttelsesmyndighed, undtagen hvis det drejer sig om videregivelse af følsomme operationelle data vedrørende retshåndhævelse. Dette afsnit berører ikke de beføjelser, der tillægges tilsynsmyndighederne ved direktiv (EU) 2016/680.
Bez ohledu na účel nebo zavádějící subjekt je každé použití těchto vysoce rizikových systémů AI zdokumentováno v příslušném policejním spisu a na požádání zpřístupněno příslušnému orgánu dozoru nad trhem a vnitrostátnímu orgánu pro ochranu osobních údajů, s výjimkou uvedení citlivých operativních údajů týkajících se vymáhání práva. Tímto pododstavcem nejsou dotčeny pravomoci, které směrnice (EU) 2016/680 svěřuje dozorovým orgánům.
Idriftsættere forelægger årlige rapporter for de relevante markedsovervågningsmyndigheder og de relevante nationale databeskyttelsesmyndigheder om deres anvendelse af systemer til efterfølgende biometrisk fjernidentifikation, undtagen hvis det drejer sig om videregivelse af følsomme operationelle data vedrørende retshåndhævelse. Rapporterne kan samles for at dække mere end én idriftsættelse.
Zavádějící subjekty předkládají příslušným orgánům dozoru nad trhem a vnitrostátním orgánům pro ochranu osobních údajů výroční zprávy, v níž je uvedeno, jak systémy pro následnou biometrickou identifikaci na dálku používají, s výjimkou uvedení citlivých operativních údajů týkajících se vymáhání práva. Zprávy je možné vypracovat souhrnně tak, aby se vztahovali k více než jednomu zavedení systému.
Medlemsstaterne kan i overensstemmelse med EU-retten indføre mere restriktiv lovgivning om anvendelsen af systemer til efterfølgende biometrisk fjernidentifikation.
Členské státy mohou v souladu s právem Unie zavést přísnější právní předpisy týkající se používání systémů pro následnou biometrickou identifikaci na dálku.
11. Uden at det berører denne forordnings artikel 50, underretter idriftsættere af de i bilag III omhandlede højrisiko-AI-systemer, der træffer beslutninger eller bistår med at træffe beslutninger vedrørende fysiske personer, de fysiske personer om, at de er genstand for anvendelsen af et højrisiko-AI-system. For højrisiko-AI-systemer, der anvendes til retshåndhævelsesformål, finder artikel 13 i direktiv (EU) 2016/680 anvendelse.
11. Aniž je dotčen článek 50 tohoto nařízení, subjekty zavádějící vysoce rizikové systémy AI uvedené v příloze III, které přijímají rozhodnutí nebo pomáhají při přijímání rozhodnutí týkajících se fyzických osob, tyto fyzické osoby informují, že jsou použití vysoce rizikového systému AI vystaveny. Na vysoce rizikové systémy AI používané pro účely vymáhání práva se použije článek 13 směrnice (EU) 2016/680.
12. Idriftsættere samarbejder med de relevante kompetente myndigheder om ethvert tiltag, som disse myndigheder foretager vedrørende højrisiko-AI-systemet, med henblik på gennemførelse af denne forordning.
12. Zavádějící subjekty spolupracují s příslušnými orgány na veškerých opatřeních, která tyto orgány v souvislosti s vysoce rizikovým systémem AI přijmou za účelem provádění tohoto nařízení.
Artikel 27
Článek 27
Konsekvensanalyse vedrørende grundlæggende rettigheder for højrisiko-AI-systemer
Posouzení dopadu vysoce rizikových systémů AI na základní práva
1. Inden idriftsættelse af et højrisiko-AI-system omhandlet i artikel 6, stk. 2, undtagen højrisiko-AI-systemer, der tilsigtes anvendt på det område, der er anført i bilag III, punkt 2, foretager idriftsættere, der er offentligretlige organer eller private enheder, der leverer offentlige tjenester, og idriftsættere af de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 5, litra b) og c), en analyse af konsekvensen for grundlæggende rettigheder, som anvendelsen af et sådant system kan medføre. Med henblik herpå foretager idriftsætterne en konsekvensanalyse bestående af:
1. Před zavedením vysoce rizikového systému AI podle čl. 6 odst. 2, s výjimkou vysoce rizikových systémů AI určených k použití v oblasti uvedené v příloze III bodě 2, zavádějící subjekty, které jsou veřejnoprávními nebo soukromými subjekty poskytujícími veřejné služby, a zavádějící subjekty provozující vysoce rizikové systémy AI uvedené v příloze III bodě 5 písm. b) a c) provedou posouzení dopadu na základní práva, který může použití takového systému mít. Za tímto účelem provedou zavádějící subjekty posouzení, které zahrnuje:
a)
en beskrivelse af idriftsætterens processer, i hvilke højrisiko-AI-systemet vil blive anvendt i overensstemmelse med dets tilsigtede formål
a)
popis procesů zavádějícího subjektu, v nichž bude vysoce rizikový systém AI používán v souladu s jeho zamýšleným účelem;
b)
en beskrivelse af den periode og hyppighed, inden for hvilken hvert højrisiko-AI-system tilsigtes anvendt
b)
popis časového období a frekvence plánovaného použití každého z vysoce rizikových systémů AI;
c)
de kategorier af fysiske personer og grupper, som forventes at blive påvirket af dets anvendelse i den specifikke kontekst
c)
kategorie fyzických osob a skupin, které by mohly být jeho používáním v konkrétním kontextu dotčeny;
d)
de specifikke risici for skade, der sandsynligvis vil påvirke de kategorier af fysiske personer eller grupper af personer, som er identificeret i henhold til dette stykkes litra c), under hensyntagen til oplysningerne fra udbyderen, jf. artikel 13
d)
specifická rizika újmy, která by mohla mít dopad na kategorie fyzických osob nebo skupiny osob určených podle písmene c) tohoto odstavce, a to při zohlednění informací dodaných poskytovatelem podle článku 13;
e)
en beskrivelse af gennemførelsen af foranstaltninger til menneskeligt tilsyn i overensstemmelse med brugsanvisningen
e)
popis provádění opatření lidského dohledu, v souladu s návodem k použití;
f)
de foranstaltninger, der skal træffes, hvis disse risici opstår, herunder ordningerne for intern ledelse og klagemekanismer.
f)
opatření, která mají být přijata v případě naplnění těchto rizik, včetně opatření pro vnitřní správu a mechanismy vyřizování stížností.
2. Den i stk. 1 fastsatte forpligtelse gælder for den første anvendelse af højrisiko-AI-systemet. Idriftsætteren kan i lignende tilfælde anvende tidligere gennemførte konsekvensanalyser vedrørende grundlæggende rettigheder eller eksisterende konsekvensanalyser, som udbyderen har foretaget. Hvis idriftsætteren under anvendelsen af højrisiko-AI-systemet finder, at nogle af de elementer, der er anført i stk. 1, har ændret sig eller ikke længere er ajourførte, tager idriftsætteren de nødvendige skridt til at ajourføre oplysningerne.
2. Povinnost stanovená v odstavci 1 platí pro první použití vysoce rizikového systému AI. Zavádějící subjekt může v podobných případech vycházet z dříve provedeného posouzení dopadů na základní práva nebo ze stávajících posouzení, které provedl poskytovatel. Pokud během použití vysoce rizikového systému AI zavádějící subjekt posoudí, že se některý z prvků uvedených v odstavci 1 změnil nebo již není aktuální, přijme nezbytné kroky k aktualizaci těchto informací.
3. Når den i stk. 1 omhandlede konsekvensanalyse er foretaget, meddeler idriftsætteren markedsovervågningsmyndigheden resultaterne heraf og forelægger den i denne artikels stk. 5 omhandlede udfyldte skabelon som en del af meddelelsen. I det tilfælde, som er omhandlet i artikel 46, stk. 1, kan idriftsættere undtages fra denne meddelelsespligt.
3. Po provedení posouzení uvedeném v odstavci 1 tohoto článku zavádějící subjekt informuje o jeho výsledcích orgán dozoru na trhem prostřednictvím vyplněného dotazníku uvedeného v odstavci 5 tohoto článku. V případě uvedeném v čl. 46 odst. 1 mohou být zavádějící subjekty od této povinnosti oznámení osvobozeny.
4. Hvis nogle af de forpligtelser, der er fastsat i denne artikel, allerede er opfyldt ved den konsekvensanalyse vedrørende databeskyttelse, der foretages i henhold til artikel 35 i forordning (EU) 2016/679 eller artikel 27 i direktiv (EU) 2016/680, supplerer den i nærværende artikels stk. 1 omhandlede konsekvensanalyse vedrørende grundlæggende rettigheder den pågældende konsekvensanalyse vedrørende databeskyttelse.
4. Je-li některá z povinností stanovených v tomto článku splněna již na základě posouzení dopadu na ochranu osobních údajů provedeného podle článku 35 nařízení (EU) 2016/679 nebo článku 27 směrnice (EU) 2016/680, potom může posouzení dopadu na základní práva uvedené v odstavci 1 tohoto článku doplnit posouzení dopadu na ochranu osobních údajů.
5. AI-kontoret udarbejder en skabelon til et spørgeskema, herunder gennem et automatiseret værktøj, der skal gøre det lettere for idriftsættere at overholde deres forpligtelser i henhold til denne artikel på en forenklet måde.
5. Úřad pro AI vypracuje vzor pro dotazník, a to i prostřednictvím automatizovaného nástroje, aby zavádějícím subjektům usnadnil plnění povinností podle tohoto článku.
AFDELING 4
ODDÍL 4
Bemyndigende myndigheder og bemyndigede organer
Oznamující orgány a oznámené subjekty
Artikel 28
Článek 28
Bemyndigende myndigheder
Oznamující orgány
1. Hver medlemsstat udpeger eller opretter mindst én bemyndigende myndighed med ansvar for at indføre og gennemføre de nødvendige procedurer for vurdering, udpegelse og notifikation af overensstemmelsesvurderingsorganer og for overvågning heraf. Disse procedurer udvikles i samarbejde mellem de bemyndigende myndigheder i alle medlemsstater.
1. Každý členský stát určí nebo zřídí alespoň jeden oznamující orgán odpovědný za vytvoření a provádění nezbytných postupů pro posuzování, jmenování a oznamování subjektů posuzování shody a za jejich kontrolu. Tyto postupy se vypracují ve spolupráci mezi oznamujícími orgány všech členských států.
2. Medlemsstaterne kan beslutte, at den i stk. 1 omhandlede vurdering og overvågning skal foretages af et nationalt akkrediteringsorgan som omhandlet i og i overensstemmelse med forordning (EF) nr. 765/2008.
2. Členské státy mohou rozhodnout, že posuzování a monitorování uvedené v odstavci 1 má provést vnitrostátní akreditační orgán ve smyslu nařízení (ES) č. 765/2008 a v souladu s ním.
3. Bemyndigende myndigheder oprettes, organiseres og drives på en sådan måde, at der ikke opstår interessekonflikter med overensstemmelsesvurderingsorganerne, og at der sikres objektivitet og uvildighed i deres aktiviteter.
3. Oznamující orgány musí být zřízeny, organizovány a fungovat tak, aby nedošlo ke střetu zájmu se subjekty posuzování shody a aby zabezpečily objektivitu a nestrannost svých činností.
4. Bemyndigende myndigheder er organiseret på en sådan måde, at afgørelser om notifikation af overensstemmelsesvurderingsorganer træffes af kompetente personer, der ikke er identiske med dem, der har foretaget vurderingen af disse organer.
4. Oznamující orgány musí být organizovány takovým způsobem, aby rozhodnutí týkající se oznámení subjektů posuzování shody přijímaly způsobilé osoby odlišné od těch, které provedly posouzení těchto subjektů.
5. Bemyndigende myndigheder hverken tilbyder eller leverer aktiviteter, som udføres af overensstemmelsesvurderingsorganer, eller nogen form for rådgivningstjeneste på kommercielt eller konkurrencemæssigt grundlag.
5. Oznamující orgány nesmí nabízet ani poskytovat žádné činnosti, které provádějí subjekty posuzování shody, a nesmí poskytovat poradenské služby na komerčním nebo konkurenčním základě.
6. Bemyndigende myndigheder sikrer, at de oplysninger, de kommer i besiddelse af, behandles fortroligt i overensstemmelse med artikel 78.
6. Oznamující orgány musí chránit důvěrnost informací získaných v souladu s článkem 78.
7. Bemyndigende myndigheder skal have et tilstrækkelig stort kompetent personale til, at de kan udføre deres opgaver behørigt. Det kompetente personale skal have den ekspertise, der er nødvendig for deres funktion, hvis det er relevant, på områder såsom informationsteknologier, AI og jura, herunder tilsyn med grundlæggende rettigheder.
7. Oznamující orgány musí mít k dispozici přiměřený počet odborně způsobilých pracovníků, aby mohly řádně plnit své úkoly. Odborně způsobilí pracovníci mají podle potřeby nezbytné odborné znalosti pro svou činnost v oblastech, jako jsou informační technologie, AI a právo, včetně dohledu nad základními právy.
Artikel 29
Článek 29
Ansøgning om notifikation af et overensstemmelsesvurderingsorgan
Žádost subjektu posuzování shody o oznámení
1. Overensstemmelsesvurderingsorganer indgiver en ansøgning om notifikation til den bemyndigende myndighed i den medlemsstat, hvor de er etableret.
1. Subjekty posuzování shody podávají žádost o oznámení oznamujícímu orgánu členského státu, v němž jsou usazeny.
2. Ansøgningen om notifikation ledsages af en beskrivelse af de overensstemmelsesvurderingsaktiviteter, det eller de overensstemmelsesvurderingsmoduler og de typer AI-systemer, som overensstemmelsesvurderingsorganet hævder at være kompetent til, samt af en eventuel akkrediteringsattest udstedt af et nationalt akkrediteringsorgan, hvori det bekræftes, at overensstemmelsesvurderingsorganet opfylder kravene i artikel 31.
2. Součástí žádosti o oznámení je popis činností posuzování shody, modulu nebo modulů posuzování shody a typů systémů AI, pro něž se subjekt posuzování shody prohlašuje za způsobilý, jakož i osvědčení o akreditaci, pokud existuje, vydané vnitrostátním akreditačním orgánem, které potvrzuje, že subjekt posuzování shody splňuje požadavky stanovené v článku 31.
Alle gyldige dokumenter vedrørende eksisterende udpegelser af det ansøgende bemyndigede organ i henhold til enhver anden EU-harmoniseringslovgivning tilføjes.
Přikládá se rovněž jakýkoli platný dokument týkající se stávajících jmenování žádajícího oznámeného subjektu podle jiných harmonizačních právních předpisů Unie.
3. Hvis det pågældende overensstemmelsesvurderingsorgan ikke kan forelægge en akkrediteringsattest, forelægger det den bemyndigende myndighed al den dokumentation, der er nødvendig for verifikationen, anerkendelsen og den regelmæssige overvågning af, at det overholder kravene i artikel 31.
3. Nemůže-li dotčený subjekt posuzování shody předložit osvědčení o akreditaci, poskytne oznamujícímu orgánu veškeré doklady nezbytné k ověření, uznání a pravidelné kontrole svého souladu s požadavky stanovenými v článku 31.
4. For bemyndigede organer, der er udpeget i henhold til enhver anden EU-harmoniseringslovgivning, kan alle dokumenter og attester, der er knyttet til disse udpegelser, alt efter hvad der er relevant, anvendes til at understøtte deres udpegelsesprocedure i henhold til denne forordning. Det bemyndigede organ ajourfører den i denne artikels stk. 2 og 3 omhandlede dokumentation, når der sker relevante ændringer, for at give myndigheden med ansvar for bemyndigede organer mulighed for at overvåge og verificere, at alle krav i artikel 31 løbende er opfyldt.
4. U oznámených subjektů, které jsou jmenovány podle jiných harmonizačních právních předpisů Unie, lze případně pro doložení postupů jmenování podle tohoto nařízení použít veškeré dokumenty a certifikáty související s tímto jmenováním. Oznámený subjekt aktualizuje dokumentaci uvedenou v odstavcích 2 a 3 tohoto článku, a to kdykoli dojde k významným změnám, aby umožnil orgánu odpovědnému za oznámené subjekty kontrolovat a ověřovat nepřetržitý soulad se všemi požadavky stanovenými v článku 31.
Artikel 30
Článek 30
Notifikationsprocedure
Postup oznamování
1. De bemyndigende myndigheder må kun bemyndige overensstemmelsesvurderingsorganer, som opfylder kravene i artikel 31.
1. Oznamující orgány mohou oznámit pouze subjekty posuzování shody, které splňují požadavky stanovené v článku 31.
2. De bemyndigende myndigheder underretter Kommissionen og de øvrige medlemsstater om hvert overensstemmelsesvurderingsorgan, der er omhandlet i stk. 1, ved hjælp af det elektroniske notifikationsværktøj, der er udviklet og forvaltes af Kommissionen.
2. K oznámení každého subjektu posuzování shody uvedeného v odstavci 1 Komisi a ostatním členským státům využijí oznamující orgány elektronický nástroj pro oznamování vyvinutý a spravovaný Komisí.
3. Den notifikationen, der er omhandlet i denne artikels stk. 2, skal indeholde fyldestgørende oplysninger om overensstemmelsesvurderingsaktiviteterne, overensstemmelsesvurderingsmodulet eller -modulerne, de pågældende typer AI-systemer og den relevante dokumentation for kompetencen. Hvis en bemyndigelse ikke er baseret på en akkrediteringsattest som omhandlet i artikel 29, stk. 2, skal den bemyndigende myndighed forelægge Kommissionen og de øvrige medlemsstater dokumentation, der bekræfter overensstemmelsesvurderingsorganets kompetence og de ordninger, der er indført for at sikre, at der regelmæssigt føres tilsyn med organet, og at organet også fremover vil opfylde de i artikel 31 fastsatte krav.
3. Oznámení uvedené v odstavci 2 tohoto článku obsahuje veškeré podrobnosti o dotčených činnostech posuzování shody, modulu nebo modulech posuzování shody a typech systémů AI a příslušné potvrzení o způsobilosti. Pokud se oznámení nezakládá na osvědčení o akreditaci uvedeném v čl. 29 odst. 2, poskytne oznamující orgán Komisi a ostatním členským státům podklady, které prokazují způsobilost subjektu posuzování shody, a informace o zavedených opatřeních k zajištění toho, aby byl subjekt pravidelně kontrolován a i v budoucnu splňoval požadavky stanovené v článku 31.
4. Det pågældende overensstemmelsesvurderingsorgan må kun udføre aktiviteter som bemyndiget organ, hvis Kommissionen og de øvrige medlemsstater ikke har gjort indsigelse inden for to uger efter en bemyndigende myndigheds notifikation, hvis den indeholder en akkrediteringsattest, jf. artikel 29, stk. 2, eller senest to måneder efter den bemyndigende myndigheds notifikation, hvis den indeholder den dokumentation, der er omhandlet i artikel 29, stk. 3.
4. Dotčený subjekt posuzování shody může vykonávat činnosti oznámeného subjektu, pouze pokud proti tomu Komise nebo ostatní členské státy nevznesly námitky do dvou týdnů od oznámení oznamujícího orgánu, obsahuje-li osvědčení o akreditaci podle čl. 29 odst. 2, nebo do dvou měsíců od oznámení, obsahuje-li doklady podle čl. 29 odst. 3.
5. Hvis der gøres indsigelse, hører Kommissionen straks de relevante medlemsstater og overensstemmelsesvurderingsorganet. Med henblik herpå træffer Kommissionen afgørelse om, hvorvidt tilladelsen er berettiget. Kommissionen retter sin afgørelse til den pågældende medlemsstat og det relevante overensstemmelsesvurderingsorgan.
5. Jsou-li námitky vzneseny, Komise s příslušnými členskými státy a subjektem posuzování shody neprodleně zahájí konzultace. S ohledem na to Komise rozhodne, zda je povolení oprávněné, či nikoli. Rozhodnutí Komise je určeno dotčenému členskému státu a příslušnému subjektu posuzování shody.
Artikel 31
Článek 31
Krav vedrørende bemyndigede organer
Požadavky na oznámené subjekty
1. Et bemyndiget organ skal oprettes i henhold til national ret i en medlemsstat og være en juridisk person.
1. Oznámený subjekt musí být zřízen podle vnitrostátního práva členského státu a mít právní subjektivitu.
2. Bemyndigede organer skal opfylde de organisatoriske krav samt de kvalitetsstyrings-, ressource- og procedurekrav, der er nødvendige for at kunne udføre deres opgaver, samt passende cybersikkerhedskrav.
2. Oznámené subjekty splňují organizační požadavky a požadavky na řízení kvality, zdroje a postupy, které jsou k plnění uvedených úkolů nezbytné, stejně jako odpovídající požadavky na kybernetickou bezpečnost.
3. Bemyndigede organers organisationsstruktur, ansvarsfordeling, rapporteringsveje og drift skal sikre, at der er tillid til deres arbejde og til resultaterne af de bemyndigede organers overensstemmelsesvurderingsaktiviteter.
3. Organizační struktura, rozdělení odpovědností, způsob podávání zpráv a fungování oznámených subjektů musí být takové, aby byla zajištěna důvěra v provádění a výsledky činností posuzování shody, které oznámené subjekty provádějí.
4. Bemyndigede organer skal være uafhængige af udbyderen af højrisiko-AI-systemet, i forbindelse med hvilket de udfører overensstemmelsesvurderingsaktiviteter. Bemyndigede organer skal også være uafhængige af alle andre operatører, der har en økonomisk interesse i højrisiko-AI-systemer, der vurderes, og af enhver konkurrent til udbyderen. Dette er ikke til hinder for at anvende vurderede højrisiko-AI-systemer, som er nødvendige for overensstemmelsesvurderingsorganets drift, eller for at anvende sådanne højrisiko-AI-systemer til personlige formål.
4. Oznámené subjekty jsou nezávislé na poskytovateli vysoce rizikového systému AI, u něhož provádějí činnosti posuzování shody. Oznámené subjekty jsou rovněž nezávislé na jakémkoliv jiném provozovateli, který má na posuzovaných vysoce rizikových systémech AI zájem, i na jakýchkoliv konkurentech poskytovatele. To nevylučuje používání posuzovaných vysoce rizikových systémů AI, které jsou nezbytné pro činnost subjektu posuzování shody, ani používání takových vysoce rizikových systémů AI pro osobní účely.
5. Hverken overensstemmelsesvurderingsorganet, dets øverste ledelse eller det personale, der er ansvarligt for at udføre dets overensstemmelsesvurderingsopgaver, må være direkte involveret i udformningen, udviklingen, markedsføringen eller anvendelsen af højrisiko-AI-systemer eller repræsentere parter, der deltager i disse aktiviteter. De må ikke deltage i aktiviteter, som kan være i strid med deres objektivitet eller integritet, når de udfører de aktiviteter i forbindelse med overensstemmelsesvurdering, som de er bemyndiget til at udføre. Dette gælder navnlig rådgivningstjenester.
5. Subjekt posuzování shody, jeho nejvyšší vedení a pracovníci odpovědní za plnění úkolů posuzování shody se nesmějí přímo podílet na navrhování, vývoji, uvádění na trh nebo používání vysoce rizikových systémů AI ani nesmějí zastupovat strany, které se těmito činnostmi zabývají. Nesmějí vykonávat žádnou činnost, která by mohla ohrozit jejich nezávislý úsudek nebo důvěryhodnost ve vztahu k činnostem posuzování shody, k jejichž vykonávání jsou oznámeni. To platí zejména pro poradenské služby.
6. Bemyndigede organer skal være organiseret og arbejde på en sådan måde, at der i deres aktiviteter sikres uafhængighed, objektivitet og uvildighed. Bemyndigede organer skal dokumentere og gennemføre en struktur og procedurer til sikring af uvildighed og til fremme og anvendelse af principperne om uvildighed i hele deres organisation, hos alt deres personale og i alle deres vurderingsaktiviteter.
6. Oznámené subjekty jsou organizovány a provozovány tak, aby byla zaručena nezávislost, objektivita a nestrannost jejich činností. Oznámené subjekty zdokumentují a zavedou strukturu a postupy pro zajištění nestrannosti a pro prosazování a uplatňování zásad nestrannosti v rámci celé své organizace, všech činností posuzování a u všech pracovníků.
7. Bemyndigede organer skal have indført dokumenterede procedurer, der sikrer, at deres personale, udvalg, dattervirksomheder, underentreprenører og eventuelle tilknyttede organer eller personale i eksterne organer i overensstemmelse med artikel 78 opretholder fortroligheden af de oplysninger, som de kommer i besiddelse af under udførelsen af overensstemmelsesvurderingsaktiviteterne, undtagen når videregivelse heraf er påbudt ved lov. Bemyndigede organers personale har tavshedspligt med hensyn til alle oplysninger, det kommer i besiddelse af under udførelsen af sine opgaver i henhold til denne forordning, undtagen over for de bemyndigende myndigheder i den medlemsstat, hvor aktiviteterne udføres.
7. Oznámené subjekty mají zavedeny zdokumentované postupy zajišťující, aby jejich pracovníci, výbory, pobočky, subdodavatelé a jakýkoliv přidružený subjekt nebo pracovníci externích subjektů zachovávali v souladu s článkem 78 důvěrnost informací získaných při provádění činností posuzování shody, s výjimkou případů, kdy je zveřejnění těchto informací vyžadováno dle práva. Zaměstnanci oznámených subjektů jsou povinni zachovávat služební tajemství, pokud jde o veškeré informace, které obdrželi při plnění svých úkolů podle tohoto nařízení, nikoli však ve vztahu k oznamujícím orgánům členského státu, v němž vykonávají svou činnost.
8. Bemyndigede organer skal have procedurer for udførelsen af aktiviteterne, der tager behørigt hensyn til en udbyders størrelse, til den sektor, som den opererer inden for, til dens struktur og til, hvor kompleks det pågældende AI-system er.
8. Oznámené subjekty mají zavedeny postupy pro provádění činností, jež řádně zohledňují velikost poskytovatele, odvětví, v němž působí, jejich strukturu a míru složitosti dotčeného systému AI.
9. Bemyndigede organer skal tegne en passende ansvarsforsikring for deres overensstemmelsesvurderingsaktiviteter, medmindre ansvaret i overensstemmelse med national ret ligger hos den medlemsstat, i hvilken de er etableret, eller medlemsstaten selv er direkte ansvarlig for overensstemmelsesvurderingen.
9. Oznámené subjekty uzavřou vhodné pojištění odpovědnosti za škodu s ohledem na své činnosti v oblasti posuzování shody, pokud tuto odpovědnost nepřevzal členský stát, v němž jsou usazeny, v souladu s vnitrostátním právem nebo pokud není tento členský stát za posuzování shody sám přímo odpovědný.
10. Bemyndigede organer skal være i stand til at udføre alle deres opgaver i henhold til denne forordning med den størst mulige faglige integritet og den nødvendige kompetence på det specifikke område, uanset om disse opgaver udføres af bemyndigede organer selv eller på deres vegne og på deres ansvar.
10. Oznámené subjekty jsou schopny provádět všechny své úkoly podle tohoto nařízení, na nejvyšší úrovni profesní důvěryhodnosti a náležité způsobilosti v této konkrétní oblasti bez ohledu na to, zda jsou uvedené úkoly prováděny samotnými oznámenými subjekty, nebo jejich jménem a na jejich odpovědnost.
11. Bemyndigede organer skal have tilstrækkelige interne kompetencer til at kunne evaluere de opgaver, der udføres af eksterne parter på deres vegne, effektivt. Det bemyndigede organ skal have permanent adgang til tilstrækkeligt administrativt, teknisk, juridisk og videnskabeligt personale med erfaring og viden vedrørende de relevante typer af AI-systemer, de relevante data og den relevante databehandling og vedrørende kravene i afdeling 2.
11. Oznámené subjekty mají dostatečnou interní způsobilost, aby byly schopny účinně hodnotit úkoly, které jejich jménem provádějí externí strany. Oznámený subjekt má neustále k dispozici dostatek administrativních, technických, právních a vědeckých pracovníků se zkušenostmi a znalostmi ohledně příslušných typů systémů AI, dat a datových výpočtů, jakož i požadavků uvedených v oddíle 2.
12. Bemyndigede organer skal deltage i det koordinerende arbejde, jf. artikel 38. De skal også deltage direkte eller være repræsenteret i de europæiske standardiseringsorganisationer eller sikre, at de har et ajourført kendskab til relevante standarder.
12. Oznámené subjekty se podílejí na koordinačních činnostech uvedených v článku 38. Rovněž se přímo účastní činnosti evropských normalizačních organizací nebo jsou v nich zastoupeny, případně zajistí, aby měly povědomí a aktuální informace o příslušných normách.
Artikel 32
Článek 32
Formodning om overensstemmelse med krav vedrørende bemyndigede organer
Předpoklad shody s požadavky na oznámené subjekty
Hvis et overensstemmelsesvurderingsorgan påviser, at det er i overensstemmelse med kriterierne i de relevante harmoniserede standarder eller dele heraf, hvortil der er offentliggjort referencer i Den Europæiske Unions Tidende, formodes det at overholde kravene i artikel 31, for så vidt de gældende harmoniserede standarder dækker disse krav.
Pokud subjekt posuzování shody prokáže, že vyhovuje kritériím stanoveným v příslušných harmonizovaných normách nebo jejich částech, na něž byly zveřejněny odkazy v Úředním věstníku Evropské unie, předpokládá se, že splňuje požadavky stanovené v článku 31 v rozsahu, v němž se harmonizované normy na tyto požadavky vztahují.
Artikel 33
Článek 33
Dattervirksomheder i tilknytning til bemyndigede organer og underentreprise
Dceřiné společnosti oznámených subjektů a zadávání subdodávek
1. Hvis et bemyndiget organ giver bestemte opgaver i forbindelse med overensstemmelsesvurderingen i underentreprise eller anvender en dattervirksomhed, skal det sikre, at underentreprenøren eller dattervirksomheden opfylder kravene i artikel 31, og underrette den bemyndigende myndighed herom.
1. Pokud oznámený subjekt zadá konkrétní úkoly týkající se posuzování shody subdodavateli nebo dceřiné společnosti, zajistí, aby subdodavatel nebo dceřiná společnost splňovali požadavky stanovené v článku 31, a informuje o této skutečnosti oznamující orgán.
2. Bemyndigede organer har det fulde ansvar for de opgaver, som udføres af en underentreprenør eller dattervirksomhed.
2. Oznámené subjekty nesou plnou odpovědnost za své úkoly provedené subdodavateli nebo dceřinými společnostmi.
3. Aktiviteter kan kun gives i underentreprise eller udføres af en dattervirksomhed, hvis udbyderen har givet sit samtykke hertil. Bemyndigede organer skal gøre en liste over deres dattervirksomheder offentligt tilgængelig.
3. Činnosti lze zadat subdodavateli nebo dceřiné společnosti pouze se souhlasem poskytovatele. Oznámené subjekty zveřejní seznam svých dceřiných společností.
4. De relevante dokumenter vedrørende vurderingen af underentreprenørens eller dattervirksomhedens kvalifikationer og det arbejde, som de har udført i henhold til denne forordning, stilles til rådighed for den bemyndigende myndighed i en periode på fem år fra datoen for afslutningen af underentreprisen.
4. Příslušné doklady týkající se posouzení kvalifikací subdodavatele nebo dceřiné společnosti a práce provedené subdodavatelem nebo dceřinou společností podle tohoto nařízení se uchovávají k dispozici oznamujícímu orgánu po dobu pěti let ode dne ukončení subdodávky.
Artikel 34
Článek 34
Bemyndigede organers operationelle forpligtelser
Povinnosti týkající se činnosti oznámených subjektů
1. Bemyndigede organer skal verificere, at højrisiko-AI-systemer er i overensstemmelse med overensstemmelsesvurderingsprocedurerne i artikel 43.
1. Oznámené subjekty ověřují shodu daného vysoce rizikového systému AI v souladu s postupy posuzování shody stanovenými v článku 43.
2. Bemyndigede organer skal under udførelsen af deres aktiviteter undgå unødvendige byrder for udbyderne og tage behørigt hensyn til udbyderens størrelse, den sektor, som den opererer inden for, dens struktur og til, hvor kompleks det pågældende højrisiko-AI-system er, navnlig med henblik på at minimere administrative byrder og overholdelsesomkostninger for mikrovirksomheder og små virksomheder som omhandlet i henstilling 2003/361/EF. Det bemyndigede organ skal dog respektere den grad af strenghed og det beskyttelsesniveau, der kræves for, at højrisiko-AI-systemet overholder kravene i denne forordning.
2. Oznámené subjekty se při výkonu svých činností vyvarují zbytečné zátěže pro poskytovatele a náležitě zohlední velikost poskytovatele, odvětví, v němž působí, jeho strukturu a míru složitosti dotčeného vysoce rizikového systému AI, zejména v zájmu na minimalizace administrativní zátěže a nákladů na dodržování předpisů pro mikropodniky a malé podniky ve smyslu doporučení 2003/361/ES. Oznámený subjekt však dodržuje míru přísnosti a úroveň ochrany, jež jsou vyžadovány, aby byl vysoce rizikový systém AI v souladu s požadavky tohoto nařízení.
3. Bemyndigede organer skal stille al relevant dokumentation til rådighed og efter anmodning forelægge denne, herunder udbyderens dokumentation, for den bemyndigende myndighed, der er omhandlet i artikel 28, så denne myndighed kan udføre sine vurderings-, udpegelses-, notifikations- og overvågningsaktiviteter og lette vurderingen anført i denne afdeling.
3. Oznámené subjekty na požádání zpřístupní a předloží veškerou příslušnou dokumentaci, včetně dokumentace poskytovatelů, oznamujícímu orgánu uvedenému v článku 28, aby tento orgán mohl provádět činnosti související s posuzováním, jmenováním, oznamováním a monitorováním a usnadnit posuzování uvedené v tomto oddíle.
Artikel 35
Článek 35
Identifikationsnumre for og lister over bemyndigede organer
Identifikační čísla a seznamy oznámených subjektů
1. Kommissionen tildeler hvert bemyndiget organ ét identifikationsnummer, også selv om organet er notificeret i henhold til mere end én EU-retsakt.
1. Komise přidělí každému oznámenému subjektu jedinečné identifikační číslo, a to i v případě, že je subjekt oznámen na základě více než jednoho aktu Unie.
2. Kommissionen offentliggør listen over organer, der er notificeret i henhold til denne forordning, herunder deres identifikationsnumre og de aktiviteter, med henblik på hvilke de er notificeret. Kommissionen sikrer, at listen ajourføres.
2. Komise zveřejní seznam subjektů oznámených podle tohoto nařízení, včetně jejich identifikačních čísel a činností, pro něž byly oznámeny. Komise zajistí, aby byl tento seznam průběžně aktualizován.
Artikel 36
Článek 36
Ændringer af notifikationer
Změny v oznámeních
1. Den bemyndigende myndighed meddeler Kommissionen og de øvrige medlemsstater alle relevante ændringer i notifikationen af et bemyndiget organ via det elektroniske notifikationsværktøj, der er omhandlet i artikel 30, stk. 2.
1. Oznamující orgán oznámí Komisi a ostatním členským státům veškeré relevantní změny oznámení učiněné oznámeným subjektem prostřednictvím elektronického nástroje pro oznamování uvedeného v čl. 30 odst. 2.
2. Procedurerne i artikel 29 og 30 finder anvendelse på udvidelser af rammerne for notifikationen.
2. V případě rozšíření rozsahu oznámení se použijí postupy stanovené v článcích 29 a 30.
Med hensyn til andre ændringer af notifikationen end udvidelser af rammerne for den, finder procedurerne i stk. 3-9 anvendelse.
V případě jiných změn oznámení, než jsou rozšíření jeho rozsahu, se použijí postupy stanovené v odstavcích 3 až 9.
3. Hvis et bemyndiget organ beslutter at indstille sine overensstemmelsesvurderingsaktiviteter, underretter det den bemyndigende myndighed og udbyderne hurtigst muligt og i tilfælde af planlagt indstilling mindst ét år, inden dets aktiviteter indstilles. Det bemyndigede organs attester kan forblive gyldige i en periode på ni måneder, efter at det bemyndigede organs aktiviteter er indstillet, forudsat at et andet bemyndiget organ skriftligt har bekræftet, at det vil påtage sig ansvaret for de højrisiko-AI-systemer, der er omfattet af disse attester. Sidstnævnte bemyndigede organ foretager en fuld vurdering af de berørte højrisiko-AI-systemer inden udgangen af denne periode på ni måneder, før det udsteder nye attester for disse systemer. Hvis det bemyndigede organ har indstillet sine aktiviteter, trækker den bemyndigende myndighed udpegelsen tilbage.
3. Pokud se oznámený subjekt rozhodne svou činnost v oblasti posuzování shody ukončit, co nejdříve a v případě plánovaného ukončení nejméně jeden rok předtím, než svou činnost ukončí, informuje oznamující orgán a dotčené poskytovatele. Po ukončení činnosti oznámeného subjektu mohou certifikáty oznámeného subjektu zůstat dočasně v platnosti po dobu devíti měsíců za podmínky, že jiný oznámený subjekt písemně potvrdí, že za vysoce rizikové systémy AI, na něž se tyto certifikáty vztahují, převezme odpovědnost. Před vydáním nových certifikátů pro vysoce rizikové systémy AI, jichž se konec uvedené devítiměsíční lhůty dotkne, nový oznámený subjekt tyto systémy podrobí úplnému posouzení. Pokud oznámený subjekt ukončil svou činnost, oznamující orgán zruší jeho jmenování.
4. Hvis en bemyndigende myndighed har tilstrækkelig grund til at mene, at et bemyndiget organ ikke længere opfylder kravene i artikel 31, eller at det ikke opfylder sine forpligtelser, skal den bemyndigende myndighed hurtigst muligt undersøge sagen med den størst mulige omhu. I den forbindelse skal den underrette det berørte bemyndigede organ om sine indvendinger og giver det mulighed for at tilkendegive sine synspunkter. Hvis en bemyndigende myndighed konkluderer, at det bemyndigede organ ikke længere opfylder kravene i artikel 31, eller at det ikke opfylder sine forpligtelser, skal den begrænse, suspendere eller tilbagetrække udpegelsen, alt efter hvad der er relevant, afhængigt af hvor alvorlig den manglende opfyldelse af kravene eller forpligtelserne er. Den underretter omgående Kommissionen og de øvrige medlemsstater herom.
4. Pokud má oznamující orgán dostatečný důvod se domnívat, že oznámený subjekt již nesplňuje požadavky stanovené v článku 31 nebo neplní své povinnosti, prošetří tuto záležitost s maximální péčí. V této souvislosti informuje dotčený oznámený subjekt o vznesených námitkách a poskytne mu možnost, aby se k záležitosti vyjádřil. Pokud oznamující orgán dospěje k závěru, že oznámený subjekt již nesplňuje požadavky stanovené v článku 31 nebo že tento subjekt neplní své povinnosti, omezí, pozastaví nebo případně zruší jmenování, podle toho, jak je neplnění dotyčných požadavků nebo povinností závažné. Neprodleně o této skutečnosti informuje Komisi a ostatní členské státy.
5. Hvis et bemyndiget organs udpegelse er blevet suspenderet, begrænset eller helt eller delvist tilbagetrukket, underretter dette organ de pågældende udbydere inden for ti dage.
5. Pokud bylo jeho jmenování pozastaveno, omezeno nebo zcela či částečně zrušeno, daný oznámený subjekt o této skutečnosti do 10 dnů uvědomí dotčené výrobce.
6. Hvis en udpegelse begrænses, suspenderes eller tilbagetrækkes, træffer den bemyndigende myndighed de nødvendige foranstaltninger for at sikre, at det pågældende bemyndigede organs sager opbevares, og for at stille dem til rådighed for bemyndigende myndigheder i andre medlemsstater og for markedsovervågningsmyndighederne efter disses anmodning.
6. V případě omezení, pozastavení nebo zrušení jmenování učiní oznamující orgán náležité kroky, aby zajistil, že spisy dotčeného oznámeného subjektu budou vedeny a na vyžádání zpřístupněny oznamujícím orgánům v jiných členských státech, jakož i orgánům dozoru nad trhem.
7. Hvis en udpegelse begrænses, suspenderes eller tilbagetrækkes, skal den bemyndigende myndighed:
7. V případě omezení, pozastavení nebo zrušení jmenování oznamující orgán:
a)
vurdere indvirkningen på attester, der er udstedt af det bemyndigede organ
a)
posoudí dopad na certifikáty vydané oznámeným subjektem;
b)
forelægge en rapport om sine resultater til Kommissionen og de øvrige medlemsstater senest tre måneder efter, at den har givet meddelelse om ændringerne af udpegelsen
b)
předloží zprávu o svých zjištěních Komisi a ostatním členským státům do tří měsíců poté, co změny jmenování oznámil;
c)
pålægge det bemyndigede organ at suspendere eller tilbagetrække alle de attester, der uretmæssigt er blevet udstedt, inden for en rimelig tidsfrist, der fastsættes af myndigheden, for at sikre, at højrisiko-AI-systemer fortsat er i overensstemmelse hermed på markedet
c)
požádá oznámený subjekt, aby v přiměřeném časovém období stanoveném tímto orgánem pozastavil nebo zrušil veškeré certifikáty, které byly vydány neoprávněně, s cílem zajistit pokračující shodu vysoce rizikových systémů AI, jež jsou na trhu;
d)
underrette Kommissionen og medlemsstaterne om attester, som den har kræves suspenderet eller tilbagetrukket
d)
informuje Komisi a členské státy o certifikátech, jejichž pozastavení nebo zrušení požaduje;
e)
give de nationale kompetente myndigheder i den medlemsstat, hvor udbyderen har sit registrerede forretningssted, alle relevante oplysninger om de attester, for hvilke den har krævet suspension eller tilbagetrækning. Den pågældende myndighed træffer de fornødne foranstaltninger, hvis det er nødvendigt, for at undgå en potentiel risiko for sundhed, sikkerhed eller grundlæggende rettigheder.
e)
poskytne příslušným vnitrostátním orgánům členského státu, v němž má poskytovatel své sídlo, veškeré příslušné informace o certifikátech, u nichž požádal o pozastavení nebo zrušení; tento orgán přijme v případě potřeby vhodná opatření s cílem zabránit možnému ohrožení zdraví, bezpečnosti nebo základních práv.
8. Med undtagelse af uretmæssigt udstedte attester og i tilfælde, hvor en udpegelse er blevet inddraget eller begrænset, vedbliver attesterne med at være gyldige i et af følgende tilfælde:
8. S výjimkou neoprávněně vydaných certifikátů a v případě, že bylo jmenování pozastaveno nebo omezeno, zůstávají certifikáty platné za těchto okolností:
a)
den bemyndigende myndighed har senest én måned efter suspensionen eller begrænsningen bekræftet, at der ikke er nogen risiko for sundhed, sikkerhed eller grundlæggende rettigheder vedrørende attester, der er berørt af suspensionen eller begrænsningen, og den bemyndigende myndighed har anført en frist for tiltag til at afhjælpe suspensionen eller begrænsningen, eller
a)
oznamující orgán do jednoho měsíce od pozastavení nebo omezení potvrdí, že v souvislosti s certifikáty, jichž se pozastavení nebo omezení týká, neexistuje ohrožení zdraví, bezpečnosti nebo základních práv, a oznamující orgán stanoví harmonogram pro opatření za účelem nápravy nedostatků, jež byly příčinou pozastavení nebo omezení, nebo
b)
den bemyndigende myndighed har bekræftet, at ingen attester af relevans for suspensionen vil blive udstedt, ændret eller genudstedt under suspensionen eller begrænsningen, og anfører, hvorvidt det bemyndigede organ har kapacitet til at fortsætte overvågningen og fortsat være ansvarligt for eksisterende udstedte attester i suspensions- eller begrænsningsperioden; hvis den bemyndigende myndighed fastslår, at det bemyndigede organ ikke er i stand til at støtte eksisterende udstedte attester, bekræfter udbyderen af det system, der er omfattet af attesten, senest tre måneder efter suspensionen eller begrænsningen skriftligt over for de nationale kompetente myndigheder i den medlemsstat, hvor vedkommende har sit registrerede forretningssted, at et andet kvalificeret bemyndiget organ midlertidigt varetager det bemyndigede organs funktioner med hensyn til at overvåge og forblive ansvarligt for attesterne i suspensions- eller begrænsningsperioden.
b)
oznamující orgán potvrdí, že v průběhu pozastavení či omezení nebudou vydávány, pozměňovány nebo opětovně vydávány žádné certifikáty, jichž se pozastavení či omezení týká, a uvede, zda je oznámený subjekt i nadále způsobilý monitorovat stávající certifikáty vydané na období pozastavení nebo omezení a být za ně odpovědný; v případě, že oznamující orgán rozhodne, že oznámený subjekt není způsobilý plnit své funkce ve vztahu ke stávajícím vydaným certifikátům, poskytovatel systému, na nějž se certifikát vztahuje, písemně potvrdí vnitrostátním příslušným orgánům členského státu, ve kterém má poskytovatel systému své registrované místo podnikání, do tří měsíců od pozastavení nebo omezení, že funkce oznámeného subjektu, totiž monitorovat a být nadále odpovědný za certifikáty, převezme dočasně, v době pozastavení nebo omezení, jiný kvalifikovaný oznámený subjekt.
9. Med undtagelse af uretmæssigt udstedte attester og i tilfælde, hvor en udpegelse er blevet tilbagetrukket, vedbliver attesterne med at være gyldige i en periode på ni måneder i følgende tilfælde:
9. S výjimkou neoprávněně vydaných certifikátů a v případě, že bylo jmenování zrušeno, zůstanou certifikáty v platnosti po dobu devíti měsíců za těchto podmínek:
a)
den nationale kompetente myndighed i den medlemsstat, hvor udbyderen af det højrisiko-AI-system, der er omfattet af attesten, har sit registrerede forretningssted, har bekræftet, at der ikke er nogen risiko for sundhed, sikkerhed eller grundlæggende rettigheder i forbindelse med de pågældende højrisiko-AI-systemer, og
a)
příslušný vnitrostátní orgán členského státu, v němž má poskytovatel vysoce rizikového systému AI, na nějž se certifikát vztahuje, své sídlo, potvrdí, že v souvislosti s dotčenými vysoce rizikovými systémy AI není ohroženo zdraví, bezpečnost ani základní práva, a
b)
et andet bemyndiget organ har skriftligt bekræftet, at det straks varetager ansvaret for disse AI-systemer, og færdiggør sin vurdering inden 12 måneder efter tilbagetrækning af udpegelsen.
b)
jiný oznámený subjekt písemně potvrdí, že převezme za tyto systémy AI okamžitou odpovědnost a že dokončí jejich posouzení do dvanácti měsíců od zrušení jmenování.
Under de omstændigheder, der er omhandlet i første afsnit, kan den kompetente nationale myndighed i den medlemsstat, hvor udbyderen af det system, der er omfattet af attesten, har sit forretningssted, forlænge attesternes foreløbige gyldighed i yderligere perioder på tre måneder, dog i alt højst 12 måneder.
Za podmínek stanovených v prvním pododstavci může příslušný vnitrostátní orgán členského státu, v němž má poskytovatel systému, na který se certifikát vztahuje, své sídlo, prodloužit prozatímní platnost certifikátů o další tříměsíční období, která celkově nepřesáhnou dvanáct měsíců.
Den kompetente nationale myndighed eller det bemyndigede organ, der varetager funktionerne for det bemyndigede organ, der er berørt af ændringen af udpegelsen, underretter omgående Kommissionen, de øvrige medlemsstater og de øvrige bemyndigede organer herom.
Příslušný vnitrostátní orgán nebo oznámený subjekt přebírající funkce oznámeného subjektu, kterého se týká změna jmenování, o této skutečnosti okamžitě informuje Komisi, ostatní členské státy a ostatní oznámené subjekty.
Artikel 37
Článek 37
Anfægtelse af bemyndigede organers kompetence
Zpochybnění způsobilosti oznámených subjektů
1. Kommissionen undersøger om nødvendigt alle tilfælde, hvor der er grund til at betvivle et bemyndiget organs kompetence eller et bemyndiget organs fortsatte opfyldelse af kravene i artikel 31 og dets gældende ansvarsområder.
1. Komise v případě potřeby vyšetří všechny případy, u nichž jsou důvody pochybovat o kvalifikaci oznámeného subjektu nebo o tom, zda oznámený subjekt nadále splňuje požadavky stanovené v článku 31 a své příslušné povinnosti.
2. Den bemyndigende myndighed forelægger efter anmodning Kommissionen alle relevante oplysninger vedrørende notifikationen af det pågældende bemyndigede organ eller opretholdelsen af dets kompetence.
2. Oznamující orgán předloží Komisi na vyžádání všechny příslušné informace týkající se oznámení nebo zachování odborné způsobilosti dotčeného oznámeného subjektu.
3. Kommissionen sikrer, at alle de følsomme oplysninger, som den kommer i besiddelse af som led i sine undersøgelser i henhold til denne artikel, behandles fortroligt i overensstemmelse med artikel 78.
3. Komise zajistí, aby se se všemi citlivými informacemi získanými v průběhu jejího šetření podle tohoto článku nakládalo jako s důvěrnými v souladu s článkem 78.
4. Hvis Kommissionen konstaterer, at et bemyndiget organ ikke eller ikke længere opfylder kravene i forbindelse med sin notifikation, underretter den den bemyndigende medlemsstat herom og anmoder den om at træffe de nødvendige korrigerende foranstaltninger, herunder om nødvendigt suspension eller tilbagetrækning af notifikationen. Hvis den bemyndigende myndighed ikke træffer de nødvendige foranstaltninger, kan Kommissionen ved hjælp af en gennemførelsesretsakt suspendere, begrænse eller tilbagetrække udpegelsen. Denne gennemførelsesretsakt vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
4. Pokud Komise zjistí, že oznámený subjekt nesplňuje nebo přestal splňovat požadavky pro své oznámení, informuje o této skutečnosti oznamující členský stát a vyzve ho, aby přijal nezbytná nápravná opatření, včetně případného pozastavení nebo zrušení oznámení. Pokud členský stát nezbytná nápravná opatření nepřijme, může Komise prostřednictvím prováděcího aktu jmenování pozastavit, omezit nebo zrušit. Tento prováděcí akt se přijme přezkumným postupem uvedeným v čl. 98 odst. 2.
Artikel 38
Článek 38
Koordinering af bemyndigede organer
Koordinace oznámených subjektů
1. Kommissionen sikrer, at der med hensyn til højrisiko-AI-systemer etableres passende koordinering og samarbejde mellem de bemyndigede organer, der er aktive inden for overensstemmelsesvurderingsprocedurer i henhold til denne forordning, i form af en sektorspecifik gruppe af bemyndigede organer, og at det styres på forsvarlig måde.
1. Komise zajistí, aby v souvislosti s vysoce rizikovými systémy AI byla mezi oznámenými subjekty zabývajícími se postupy posuzování shody podle tohoto nařízení zavedena a řádně prováděna vhodná koordinace a spolupráce, která se provádí formou odvětvové skupiny oznámených subjektů.
2. Hver bemyndigende myndighed sørger for, at de organer, den har bemyndiget, deltager i arbejdet i en gruppe, jf. stk. 1, enten direkte eller gennem udpegede repræsentanter.
2. Každý oznamující orgán zajistí, aby se jím oznámené subjekty účastnily práce skupiny uvedené v odstavci 1, a to přímo nebo prostřednictvím určených zástupců.
3. Kommissionen sørger for udveksling af viden og bedste praksis mellem de bemyndigede myndigheder.
3. Komise zajistí výměnu poznatků a osvědčených postupů mezi oznamujícími orgány.
Artikel 39
Článek 39
Tredjelandes overensstemmelsesvurderingsorganer
Subjekty posuzování shody třetích zemí
Overensstemmelsesvurderingsorganer, der er oprettet i henhold til retten i et tredjeland, med hvilket Unionen har indgået en aftale, kan godkendes til at udføre bemyndigede organers aktiviteter i henhold til denne forordning, forudsat at de opfylder kravene i artikel 31, eller at de sikrer et tilsvarende overensstemmelsesniveau.
K provádění činnosti oznámených subjektů podle tohoto nařízení mohou být oprávněny subjekty posuzování shody zřízené podle práva třetí země, se kterou Unie uzavřela dohodu, za předpokladu, že splňují požadavky podle článku 31 nebo zajistí rovnocennou úroveň souladu.
AFDELING 5
ODDÍL 5
Standarder, overensstemmelsesvurdering, attester, registrering
Normy, posuzování shody, osvědčení, registrace
Artikel 40
Článek 40
Harmoniserede standarder og standardiseringsdokumentation
Harmonizované normy a produkty normalizace
1. Højrisiko-AI-systemer eller AI-modeller til almen brug, som er i overensstemmelse med harmoniserede standarder eller dele heraf, hvis referencer er offentliggjort i Den Europæiske Unions Tidende i overensstemmelse med forordning (EU) nr. 1025/2012, formodes at være i overensstemmelse med kravene i dette kapitels afdeling 2 eller, alt efter hvad der er relevant, med forpligtelserne i nærværende forordnings kapitel V, afdeling 2 og 3, for så vidt de nævnte standarder omfatter disse krav eller forpligtelser.
1. Předpokládá se, že vysoce rizikové systémy AI nebo obecné modely AI, které jsou ve shodě s harmonizovanými normami nebo jejich částmi, na něž byly zveřejněny odkazy v Úředním věstníku Evropské unie v souladu s nařízením (EU) 1025/2012, jsou ve shodě s požadavky stanovenými v oddíle 2 této kapitoly nebo případně s povinnostmi stanovenými v kapitole V oddíle 2 a 3 tohoto nařízení v rozsahu, v jakém se dotyčné normy vztahují na tyto požadavky nebo povinnosti.
2. I overensstemmelse med artikel 10 i forordning (EU) nr. 1025/2012 fremsætter Kommissionen uden unødigt ophold standardiseringsanmodninger, der dækker alle kravene i dette kapitels afdeling 2, og, alt efter hvad der er relevant, standardiseringsanmodninger, der dækker forpligtelserne i nærværende forordnings kapitel V, afdeling 2 og 3. I standardiseringsanmodningen anmodes der også om dokumentation vedrørende rapporterings- og dokumentationsprocesser med henblik på at forbedre AI-systemernes ressourceydeevne såsom reduktion af højrisiko-AI-systemets forbrug af energi og af andre ressourcer i løbet af dets livscyklus og vedrørende energieffektiv udvikling af AI-modeller til almen brug. I forbindelse med udarbejdelsen af en standardiseringsanmodning hører Kommissionen AI-udvalget og relevante interessenter, herunder det rådgivende forum.
2. V souladu s článkem 10 nařízení (EU) č. 1025/2012 Komise bez zbytečného odkladu vydá žádosti o normalizaci týkající se všech požadavků stanovených v oddíle 2 této kapitoly a případně povinností stanovených v kapitole V oddíle 2 a 3 tohoto nařízení. V žádosti o normalizaci se rovněž požadují produkty týkající se postupů podávání zpráv a dokumentace s cílem zlepšit výkonnost systémů AI, pokud jde o zdroje, jako je snížení spotřeby energie a dalších zdrojů u vysoce rizikového systému AI během jeho životního cyklu, a o energeticky účinný vývoj obecných modelů AI. Při přípravě žádosti o normalizaci Komise konzultuje radu a příslušné zúčastněné strany, včetně poradního fóra.
Når Kommissionen fremsætter en standardiseringsanmodning til de europæiske standardiseringsorganisationer, præciserer den, at standarderne skal være klare, overensstemmende, herunder med de standarder, der er udviklet i de forskellige sektorer for produkter, der er omfattet af den gældende EU-harmoniseringslovgivning, som er opført i bilag I, og søge at sikre, at højrisiko-AI-systemer eller AI-modeller til almen brug, som bringes i omsætning eller tages i brug i Unionen, opfylder de relevante krav eller forpligtelser i nærværende forordning.
Při vydávání žádosti o normalizaci evropským normalizačním organizacím Komise upřesní, že normy musí být jasné, konzistentní, a to i s normami vypracovanými v různých odvětvích pro produkty, na něž se vztahují stávající právní předpisy Unie v oblasti harmonizace uvedené v příloze I, a zaměřené na zajištění toho, aby vysoce rizikové systémy AI nebo obecné modely AI uváděné na trh nebo do provozu v Unii splňovaly příslušné požadavky nebo povinnosti stanovené v tomto nařízení.
Kommissionen anmoder de europæiske standardiseringsorganisationer om at dokumentere deres bedste indsats for at nå de mål, der er omhandlet i dette stykkes første og andet afsnit, i overensstemmelse med artikel 24 i forordning (EU) nr. 1025/2012.
Komise požádá evropské normalizační organizace, aby doložily, že ke splnění cílů uvedených v prvním a druhém pododstavci tohoto odstavce vynakládají v souladu s článkem 24 nařízení EU 1025/2012 maximální úsilí.
3. Deltagerne i standardiseringsprocessen skal søge at fremme investering og innovation inden for AI, herunder gennem øget retssikkerhed, samt EU-markedets konkurrenceevne og vækst, at bidrage til at styrke globalt samarbejde om standardisering og tage højde for eksisterende internationale standarder inden for kunstig intelligens, som stemmer overens med Unionens værdier, grundlæggende rettigheder og interesser, og at styrke multiinteressentforvaltning, der sikrer en afbalanceret repræsentation af interesser og effektiv deltagelse af alle relevante interessenter i overensstemmelse med artikel 5, 6 og 7 i forordning (EU) nr. 1025/2012.
3. Účastníci procesu normalizace vynakládají úsilí na podporu investic a inovací v oblasti AI, mimo jiné prostřednictvím zvyšování právní jistoty, jakož i na podporu konkurenceschopnosti a růstu trhu Unie a k podpoře posílení globální spolupráce v oblasti normalizace, přičemž zohledňují stávající mezinárodní normy v oblasti AI, které jsou v souladu s hodnotami, základními právy a zájmy Unie, a zlepšují správu, na níž se podílí více stran, čímž se zajistí vyvážené zastoupení zájmů a účinná účast všech příslušných zúčastněných stran v souladu s články 5, 6 a 7 nařízení (EU) č. 1025/2012.
Artikel 41
Článek 41
Fælles specifikationer
Společné specifikace
1. Kommissionen kan vedtage gennemførelsesretsakter om fastlæggelse af fælles specifikationer for kravene i dette kapitels afdeling 2 eller, alt efter hvad der er relevant, for forpligtelserne i kapitel V, afdeling 2 og 3, hvis følgende betingelser er opfyldt:
1. Komise může přijímat prováděcí akty, kterými stanoví společné specifikace pro požadavky stanovené v oddíle 2 této kapitoly nebo případně pro povinnosti stanovené v kapitole V oddíle 2 a 3, pokud jsou splněny tyto podmínky:
a)
Kommissionen har i henhold til artikel 10, stk. 1, i forordning (EU) nr. 1025/2012 anmodet en eller flere europæiske standardiseringsorganisationer om at udarbejde en harmoniseret standard for kravene i dette kapitels afdeling 2 eller, hvis det er relevant, for forpligtelserne i kapitel V, afdeling 2 og 3, og:
a)
Komise požádala podle čl. 10 odst. 1 nařízení (EU) č. 1025/2012 jednu nebo více evropských normalizačních organizací, aby vypracovaly harmonizovanou normu pro požadavky stanovené v oddíle 2 této kapitoly nebo, v příslušných případech, pro povinnosti stanovené v oddílech 2 a 3 kapitoly V, a:
i)
anmodningen er ikke blevet imødekommet af nogen af de europæiske standardiseringsorganisationer, eller
i)
žádost nebyla žádnou z evropských normalizačních organizací akceptována nebo
ii)
de harmoniserede standarder, der behandler den pågældende anmodning, er ikke blevet leveret inden for den frist, der er fastsat i overensstemmelse med artikel 10, stk. 1, i forordning (EU) nr. 1025/2012, eller
ii)
harmonizované normy, které byly vypracovány na základě této žádostí, nebyly dodány ve lhůtě stanovené v souladu s čl. 10 odst. 1 nařízení (EU) č. 1025/2012 nebo
iii)
de relevante harmoniserede standarder tager ikke i tilstrækkelig grad hensyn til de grundlæggende rettigheder, eller
iii)
příslušné harmonizované normy dostatečně neřeší problémy v oblasti základních práv nebo
iv)
de harmoniserede standarder er ikke i overensstemmelse med anmodningen, og
iv)
harmonizované normy nejsou v souladu s žádostí a
b)
ingen reference til harmoniserede standarder, der dækker de krav, der er omhandlet i dette kapitels afdeling 2, eller, hvis det er relevant, forpligtelserne i kapitel V, afdeling 2 og 3, er offentliggjort i Den Europæiske Unions Tidende i overensstemmelse med forordning (EU) nr. 1025/2012, og ingen reference af denne art forventes at blive offentliggjort inden for et rimeligt tidsrum.
b)
v Úředním věstníku Evropské unie není zveřejněn odkaz na harmonizované normy, které se vztahují na požadavky uvedené v oddíle 2 této kapitoly nebo, v příslušných případech, na povinnosti uvedené v kapitole V oddíle 2 a 3, v souladu s nařízením (EU) č. 1025/2012, ani se neočekává, že takový odkaz bude v přiměřené lhůtě zveřejněn.
Når Kommissionen udarbejder de fælles specifikationer, skal den høre det rådgivende forum, der er omhandlet i artikel 67.
Komise při vypracovávání společných specifikací konzultuje poradní fórum uvedené v článku 67.
De gennemførelsesretsakter, der er omhandlet i dette stykkes første afsnit, vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
Prováděcí akty uvedené v prvním pododstavci tohoto odstavce se přijímají přezkumným postupem podle čl. 98 odst. 2.
2. Inden Kommissionen udarbejder et udkast til gennemførelsesretsakt, underretter den det udvalg, der er omhandlet i artikel 22 i forordning (EU) nr. 1025/2012, om, at den anser betingelserne i nærværende artikels stk. 1 for opfyldt.
2. Komise před vypracováním návrhu prováděcího aktu informuje výbor uvedený v článku 22 nařízení (EU) č. 1025/2012, že považuje podmínky stanovené v odstavci 1 tohoto článku za splněné.
3. Højrisiko-AI-systemer eller AI-modeller til almen brug, som er i overensstemmelse med de fælles specifikationer, der er omhandlet i stk. 1, eller dele af disse specifikationer, formodes at være i overensstemmelse med kravene fastsat i dette kapitels afdeling 2 eller, alt efter hvad der er relevant, at overholde forpligtelserne omhandlet i kapital V, afdeling 2 og 3, for så vidt de nævnte fælles specifikationer omfatter disse forpligtelser.
3. Předpokládá se, že vysoce rizikové systémy AI a obecné modely AI, které jsou ve shodě s obecnými specifikacemi uvedenými v odstavci 1, nebo s částmi těchto specifikací, jsou ve shodě s požadavky stanovenými v oddíle 2 této kapitoly nebo, v příslušných případech, v souladu s povinnosti uvedenými v kapitole V oddíle 2 a 3, v rozsahu, v jakém se tyto obecné specifikace vztahují na uvedené požadavky nebo povinnosti.
4. Hvis en europæisk standardiseringsorganisation vedtager en harmoniseret standard og fremlægger denne for Kommissionen med henblik på offentliggørelse af referencen hertil i Den Europæiske Unions Tidende, skal Kommissionen foretage en vurdering af den harmoniserede standard i overensstemmelse med forordning (EU) nr. 1025/2012. Når referencen til en harmoniseret standard offentliggøres i Den Europæiske Unions Tidende, ophæver Kommissionen de gennemførelsesretsakter, der er omhandlet i stk. 1, eller dele deraf, der omfatter de samme krav, der er fastsat i dette kapitels afdeling 2 eller, hvis det er relevant, at de samme forpligtelser, der er fastsat i kapital V, afdeling 2 og 3.
4. Pokud je harmonizovaná norma evropskou normalizační organizací přijata a Komisi je navrženo, aby odkaz na ni zveřejnila v Úředním věstníku Evropské unie, Komise harmonizovanou normu posoudí v souladu s nařízením (EU) č. 1025/2012. Je-li odkaz na harmonizovanou normu zveřejněn v Úředním věstníku Evropské unie, Komise zruší prováděcí akty uvedené v odstavci 1 nebo jejich části, které se týkají stejných požadavků stanovených v oddíle 2 této kapitoly nebo, v příslušných případech, stejných povinností stanovených v kapitole V oddíle 2 a 3..
5. Hvis udbydere af højrisiko-AI-systemer eller AI-modeller til almen brug ikke overholder de fælles specifikationer, der er omhandlet i stk. 1, skal de behørigt begrunde, at de har indført tekniske løsninger, der opfylder de krav, der er omhandlet i dette kapitels afdeling 2 eller, alt efter hvad der er relevant, overholder de forpligtelser, der er fastsat i kapital V, afdeling 2 og 3, i et omfang, som mindst svarer hertil.
5. Pokud poskytovatelé vysoce rizikových systémů AI nebo obecných modelů AI nejsou ve shodě se společnými specifikacemi uvedenými v odstavci 1, řádně zdůvodní, že přijali technická řešení, která splňují požadavky uvedené v oddíle 2 této kapitoly nebo, v příslušných případech, která jsou v souladu s povinnostmi stanovenými v kapitole V oddíle 2 a 3, v míře, která je s nimi přinejmenším rovnocenná.
6. Hvis en medlemsstat finder, at en fælles specifikation ikke fuldt ud opfylder kravene fastsat i afdeling 2 eller, alt efter hvad der er relevant, overholder forpligtelserne fastsat i kapital V, afdeling 2 og 3, underretter den Kommissionen herom med en detaljeret redegørelse. Kommissionen vurderer disse oplysninger og ændrer, hvis det er relevant, gennemførelsesretsakten om fastlæggelse af den pågældende fælles specifikation.
6. Pokud se některý členský stát domnívá, že určitá společná specifikace nesplňuje plně základní požadavky uvedené v tomto oddíle nebo, v příslušných případech, není v souladu s povinnostmi stanovenými v kapitole V oddíle 2 a 3, uvědomí o této skutečnosti Komisi s podrobným vysvětlením. Komise tyto informace posoudí a případně změní prováděcí akt, který dotyčnou společnou specifikaci stanoví.
Artikel 42
Článek 42
Formodning om overensstemmelse med visse krav
Předpoklad shody s určitými požadavky
1. Højrisiko-AI-systemer, der er blevet trænet og afprøvet på data, som afspejler de specifikke geografiske, adfærdsmæssige, kontekstuelle eller funktionelle rammer, som de tilsigtes anvendt inden for, formodes at overholde de relevante krav i artikel 10, stk. 4.
1. U vysoce rizikových systémů AI, které byly trénovány a testovány na údajích zohledňujících konkrétní zeměpisné, behaviorální, kontextuální nebo funkční prostředí, ve kterém mají být používány, se předpokládá, že jsou ve shodě s příslušnými požadavky stanovenými v čl. 10 odst. 4.
2. Højrisiko-AI-systemer, der er certificeret, eller for hvilke der er udstedt en overensstemmelseserklæring i henhold til en cybersikkerhedsordning i henhold til forordning (EU) 2019/881, og hvis referencer er offentliggjort i Den Europæiske Unions Tidende, formodes at overholde cybersikkerhedskravene i nærværende forordnings artikel 15, såfremt cybersikkerhedsattesten eller overensstemmelseserklæringen eller dele heraf dækker disse krav.
2. Má se za to, že vysoce rizikové systémy AI, které byly certifikovány nebo pro které bylo vydáno prohlášení o shodě v rámci systému kybernetické bezpečnosti podle nařízení (EU) 2019/881 a na které byl zveřejněn odkaz v Úředním věstníku Evropské unie, jsou ve shodě s požadavky na kybernetickou bezpečnost stanovenými v článku 15 tohoto nařízení, pokud se tento certifikát o kybernetické bezpečnosti nebo prohlášení o shodě, případně jejich části, na tyto požadavky vztahují.
Artikel 43
Článek 43
Overensstemmelsesvurdering
Posuzování shody
1. Hvad angår højrisiko-AI-systemer, der er opført i bilag III, punkt 1, skal udbyderen, såfremt denne ved påvisningen af, at et højrisiko-AI-system overholder kravene i afdeling 2, har anvendt harmoniserede standarder omhandlet i artikel 40 eller, hvis det er relevant, fælles specifikationer omhandlet i artikel 41, vælge en af følgende overensstemmelsesvurderingsprocedurer på grundlag af:
1. V případě vysoce rizikových systémů AI uvedených v bodě 1 přílohy III, u nichž poskytovatel při prokazování souladu vysoce rizikového systému AI s požadavky stanovenými v oddíle 2 použil harmonizované normy uvedené v článku 40 nebo v relevantních případech společné specifikace uvedené v článku 41, si poskytovatel zvolí jeden z následujících postupů posuzování shody na základě:
a)
intern kontrol omhandlet i bilag VI, eller
a)
interní kontroly uvedené v příloze VI nebo
b)
vurdering af kvalitetsstyringssystemet og vurdering af den tekniske dokumentation med inddragelse af et bemyndiget organ omhandlet i bilag VII.
b)
posouzení systému řízení kvality a posouzení technické dokumentace za účasti oznámeného subjektu podle přílohy VII.
Ved påvisning af et højrisiko-AI-systems overensstemmelse med kravene i afdeling 2 følger udbyderen overensstemmelsesvurderingsproceduren i bilag VII, hvis:
Při prokazování souladu vysoce rizikového systému AI s požadavky stanovenými v oddíle 2 se poskytovatel řídí postupem posuzování shody stanoveným v příloze VII, pokud:
a)
der ikke findes harmoniserede standarder omhandlet i artikel 40, og der ikke findes fælles specifikationer omhandlet i artikel 41
a)
neexistují harmonizované normy uvedené v článku 40 a nejsou k dispozici společné specifikace uvedené v článku 41;
b)
udbyderen ikke har anvendt eller kun har anvendt en del af den harmoniserede standard
b)
poskytovatel nepoužil harmonizovanou normu nebo použil jen její část;
c)
de i litra a) omhandlede fælles specifikationer findes, men udbyderen ikke har anvendt dem
c)
společné specifikace uvedené v písmenu a) existují, ale poskytovatel je nepoužil;
d)
én eller flere af de i litra a) omhandlede harmoniserede standarder er blevet offentliggjort med en begrænsning og kun med hensyn til den del af standarden, som er genstand for begrænsning.
d)
jedna nebo více harmonizovaných norem uvedených v písmenu a) byla zveřejněna s omezením a pouze pro tu část normy, která byla omezena.
Med henblik på den overensstemmelsesvurderingsprocedure, der er omhandlet i bilag VII, kan udbyderen vælge hvilket som helst af de bemyndigede organer. Hvis højrisiko-AI-systemet tilsigtes ibrugtaget af retshåndhævende myndigheder, indvandringsmyndigheder, asylmyndigheder eller EU-institutioner, -organer, -kontorer eller -agenturer, fungerer den markedsovervågningsmyndighed, der er omhandlet i artikel 74, stk. 8 eller 9, alt efter hvad der er relevant, imidlertid som bemyndiget organ.
Pro účely postupu posuzování shody uvedeného v příloze VII si poskytovatel může zvolit kterýkoli z oznámených subjektů. Je-li však vysoce rizikový systém AI určen k uvedení do provozu donucovacími, imigračními nebo azylovými orgány nebo orgány, institucemi a jinými subjekty EU, jedná jako oznámený subjekt orgán dozoru nad trhem uvedený v čl. 74 odst. 8, případně 9.
2. Hvad angår de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2-8, skal udbyderne følge overensstemmelsesvurderingsproceduren på grundlag af intern kontrol som omhandlet i bilag VI, som ikke foreskriver inddragelse af et bemyndiget organ.
2. U vysoce rizikových systémů AI uvedených v bodech 2 až 8 přílohy III uplatňují poskytovatelé postup posuzování shody založený na interní kontrole uvedené v příloze VI, který nestanoví zapojení oznámeného subjektu.
3. For højrisiko-AI-systemer, som er omfattet af EU-harmoniseringslovgivningen, der er opført i bilag I, afsnit A, skal udbyderen følge den relevante overensstemmelsesvurderingsprocedure som krævet i henhold til disse retsakter. Kravene i dette kapitels afdeling 2 finder anvendelse på disse højrisiko-AI-systemer og skal indgå i den nævnte vurdering. Punkt 4.3, 4.4 og 4.5 samt bilag VII, punkt 4.6, femte afsnit, finder også anvendelse.
3. U vysoce rizikových systémů AI, na které se vztahují právní předpisy Unie v oblasti harmonizace uvedené v oddíle A přílohy I, uplatňuje poskytovatel příslušné postupy posouzení shody, které stanoví uvedené právní akty. Na tyto vysoce rizikové systémy AI se vztahují požadavky stanovené v oddíle 2 této kapitoly, které jsou součástí uvedeného posouzení. Použijí se rovněž body 4.3, 4.4, 4.5 a pátý odstavec bodu 4.6 přílohy VII.
Med henblik på denne vurdering har bemyndigede organer, der er blevet notificeret i henhold til disse retsakter, ret til at kontrollere højrisiko-AI-systemernes overensstemmelse med kravene i afdeling 2, forudsat at disse bemyndigede organers overholdelse af kravene i artikel 31, stk. 4, 5, 10 og 11, er blevet vurderet i forbindelse med notifikationsproceduren i henhold til disse retsakter.
Pro účely tohoto posouzení jsou oznámené subjekty, které byly oznámeny podle těchto právních aktů, oprávněny kontrolovat shodu vysoce rizikových systémů AI s požadavky stanovenými v oddíle 2, pokud byl posouzen soulad těchto oznámených subjektů s požadavky stanovenými v čl. 31 odst. 4, 5, 10 a 11 v rámci postupu pro oznamování podle těchto právních aktů.
Hvis en retsakt, der er opført i bilag I, afsnit A, giver producenten mulighed for at fravælge en af tredjepart udført overensstemmelsesvurdering, forudsat at producenten har anvendt alle de harmoniserede standarder, der omfatter alle de relevante krav, kan producenten kun anvende denne mulighed, hvis vedkommende også har anvendt harmoniserede standarder eller, hvis det er relevant, fælles specifikationer omhandlet i artikel 41, der omfatter alle kravene i dette kapitels afdeling 2.
Pokud právní akt uvedený v oddíle A přílohy I umožňuje výrobci produktu neúčastnit se posuzování shody třetí stranou za předpokladu, že tento výrobce uplatnil všechny harmonizované normy pokrývající všechny příslušné požadavky, může tento výrobce tuto možnost využít pouze v případě, že uplatnil rovněž harmonizované normy nebo v relevantních případech společné specifikace uvedené v článku 41, které pokrývají všechny požadavky stanovené v oddíle 2 této kapitoly.
4. Højrisiko-AI-systemer, der allerede har været genstand for en overensstemmelsesvurderingsprocedure, skal underkastes en ny overensstemmelsesvurderingsprocedure i tilfælde af væsentlige ændringer, uanset om det ændrede system tilsigtes videredistribueret eller fortsat anvendes af den nuværende idriftsætter.
4. U vysoce rizikových systémů AI, u kterých již byl postup posuzování shody proveden, musí být proveden nový postup posuzování shody v případě podstatné změny, bez ohledu na to, zda má být změněný systém dále distribuován, nebo zda jej i nadále používá jeho současný zavádějící subjekt.
For højrisiko-AI-systemer, der bliver ved med at lære efter at være bragt i omsætning eller ibrugtaget, udgør ændringer af højrisiko-AI-systemet og dets ydeevne, som udbyderen har fastlagt på forhånd på tidspunktet for den indledende overensstemmelsesvurdering, og som er en del af oplysningerne i den tekniske dokumentation, der er omhandlet i bilag IV, punkt 2, litra f), ikke en væsentlig ændring.
U vysoce rizikových systémů AI, které se po uvedení na trh nebo do provozu dále učí, nepředstavují změny takového vysoce rizikového systému AI a jeho výkonnosti podstatnou změnu, pokud byly poskytovatelem před stanoveny v okamžiku počátečního posouzení shody a jsou součástí informací obsažených v technické dokumentaci uvedené v bodě 2 písm. f) přílohy IV.
5. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre bilag VI og VII ved at ajourføre dem i lyset af den tekniske udvikling.
5. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97 s cílem změnit přílohy VI a VII jejich aktualizací s ohledem na technický pokrok.
6. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre nærværende artikels stk. 1 og 2 for at underkaste de i bilag III, punkt 2-8, omhandlede højrisiko-AI-systemer overensstemmelsesvurderingsproceduren i bilag VII eller dele heraf. Kommissionen vedtager sådanne delegerede retsakter under hensyntagen til effektiviteten af overensstemmelsesvurderingsproceduren på grundlag af intern kontrol omhandlet i bilag VI med hensyn til at forebygge eller minimere de risici for sundhed, sikkerhed og beskyttelsen af de grundlæggende rettigheder, som sådanne systemer medfører, samt hvorvidt der er tilstrækkelig kapacitet og ressourcer i de bemyndigede organer.
6. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97, kterými se mění odstavce 1 a 2 tohoto článku, s cílem podrobit vysoce rizikové systémy AI uvedené v bodech 2 až 8 přílohy III postupu posuzování shody uvedenému v příloze VII nebo jejích částech. Komise přijímá tyto akty v přenesené pravomoci s přihlédnutím k účinnosti postupu posuzování shody založeného na interní kontrole podle přílohy VI v oblasti prevence nebo minimalizace rizik pro zdraví, bezpečnost a ochranu základních práv, která tyto systémy představují, jakož i k dostupnosti přiměřených kapacit a zdrojů mezi oznámenými subjekty.
Artikel 44
Článek 44
Attester
Certifikáty
1. Attester, der udstedes af bemyndigede organer i overensstemmelse med bilag VII, udfærdiges på et sprog, som er letforståeligt for de relevante myndigheder i den medlemsstat, hvor det bemyndigede organ er etableret.
1. Certifikáty vydané oznámenými subjekty v souladu s přílohou VII se vyhotovují v jazyce, který je snadno srozumitelný příslušným orgánům v členském státě, v němž je oznámený subjekt usazen.
2. Attester er gyldige i den periode, de angiver, og som ikke må overstige fem år for AI-systemer, der er omfattet af bilag I, og fire år for AI-systemer, der er omfattet af bilag III. På udbyderens anmodning kan en attests gyldighedsperiode forlænges med yderligere perioder på hver højst fem år for AI-systemer, der er omfattet af bilag I, og fire år for AI-systemer, der er omfattet af bilag III, på grundlag af en fornyet vurdering i overensstemmelse med gældende overensstemmelsesvurderingsprocedurer. Et eventuelt tillæg til en attest forbliver gyldigt, forudsat at den attest, det supplerer, er gyldig.
2. Certifikáty jsou platné po dobu, kterou uvádějí a která nepřesáhne pět let pro systémy AI, na něž se vztahuje příloha I, a čtyři roky pro systémy AI, na něž se vztahuje příloha III. Na žádost poskytovatele může být platnost certifikátu prodlužována o další období, z nichž žádné nepřekročí délku pěti let pro systémy AI, na něž se vztahuje příloha I, a čtyři roky pro systémy AI, na něž se vztahuje příloha III, a to na základě nového posouzení v souladu s příslušnými postupy posuzování shody. Veškeré dodatky k certifikátu zůstávají v platnosti, pokud je platný certifikát, k němuž se vztahují.
3. Hvis et bemyndiget organ fastslår, at et AI-system ikke længere opfylder kravene i afdeling 2, skal det under iagttagelse af proportionalitetsprincippet suspendere eller tilbagetrække den udstedte attest eller begrænse den, medmindre udbyderen af systemet gennem passende korrigerende tiltag og inden for en passende frist fastsat af det bemyndigede organ sikrer overholdelse af de pågældende krav. Det bemyndigede organ skal begrunde sin afgørelse.
3. Pokud oznámený subjekt zjistí, že systém AI již nesplňuje požadavky uvedené v oddíle 2, pozastaví s ohledem na zásadu proporcionality platnost certifikátu nebo ho zruší či jinak omezí, dokud není vhodnými nápravnými opatřeními přijatými poskytovatelem tohoto systému v rámci příslušné lhůty stanovené oznámeným subjektem zajištěno dosažení souladu s těmito požadavky. Oznámený subjekt své rozhodnutí zdůvodní.
De bemyndigede organers afgørelser, herunder om udstedte overensstemmelsesattester, skal kunne appelleres.
Proti rozhodnutím oznámených subjektů, včetně rozhodnutí o vydaných certifikátech shody, je možné se odvolat.
Artikel 45
Článek 45
Oplysningsforpligtelser for bemyndigede organer
Informační povinnosti oznámených subjektů
1. Bemyndigede organer skal oplyse den bemyndigende myndighed om følgende:
1. Oznámené subjekty informují oznamující orgán:
a)
alle EU-vurderingsattester for teknisk dokumentation, eventuelle tillæg til disse attester og eventuelle godkendelser af kvalitetsstyringssystemer, der er udstedt i overensstemmelse med kravene i bilag VII
a)
o veškerých certifikátech Unie o posouzení technické dokumentace, o veškerých dodatcích k těmto certifikátům a o veškerých schváleních systému řízení kvality vydaných v souladu s požadavky přílohy VII;
b)
alle afslag på, begrænsninger af, suspensioner af eller tilbagetrækninger af EU-vurderingsattester for teknisk dokumentation eller godkendelser af kvalitetsstyringssystemer udstedt i overensstemmelse med kravene i bilag VII
b)
o veškerých zamítnutích, omezeních, pozastaveních či zrušeních certifikátu Unie o posouzení technické dokumentace nebo o schváleních systému řízení kvality vydaných v souladu s požadavky přílohy VII;
c)
alle forhold, der har indflydelse på omfanget af eller betingelserne for notifikationen
c)
o všech okolnostech majících vliv na působnost nebo podmínky oznámení;
d)
alle anmodninger om oplysninger om overensstemmelsesvurderingsaktiviteter, som de har modtaget fra markedsovervågningsmyndighederne
d)
o každé žádosti o informace týkající se činností posuzování shody, kterou obdržely od orgánů dozoru nad trhem;
e)
efter anmodning, overensstemmelsesvurderingsaktiviteter, der er udført inden anvendelsesområdet for deres notifikation, og enhver anden aktivitet, der er udført, herunder grænseoverskridende aktiviteter og underentreprise.
e)
na vyžádání o činnostech posuzování shody vykonaných v rámci působnosti jejich oznámení a o jakékoli jiné vykonané činnosti, včetně přeshraničních činností a zadávání subdodávek.
2. Hvert bemyndiget organ skal underrette de øvrige bemyndigede organer om:
2. Každý oznámený subjekt informuje ostatní oznámené subjekty:
a)
afviste, suspenderede eller tilbagetrukne godkendelser af kvalitetsstyringssystemer samt, efter anmodning, udstedte godkendelser af kvalitetsstyringssystemer
a)
o schváleních systému kvality, která zamítl, pozastavil či zrušil, a na požádání o schváleních systému kvality, která vydal;
b)
EU-vurderingsattester for teknisk dokumentation eller tillæg hertil, som det har afvist, tilbagetrukket, suspenderet eller på anden måde begrænset, og, efter anmodning, de attester og/eller tillæg hertil, som det har udstedt.
b)
o unijních certifikátech posouzení technické dokumentace nebo jakýchkoli jejich dodatcích, které zamítl, zrušil, pozastavil či jinak omezil, a na požádání o certifikátech nebo dodatcích k nim, které vydal.
3. Hvert bemyndiget organ skal give de øvrige bemyndigede organer, som udfører lignende overensstemmelsesvurderingsaktiviteter vedrørende de samme typer AI-systemer, relevante oplysninger om spørgsmål vedrørende negative og, efter anmodning, positive overensstemmelsesvurderingsresultater.
3. Každý oznámený subjekt poskytne jiným oznámeným subjektům, které vykonávají obdobné činnosti posuzování shody a zabývají se stejnými typy systémů AI, příslušné informace o otázkách týkajících se negativních a na vyžádání pozitivních výsledků posuzování shody.
4. Bemyndigende myndigheder sikrer, at de oplysninger, de kommer i besiddelse af, behandles fortroligt i overensstemmelse med artikel 78.
4. Oznámené subjekty zajistí v souladu s čl. 78 důvěrnost informací, které obdrží.
Artikel 46
Článek 46
Undtagelse fra overensstemmelsesvurderingsprocedure
Odchylka od postupu posuzování shody
1. Uanset artikel 43 og efter behørigt begrundet anmodning kan enhver markedsovervågningsmyndighed tillade, at specifikke højrisiko-AI-systemer bringes i omsætning eller ibrugtages på den pågældende medlemsstats område af ekstraordinære hensyn til den offentlige sikkerhed eller beskyttelse af menneskers liv og sundhed, miljøbeskyttelse eller beskyttelse af centrale industrielle og infrastrukturmæssige aktiver. Tilladelsen gælder kun for en begrænset periode, mens de nødvendige overensstemmelsesvurderingsprocedurer gennemføres, under hensyntagen til de ekstraordinære hensyn, der begrunder undtagelsen. Gennemførelsen af disse procedurer skal ske uden unødigt ophold.
1. Odchylně od článku 43 a na základě řádně odůvodněné žádosti může kterýkoli orgán dozoru nad trhem povolit uvedení konkrétních vysoce rizikových systémů AI na trh nebo do provozu na území dotčeného členského státu z výjimečných důvodů veřejné bezpečnosti nebo ochrany života a zdraví osob, ochrany životního prostředí a ochrany klíčových průmyslových a infrastrukturních aktiv. Toto povolení se uděluje na omezenou dobu, dokud jsou prováděny nezbytné postupy posuzování shody, při zohlednění výjimečných důvodů opodstatňujících odchylku. Dokončení těchto postupů se provádí bez zbytečného odkladu.
2. I behørigt begrundede hastende tilfælde af ekstraordinære hensyn til den offentlige sikkerhed eller i tilfælde af en specifik, væsentlig og overhængende fare for fysiske personers liv eller fysiske sikkerhed kan de retshåndhævende myndigheder eller civilbeskyttelsesmyndighederne ibrugtage et specifikt højrisiko-AI-system uden den tilladelse, der er omhandlet i stk. 1, forudsat at der anmodes om en sådan tilladelse under eller efter anvendelsen uden unødigt ophold. Hvis den i stk. 1 omhandlede tilladelse afvises, skal anvendelsen af højrisiko-AI-systemet indstilles med øjeblikkelig virkning, og alle resultater og output af en sådan anvendelse skal omgående kasseres.
2. V řádně odůvodněné naléhavé situaci z výjimečných důvodů veřejné bezpečnosti nebo v případě konkrétního, podstatného a bezprostředního ohrožení života nebo fyzické bezpečnosti fyzických osob mohou donucovací orgány nebo orgány civilní ochrany uvést do provozu konkrétní vysoce rizikový systém AI bez povolení uvedeného v odstavci 1, pokud je o takové povolení požádáno bez zbytečného odkladu v průběhu používání nebo po něm. Pokud je povolení uvedené v odstavci 1 zamítnuto, používání vysoce rizikového systému AI se s okamžitým účinkem zastaví a všechny výsledky a výstupy tohoto použití se okamžitě vyřadí.
3. Den i stk. 1 omhandlede tilladelse udstedes kun, hvis markedsovervågningsmyndigheden konkluderer, at højrisiko-AI-systemet overholder kravene i afdeling 2. Markedsovervågningsmyndigheden underretter Kommissionen og de øvrige medlemsstater om enhver tilladelse, der udstedes i henhold til stk. 1 og 2. Denne forpligtelse omfatter ikke følsomme operationelle oplysninger i forbindelse med de retshåndhævende myndigheders aktiviteter.
3. Povolení uvedené v odstavci 1 bude vydáno jen v případě, že orgán dozoru nad trhem dospěje k závěru, že daný vysoce rizikový systém AI splňuje požadavky oddílu 2. Orgán dozoru nad trhem o každém povolení vydaném podle odstavce 1 a 2 informuje Komisi a ostatní členské státy. Tato povinnost se nevztahuje na citlivé operativní údaje týkající se činnosti donucovacích orgánů.
4. Hvis der ikke inden for 15 kalenderdage efter modtagelsen af de i stk. 3 omhandlede oplysninger er blevet gjort indsigelse af en medlemsstat eller Kommissionen mod en tilladelse udstedt af en markedsovervågningsmyndighed i en medlemsstat i overensstemmelse med stk. 1, anses denne tilladelse for at være berettiget.
4. Pokud do patnácti kalendářních dnů od obdržení informací uvedených v odstavci 3 proti povolení vydanému orgánem dozoru nad trhem členského státu v souladu s odstavcem 1 žádný členský stát ani Komise nevznesou námitku, považuje se povolení za oprávněné.
5. Hvis en medlemsstat inden for 15 kalenderdage efter modtagelsen af den i stk. 3 omhandlede underretning gør indsigelse mod en tilladelse, der er udstedt af en markedsovervågningsmyndighed i en anden medlemsstat, eller hvis Kommissionen finder, at tilladelsen er i strid med EU-retten, eller at medlemsstaternes konklusion vedrørende systemets overholdelse af kravene som omhandlet i stk. 3 er ubegrundet, hører Kommissionen straks den relevante medlemsstat. Operatørerne skal høres og have mulighed for at fremsætte deres synspunkter. På denne baggrund træffer Kommissionen afgørelse om, hvorvidt tilladelsen er berettiget. Kommissionen retter sin afgørelse til den pågældende medlemsstat og til de relevante operatører.
5. Pokud některý členský stát do patnácti kalendářních dnů od přijetí oznámení uvedeného v odstavci 3 námitky proti povolení vydanému orgánem dozoru nad trhem jiného členského státu vznese nebo pokud se Komise domnívá, že toto povolení je v rozporu s právem Unie nebo se závěrem členských států ohledně souladu systému podle odstavce 3 neopodstatněné, zahájí Komise s příslušným členským státem neprodleně konzultace. Dotčení provozovatelé jsou konzultováni a mají možnost předložit svá stanoviska. S ohledem na to Komise rozhodne, zda je povolení oprávněné či nikoli. Rozhodnutí Komise je určeno dotčenému členskému státu a příslušným provozovatelům.
6. Hvis Kommissionen finder, at tilladelsen er uberettiget, tilbagetrækkes den af markedsovervågningsmyndigheden i den pågældende medlemsstat.
6. Pokud Komise považuje povolení za neodůvodněné, orgán dozoru nad trhem dotčeného členského státu jej zruší.
7. For højrisiko-AI-systemer vedrørende produkter, der er omfattet af EU-harmoniseringslovgivningen, som er opført i bilag I, afsnit A, finder kun undtagelserne fra overensstemmelsesvurderingen, der er fastsat i den pågældende EU-harmoniseringslovgivning, anvendelse.
7. U vysoce rizikových systémů AI souvisejících s produkty, na něž se vztahují harmonizační právní předpisy Unie uvedené v oddíle A přílohy I, se použijí pouze odchylky od posuzování shody stanovené v uvedených harmonizačních právních předpisech Unie.
Artikel 47
Článek 47
EU-overensstemmelseserklæring
EU prohlášení o shodě
1. Udbyderen udarbejder en skriftlig, maskinlæsbar, fysisk eller elektronisk undertegnet EU-overensstemmelseserklæring for hvert højrisiko-AI-system og opbevarer den, så den i ti år efter, at højrisiko-AI-systemet er blevet bragt i omsætning eller ibrugtaget, står til rådighed for de nationale kompetente myndigheder. Det skal af EU-overensstemmelseserklæringen fremgå, hvilket højrisiko-AI-system den vedrører. Et eksemplar af EU-overensstemmelseserklæringen indgives til de relevante nationale kompetente myndigheder.
1. Poskytovatel vypracuje pro každý vysoce rizikový systém AI písemné strojově čitelné, fyzické nebo elektronicky podepsané EU prohlášení o shodě a po dobu deseti let od uvedení vysoce rizikového systému AI na trh nebo do provozu je uchovává pro potřebu příslušných vnitrostátních orgánů. V EU prohlášení o shodě je uveden vysoce rizikový systém AI, pro nějž bylo vypracováno. Kopie EU prohlášení o shodě bude na vyžádání předložena dotčeným příslušným vnitrostátním orgánům.
2. Det skal af EU-overensstemmelseserklæringen fremgå, at det pågældende højrisiko-AI-system opfylder kravene i afdeling 2. EU-overensstemmelseserklæringen skal indeholde de oplysninger, der er fastsat i bilag V, og skal oversættes til et sprog, der let kan forstås af de nationale kompetente myndigheder i de medlemsstater, hvor højrisiko-AI-systemet bringes i omsætning eller gøres tilgængeligt.
2. EU prohlášení o shodě stanoví, že dotyčný vysoce rizikový systém AI splňuje požadavky stanovené v oddíle 2. EU prohlášení o shodě obsahuje informace stanovené v příloze V a je přeloženo do jazyka, který je snadno srozumitelný příslušným vnitrostátním orgánům v členských státech, v nichž je vysoce rizikový systém AI dodáván na trh nebo uveden na trh.
3. For højrisiko-AI-systemer, der er omfattet af anden EU-harmoniseringslovgivning, i henhold til hvilken der også kræves en EU-overensstemmelseserklæring, udarbejdes der en enkelt EU-overensstemmelseserklæring for al EU-ret, der finder anvendelse på højrisiko-AI-systemet. Erklæringen skal indeholde alle de oplysninger, der er påkrævet for at identificere, hvilken EU-harmoniseringslovgivning erklæringen vedrører.
3. Pokud se na vysoce rizikové systémy AI vztahují jiné harmonizační právní předpisy Unie, které také vyžadují EU prohlášení o shodě, vypracuje se jediné EU prohlášení o shodě s ohledem veškeré právo Unie, které se vztahuje na daný vysoce rizikový systém AI. Toto prohlášení musí obsahovat veškeré informace požadované pro identifikaci harmonizačních právních předpisů Unie, k nimž se prohlášení vztahuje.
4. Ved at udarbejde EU-overensstemmelseserklæringen står udbyderen inde for, at kravene i afdeling 2 overholdes. Udbyderen skal sørge for at holde EU-overensstemmelseserklæringen ajour, alt efter hvad der er relevant.
4. Vypracováním EU prohlášení o shodě přebírá poskytovatel odpovědnost za soulad s požadavky stanovenými v oddíle 2. Poskytovatel toto EU prohlášení o shodě podle potřeby průběžně aktualizuje.
5. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre bilag V ved at ajourføre indholdet af EU-overensstemmelseserklæringen, der er fastsat i nævnte bilag, for at indføre elementer, der bliver nødvendige i lyset af den tekniske udvikling.
5. Komisi je svěřena pravomoc přijímat akty v přenesené pravomoci v souladu s článkem 97 za účelem změny přílohy V aktualizací obsahu EU prohlášení o shodě uvedeného v uvedené příloze s cílem zavést prvky, které mohou být nutné s ohledem na technický pokrok.
Artikel 48
Článek 48
CE-mærkning
Označení CE
1. CE-mærkningen er underlagt de generelle principper fastsat i artikel 30 i forordning (EF) nr. 765/2008.
1. Označení CE podléhá obecným zásadám uvedeným v článku 30 nařízení (ES) č. 765/2008.
2. For højrisiko-AI-systemer, som leveres digitalt, anvendes der kun en digital CE-mærkning, hvis den er let at tilgå via den grænseflade, hvorfra det pågældende system tilgås, eller via en lettilgængelig maskinlæsbar kode eller andre elektroniske midler.
2. U vysoce rizikových systémů AI poskytovaných digitálně se digitální označení CE použije pouze v případě, že je snadno přístupné prostřednictvím rozhraní, z něhož je systém přístupný, nebo prostřednictvím snadno přístupného strojově čitelného kódu nebo jiných elektronických prostředků.
3. CE-mærkningen skal i tilknytning til højrisiko-AI-systemer anbringes synligt, letlæseligt og således, at den ikke kan slettes. Hvis højrisiko-AI-systemet er af en sådan art, at dette ikke er muligt eller berettiget, anbringes mærkningen på emballagen eller i den medfølgende dokumentation, alt efter hvad der relevant.
3. Označení CE se viditelně, čitelně a nesmazatelně umístí na daný vysoce rizikový systém AI. Pokud to není možné nebo to nelze s ohledem na charakter vysoce rizikového systému AI zaručit, umístí se podle potřeby na obal nebo na průvodní doklady.
4. Hvis det er relevant, skal CE-mærkningen følges af identifikationsnummeret for det bemyndigede organ, der er ansvarligt for overensstemmelsesvurderingsprocedurerne i artikel 43. Det bemyndigede organs identifikationsnummer anbringes af organet selv eller efter dettes anvisninger af udbyderen eller af udbyderens bemyndigede repræsentant. Identifikationsnummeret skal også fremgå af salgsfremmende materiale, som nævner, at højrisiko-AI-systemet opfylder kravene til CE-mærkning.
4. V relevantních případech následuje za označením CE identifikační číslo oznámeného subjektu odpovědného za postupy posuzování shody stanovené v článku 43. Identifikační číslo oznámeného subjektu umístí sám subjekt, nebo jej umístí podle jeho pokynů poskytovatel nebo jeho zplnomocněný zástupce. Identifikační číslo je rovněž uvedeno ve všech propagačních materiálech, které uvádí, že daný vysoce rizikový systém AI splňuje požadavky na označení CE.
5. Hvis højrisiko-AI-systemet er omfattet af anden EU-ret, som også indeholder bestemmelser om anbringelsen af CE-mærkning, skal CE-mærkningen angive, at højrisiko-AI-systemet ligeledes opfylder kravene i denne anden ret.
5. Pokud se na vysoce rizikové systémy AI vztahuje jiné právo Unie, které rovněž stanoví připojení označení CE, pak se v tomto označení uvádí, že vysoce rizikové systémy AI splňují také požadavky daného jiného práva.
Artikel 49
Článek 49
Registrering
Registrace
1. Inden et højrisiko-AI-system, der er opført i bilag III, med undtagelse af de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2, bringes i omsætning eller ibrugtages, skal udbyderen eller, hvis det er relevant, den bemyndigede repræsentant registrere sig selv og deres system i den EU-database, der er omhandlet i artikel 71.
1. Před uvedením vysoce rizikového systému AI uvedeného v příloze III, s výjimkou vysoce rizikových systémů AI podle bodu 2 přílohy III, na trh nebo do provozu poskytovatel nebo případně zplnomocněný zástupce zaregistruje sebe a svůj systém do databáze EU uvedené v článku 71.
2. Inden et AI-system, for hvilket udbyderen har konkluderet, at det ikke udgør en høj risiko i overensstemmelse med artikel 6, stk. 3, bringes i omsætning eller tages i brug, registrerer den pågældende udbyder eller, hvis det er relevant, den bemyndigede repræsentant sig selv og dette system i den EU-database, der er omhandlet i artikel 71.
2. Před uvedením systému AI, u něhož poskytovatel došel k závěru, že nepředstavuje vysoké riziko podle čl. 6 odst. 3, na trh nebo do provozu tento poskytovatel nebo případně zplnomocněný zástupce zaregistruje sebe a tento systém do databáze EU uvedené v článku 71.
3. Inden et højrisiko-AI-system, der er opført i bilag III, med undtagelse af de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2, ibrugtages eller anvendes, skal idriftsættere, som er offentlige myndigheder, EU-institutioner, -organer, -kontorer eller -agenturer eller personer, der handler på deres vegne, lade sig registrere, vælge systemet og registrere dets anvendelse i den EU-database, der er omhandlet i artikel 71.
3. Před uvedením do provozu nebo použitím vysoce rizikového systému AI uvedeného v příloze III, s výjimkou vysoce rizikových systémů AI uvedených v bodě 2 přílohy III, zavádějící subjekty, které jsou veřejnými orgány, orgány, institucemi nebo jinými subjekty Unie nebo osobami jednajícími jejich jménem, se zaregistrují, vyberou systém a zaregistrují jeho používání v databázi EU uvedené v článku 71.
4. For de højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, 6 og 7, inden for retshåndhævelse og migrationsstyring, asylforvaltning og grænsekontrol, foretages den registrering, der er omhandlet i denne artikels stk. 1, 2 og 3, i en sikker ikkeoffentlig del af den EU-database, der er omhandlet i artikel 71, og omfatter kun følgende oplysninger, alt efter hvad der er relevant, der er omhandlet i:
4. V případě vysoce rizikových systémů AI uvedených v bodech 1, 6 a 7 přílohy III v oblastech vymáhání práva, migrace, azylu a správy ochrany hranic se registrace uvedená v odstavcích 1, 2 a 3 tohoto článku provádí v zabezpečené neveřejné části databáze EU uvedené v článku 71 a obsahuje v příslušných případech pouze tyto informace uvedené v těchto částech:
a)
bilag VIII, afsnit A, punkt 1-10, med undtagelse af punkt 6, 8 og 9
a)
oddíl A body 1 až 10 přílohy VIII, s výjimkou bodů 6, 8 a 9;
b)
bilag VIII, afsnit B, punkt 1-5 og 8 og 9
b)
oddíl B, body 1 až 5 a body 8 a 9 přílohy VIII;
c)
bilag VIII, afsnit C, punkt 1-3
c)
oddíl C body 1 až 3 přílohy VIII;
d)
bilag IX, punkt 1, 2, 3 og 5.
d)
body 1. 2,3 a 5 přílohy IX.
Kun Kommissionen og de nationale myndigheder, der er omhandlet i artikel 74, stk. 8, har adgang til de respektive begrænsede afsnit i den EU-database, der er opført i nærværende stykkes første afsnit.
Do těchto konkrétních omezených částí databáze EU uvedených v prvním pododstavci tohoto odstavce mají přístup pouze Komise a vnitrostátní orgány uvedené v čl. 74 odst. 8.
5. Højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2, registreres på nationalt plan.
5. Vysoce rizikové systémy AI uvedené v příloze III bodě 2 se registrují na vnitrostátní úrovni.
KAPITEL IV
KAPITOLA IV
GENNEMSIGTIGHEDSFORPLIGTELSER FOR UDBYDERE OG IDRIFTSÆTTERE AF VISSE AI-SYSTEMER
POVINNOSTI POSKYTOVATELŮ URČITÝCH SYSTÉMŮ AI A SUBJEKTŮ, JEŽ TYTO SYSTÉMY ZAVÁDĚJÍ, POKUD JDE O TRANSPARENTNOST
Artikel 50
Článek 50
Gennemsigtighedsforpligtelser for udbydere og idriftsættere af visse AI-systemer
Povinnosti poskytovatelů zavádějící subjektů určitých systémů AI, pokud jde o transparentnost
1. Udbydere skal sikre, at AI-systemer, der er tilsigtet at interagere direkte med fysiske personer, udformes og udvikles på en sådan måde, at de pågældende fysiske personer oplyses om, at de interagerer med et AI-system, medmindre dette er indlysende ud fra en rimeligt velinformeret, opmærksom og forsigtig fysisk persons synspunkt ud fra omstændighederne og anvendelsessammenhængen. Denne forpligtelse finder ikke anvendelse på AI-systemer, der ved lov er godkendt til at afsløre, forebygge, efterforske eller retsforfølge strafbare handlinger, med forbehold af passende sikkerhedsforanstaltninger for tredjemands rettigheder og friheder, medmindre disse systemer er tilgængelige for offentligheden med henblik på at anmelde en strafbar handling.
1. Poskytovatelé zajistí, aby systémy AI určené k přímé interakci s fyzickými osobami byly navrhovány a vyvíjeny tak, že dotčené fyzické osoby budou vyrozuměny o tom, že komunikují se systémem AI, není-li tato skutečnost zřejmá z pohledu fyzické osoby, která je přiměřeně informovaná, pozorná a obezřetná, při zohlednění okolností a kontextu použití. S výhradou příslušných záruk týkajících se práv a svobod třetích stran se tato povinnost nevztahuje na systémy AI, které jsou ze zákona oprávněny odhalovat trestné činy, předcházet jim, vyšetřovat je nebo stíhat, s výjimkou případů, kdy jsou tyto systémy k dispozici veřejnosti za účelem hlášení trestných činů.
2. Udbydere af AI-systemer, herunder AI-systemer til almen brug, der genererer syntetisk lyd-, billed-, video- eller tekstindhold, sikrer, at AI-systemets output er mærket i et maskinlæsbart format og kan spores som kunstigt genereret eller manipuleret. Udbyderne sikrer, at deres tekniske løsninger er effektive, interoperable, robuste og pålidelige, i det omfang dette er teknisk muligt, under hensyntagen til de særlige forhold og begrænsninger for forskellige typer indhold, gennemførelsesomkostningerne og det generelt anerkendte aktuelle tekniske niveau, som kan være afspejlet i relevante tekniske standarder. Denne forpligtelse finder ikke anvendelse, i det omfang AI-systemerne udfører en hjælpefunktion med henblik på standardredigering eller ikke i væsentlig grad ændrer de inputdata, der leveres af idriftsætteren eller semantikken heraf, eller, hvis det ved lov er tilladt for at afsløre, forebygge, efterforske eller retsforfølge strafbare handlinger.
2. Poskytovatelé systémů AI, včetně obecných systémů AI, vytvářejících syntetický zvukový, obrazový, video nebo textový obsah, zajistí, aby výstupy systému AI byly označeny ve strojově čitelném formátu a zjistitelné jako uměle vytvořené nebo manipulované. Poskytovatelé zajistí, aby jejich technická řešení byla účinná, interoperabilní, robustní a spolehlivá, pokud je to technicky proveditelné, s přihlédnutím ke zvláštnostem a omezením různých druhů obsahu, nákladům na provádění a obecně uznávanému nejmodernějšímu stavu technologií, tak jak mohou být zachyceny v příslušných technických normách. Tato povinnost se neuplatní v rozsahu, v jakém systémy AI plní asistenční funkci pro standardní editaci nebo podstatně nemění vstupní údaje poskytnuté zavádějícím subjektem nebo jejich sémantiku, nebo pokud je to zákonem povoleno k odhalování, prevenci, vyšetřování nebo stíhání trestných činů.
3. Idriftsættere af et system til følelsesgenkendelse eller et system til biometrisk kategorisering underretter de fysiske personer, der udsættes herfor, om driften af systemet og behandler personoplysningerne i overensstemmelse med forordning (EU) 2016/679 og (EU) 2018/1725 og direktiv (EU) 2016/680, alt efter hvad der er relevant. Denne forpligtelse finder ikke anvendelse på AI-systemer, der anvendes til biometrisk kategorisering og følelsesgenkendelse, og som i ved lov er godkendt til at afsløre, forebygge eller efterforske strafbare handlinger, med forbehold af passende sikkerhedsforanstaltninger for tredjemands rettigheder og frihedsrettigheder og i overensstemmelse med EU-retten.
3. Subjekty zavádějící systém rozpoznávání emocí nebo systém biometrické kategorizace informují o provozu systému fyzické osoby, které jsou mu vystaveny, a zpracovávají osobní údaje podle potřeby v souladu s nařízeními (EU) 2016/679 a (EU) 2018/1725 a směrnicí (EU) 2016/680. Tato povinnost se nevztahuje na systémy AI používané pro biometrickou kategorizaci a rozpoznávání emocí, kterým zákon umožňuje odhalovat trestné činy, předcházet jim nebo je vyšetřovat, s výhradou příslušných záruk týkajících se práv a svobod třetích stran a v souladu s právem Unie.
4. Idriftsættere af et AI-system, der genererer eller manipulerer billed-, lyd- eller videoindhold, der udgør en deepfake, skal oplyse, at indholdet er blevet genereret kunstigt eller manipuleret. Denne forpligtelse gælder ikke, hvis anvendelsen ved lov er tilladt for at afsløre, forebygge, efterforske eller retsforfølge strafbare handlinger. Hvis indholdet er en del af et oplagt kunstnerisk, kreativt, satirisk, fiktivt eller tilsvarende arbejde eller program, er gennemsigtighedsforpligtelserne i dette stykke begrænset til oplysning om eksistensen af sådant genereret eller manipuleret indhold på en passende måde, der ikke er til gene for visningen eller nydelsen af værket.
4. Subjekty zavádějící systém AI, který vytváří obrazový, zvukový nebo video obsah představující tzv. „deep fake“ nebo s ním manipuluje, musí zveřejnit, že obsah byl uměle vytvořen nebo s ním bylo manipulováno. Tato povinnost se nevztahuje na případy, kdy je použití povoleno zákonem k odhalování trestných činů, předcházení jim, jejich vyšetřování nebo jejich stíhání. Pokud je obsah součástí zjevně uměleckého, tvůrčího, satirického, fiktivního či obdobného díla nebo programu, povinnosti týkající se transparentnosti stanovené v tomto odstavci jsou omezeny na zveřejnění existence takového vytvořeného nebo zmanipulovaného obsahu vhodným způsobem, který nebrání zobrazení nebo užívání díla.
Idriftsættere af et AI-system, der genererer eller manipulerer tekst, der offentliggøres med det formål at informere offentligheden om spørgsmål af offentlig interesse, skal oplyse, at teksten er blevet kunstigt genereret eller manipuleret. Denne forpligtelse finder ikke anvendelse, hvis anvendelsen ved lov er tilladt for at afsløre, forebygge, efterforske eller retsforfølge strafbare handlinger, eller hvis det AI-genererede indhold har gennemgået en proces med menneskelig gennemgang eller redaktionel kontrol, og hvis en fysisk eller juridisk person har det redaktionelle ansvar for offentliggørelsen af indholdet.
Subjekty zavádějící systém AI, který vytváří text, jenž je zveřejněn za účelem informování veřejnosti o záležitostech veřejného zájmu, nebo který s takovým textem manipuluje, uvedou, že text byl vytvořen uměle nebo s ním bylo manipulováno. Tato povinnost se nevztahuje na případy, kdy je použití povoleno zákonem k odhalování, prevenci, vyšetřování nebo stíhání trestných činů nebo kdy byl obsah vytvořený umělou inteligencí podroben procesu přezkumu člověkem nebo redakční kontroly a pokud za zveřejnění obsahu nese redakční odpovědnost fyzická nebo právnická osoba.
5. De oplysninger, der er omhandlet i stk. 1-4, gives til de pågældende fysiske personer på en klar og synlig måde senest på tidspunktet for den første interaktion eller eksponering. Oplysningerne skal være i overensstemmelse med gældende tilgængelighedskrav.
5. Informace uvedené v odstavcích 1 až 4 se dotčeným fyzickým osobám poskytují jasným a rozlišitelným způsobem nejpozději v době první interakce nebo expozice. Informace musí být v souladu s použitelnými požadavky na přístupnost.
6. Stk. 1-4 berører ikke kravene og forpligtelserne i kapitel III og berører ikke andre gennemsigtighedsforpligtelser, der er fastsat i EU-retten eller national ret, for idriftsættere af AI-systemer.
6. Odstavci 1 až 4 nejsou dotčeny požadavky a povinnosti stanovené v kapitole III a nejsou jimi dotčeny další povinnosti týkající se transparentnosti stanovené v unijním nebo vnitrostátním právu pro subjekty zavádějící systémy AI.
7. AI-kontoret tilskynder til og letter udarbejdelsen af praksiskodekser på EU-plan for at lette en effektiv gennemførelse af forpligtelserne vedrørende påvisning og mærkning af kunstigt genereret eller manipuleret indhold. Kommissionen kan vedtage gennemførelsesretsakter for at godkende disse praksiskodekser efter proceduren i artikel 56, stk. 6. Hvis Kommissionen finder, at kodeksen ikke er tilstrækkelig, kan den vedtage en gennemførelsesretsakt, der præciserer de fælles regler for gennemførelsen af disse forpligtelser efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
7. Úřad pro AI podporuje a usnadňuje vypracování kodexů správné praxe na úrovni Unie s cílem usnadnit účinné provádění povinností týkajících se odhalování a označování uměle vytvořeného nebo manipulovaného obsahu. Komise může přijímat prováděcí akty za účelem schválení těchto kodexů správné praxe v souladu s postupem stanoveným v čl. 56 odst. 6. Pokud se Komise domnívá, že kodex není přiměřený, může přijmout prováděcí akt, kterým se stanoví společná pravidla pro plnění těchto povinností v souladu s přezkumným postupem stanoveným v čl. 98 odst. 2.
KAPITEL V
KAPITOLA V
AI-MODELLER TIL ALMEN BRUG
OBECNÉ MODELY AI
AFDELING 1
ODDÍL 1
Klassificeringsregler
Klasifikační pravidla
Artikel 51
Článek 51
Klassificering af AI-modeller til almen brug som AI-modeller til almen brug med systemisk risiko
Klasifikace obecných modelů AI jako obecných modelů AI se systémovým rizikem
1. En AI-model til almen brug klassificeres som en AI-model til almen brug med systemisk risiko, hvis den opfylder et eller flere af følgende betingelser:
1. Obecný model AI se klasifikuje jako obecný model AI se systémovým rizikem, pokud splňuje některé z těchto podmínek:
a)
den har kapaciteter med stor virkning evalueret på grundlag af passende tekniske værktøjer og metoder, herunder indikatorer og benchmarks
a)
má schopnosti s vysokým dopadem vyhodnocené na základě vhodných technických nástrojů a metodik, včetně ukazatelů a referenčních hodnot;
b)
på grundlag af en afgørelse truffet af Kommissionen på eget initiativ eller efter en kvalificeret varsling fra det videnskabelige panel har den kapaciteter eller virkning, der svarer til dem, der er fastsat i litra a), under hensyntagen til kriterierne i bilag XIII.
b)
na základě rozhodnutí Komise, z moci úřední nebo na základě kvalifikované výstrahy vědecké komise má s ohledem na kritéria stanovená v příloze XIII kapacity nebo dopady rovnocenné těm, které jsou stanoveny v písmenu a).
2. En AI-model til almen brug antages at have kapaciteter med stor virkning i henhold til stk. 1, litra a), når den kumulerede mængde beregningskraft, der anvendes til dens træning, målt i flydende kommatalsberegninger, er større end 1025.
2. Má se za to, že obecný model AI má schopnosti s velkým dopadem podle odst. 1 písm. a), pokud je kumulativní hodnota výpočtu použitého pro jeho výcvik měřená jako množství výpočetních operací s pohyblivou řádovou čárkou vyšší než 1025.
3. Kommissionen vedtager delegerede retsakter i overensstemmelse med artikel 97 for at ændre de tærskler, der er anført i nærværende artikels stk. 1 og 2, samt for at supplere benchmarks og indikatorer i lyset af den teknologiske udvikling såsom algoritmiske forbedringer eller øget hardwareeffektivitet, når det er nødvendigt, således at disse tærskler afspejler det aktuelle tekniske niveau.
3. Komise přijme akty v přenesené pravomoci v souladu s článkem 97 za účelem změny prahových hodnot uvedených v odstavcích 1 a 2 tohoto článku, jakož i za účelem doplnění referenčních hodnot a ukazatelů s ohledem na vývoj technologií, jako jsou algoritmická zlepšení nebo zvýšená účinnost hardwaru, aby tyto prahové hodnoty odrážely současný stav techniky.
Artikel 52
Článek 52
Fremgangsmåde
Postup
1. Hvis en AI-model til almen brug opfylder betingelsen i artikel 51, stk. 1, litra a), giver den relevante udbyder Kommissionen meddelelse så hurtigt som muligt og under alle omstændigheder senest to uger efter, at dette krav er opfyldt, eller det bliver kendt, at det vil blive opfyldt. Meddelelsen skal indeholde de oplysninger, der er nødvendige for at påvise, at det relevante krav er opfyldt. Hvis Kommissionen får kendskab til en AI-model til almen brug, der frembyder systemiske risici, som den ikke har fået meddelelse om, kan den beslutte at udpege den som en model med systemisk risiko.
1. Pokud všeobecný model AI splňuje podmínku uvedenou v čl. 51 odst. 1 písm. a), oznámí to příslušný poskytovatel neprodleně a v každém případě do dvou týdnů po splnění tohoto požadavku, nebo jakmile bude známo, že bude splněn. Toto oznámení obsahuje informace nezbytné k prokázání toho, že byl splněn příslušný požadavek. Pokud se Komise dozví o obecném modelu AI, který představuje systémová rizika, o němž nebyla informována, může se rozhodnout, že jej označí za model se systémovým rizikem.
2. Udbyderen af en AI-model til almen brug, der opfylder betingelsen omhandlet i artikel 51, stk. 1, litra a), kan sammen med dens meddelelse fremlægge tilstrækkeligt underbyggede argumenter til at påvise, at AI-modellen til almen brug, selv om den opfylder det pågældende krav, undtagelsesvis ikke frembyder systemiske risici på grund af dens specifikke karakteristika og derfor ikke bør klassificeres som en AI-model til almen brug med systemisk risiko.
2. Poskytovatel obecného modelu AI, který splňuje podmínku uvedenou v čl. 51 odst. 1 písm. a), může spolu se svým oznámením předložit dostatečně podložené argumenty prokazující, že ačkoli obecný model AI výjimečně splňuje tento požadavek, nepředstavuje vzhledem ke svým specifickým vlastnostem systémová rizika, a proto by neměl být klasifikován jako obecný model AI se systémovým rizikem.
3. Hvis Kommissionen konkluderer, at de argumenter, der er fremsat i henhold til stk. 2, ikke er tilstrækkeligt underbyggede, og den relevante udbyder ikke har været i stand til at påvise, at AI-modellen til almen brug på grund af sine specifikke karakteristika ikke frembyder systemiske risici, afviser den disse argumenter, og AI-modellen til almen brug betragtes som en AI-model til almen brug med systemisk risiko.
3. Pokud Komise dospěje k závěru, že argumenty předložené podle odstavce 2 nejsou dostatečně podložené a příslušný poskytovatel nebyl schopen prokázat, že obecný model AI nepředstavuje vzhledem ke svým specifickým vlastnostem systémová rizika, zamítne tyto argumenty a obecný model AI se považuje za obecný model AI se systémovým rizikem.
4. Kommissionen kan udpege en AI-model til almen brug som frembydende systemiske risici på eget initiativ eller efter en kvalificeret varsling fra det videnskabelige panel i henhold til artikel 90, stk. 1, litra a) på grundlag af kriterierne i bilag XIII.
4. Komise může určit obecný model AI jako model představující systémová rizika z moci úřední nebo na základě kvalifikované výstrahy vědecké komise podle čl. 90 odst. 1 písm. a) na základě kritérií stanovených v příloze XIII.
Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at ændre bilag XIII ved at præcisere og ajourføre kriterierne i nævnte bilag.
Komisi je svěřena pravomoc přijímat akty v přenesené pravomoci v souladu s článkem 97 za účelem změny přílohy XIII prostřednictvím specifikace a aktualizace kritérií uvedených v uvedené příloze.
5. Efter en begrundet anmodning fra en udbyder, hvis model er blevet udpeget som en AI-model til almen brug med systemisk risiko i henhold til stk. 4, tager Kommissionen hensyn til anmodningen og kan beslutte på ny at vurdere, om AI-modellen til almen brug stadig kan anses for at frembyde systemiske risici på grundlag af kriterierne i bilag XIII. En sådan anmodning skal indeholde objektive, detaljerede og nye grunde, der er kommet frem siden udpegelsesafgørelsen. Udbydere kan tidligst seks måneder efter udpegelsesafgørelsen anmode om en fornyet vurdering. Hvis Kommissionen efter sin fornyede vurdering beslutter at opretholde udpegelsen som en AI-model til almen brug med systemisk risiko, kan udbyderne tidligst seks måneder efter denne afgørelse anmode om en fornyet vurdering.
5. Komise zohlední odůvodněnou žádost poskytovatele, jehož model byl určen jako obecný model AI se systémovým rizikem podle odstavce 4, a může rozhodnout o přehodnocení toho, zda lze na základě kritérií stanovených v příloze XIII mít nadále za to, že představuje systémová rizika. Tato žádost musí obsahovat objektivní, podrobné a nové důvody, které se objevily od rozhodnutí o určení. Poskytovatelé mohou požádat o nové posouzení nejdříve šest měsíců po rozhodnutí o určení. Pokud se Komise po novém posouzení rozhodne zachovat označení jako obecný model AI se systémovým rizikem, mohou poskytovatelé požádat o nové posouzení nejdříve šest měsíců po tomto rozhodnutí.
6. Kommissionen sikrer, at der offentliggøres en liste over AI-modeller til almen brug med systemisk risiko, og ajourfører løbende denne liste, uden at det berører behovet for at overholde og beskytte intellektuelle ejendomsrettigheder og fortrolige forretningsoplysninger eller forretningshemmeligheder i overensstemmelse med EU-retten og national ret.
6. Komise zajistí, aby byl zveřejněn seznam obecných modelů AI se systémovým rizikem, a tento seznam průběžně aktualizuje, aniž je dotčena potřeba dodržovat a chránit práva duševního vlastnictví a důvěrné obchodní informace nebo obchodní tajemství v souladu s právem Unie a vnitrostátním právem.
AFDELING 2
ODDÍL 2
Forpligtelser for udbydere af AI-modeller til almen brug
Povinnosti poskytovatelů obecných modelů AI
Artikel 53
Článek 53
Forpligtelser for udbydere af AI-modeller til almen brug
Povinnosti poskytovatelů obecných modelů AI
1. Udbydere af AI-modeller til almen brug skal:
1. Poskytovatelé obecných modelů AI:
a)
udarbejde og løbende ajourføre den tekniske dokumentation til modellen, herunder dens trænings- og afprøvningsproces og resultaterne af evalueringen af den, som mindst skal indeholde de oplysninger, der er fastsat i bilag XI, med henblik på efter anmodning at forelægge den for AI-kontoret og de nationale kompetente myndigheder
a)
vypracují a aktualizují technickou dokumentaci modelu, včetně souvisejícího procesu trénování a testování a výsledků jeho hodnocení, která obsahuje alespoň informace stanovené v příloze XI za účelem jejího poskytnutí na požádání úřadu pro AI a příslušným vnitrostátním orgánům;
b)
udarbejde og løbende ajourføre oplysninger og dokumentation og stille disse til rådighed for udbydere af AI-systemer, som har til hensigt at integrere AI-modellen til almen brug i deres AI-systemer. Uden at det berører behovet for at respektere og beskytte intellektuelle ejendomsrettigheder og fortrolige forretningsoplysninger eller forretningshemmeligheder i overensstemmelse med EU-retten og national ret, skal oplysningerne og dokumentationen:
b)
vypracují, aktualizují a zpřístupňují informace a dokumentaci poskytovatelům systémů AI, kteří hodlají obecný model AI začlenit do svých systémů AI. Aniž je dotčena potřeba dodržovat a chránit práva duševního vlastnictví a důvěrné obchodní informace nebo obchodní tajemství v souladu s právem Unie a vnitrostátním právem, informace a dokumentace:
i)
give udbydere af AI-systemer mulighed for at få en god forståelse af kapaciteterne og begrænsningerne i AI-modellen til almen brug og overholde deres forpligtelser i henhold til denne forordning, og
i)
umožní poskytovatelům systémů AI, aby dobře porozuměli schopnostem a omezením všeobecného modelu AI a plnili své povinnosti podle tohoto nařízení; a
ii)
som minimum indeholde de i bilag XII fastsatte elementer
ii)
zahrnují přinejmenším prvky uvedené v příloze XII;
c)
indføre en politik, der overholder EU-retten om ophavsret og beslægtede rettigheder, navnlig med henblik på at identificere og overholde, herunder ved hjælp af de nyeste teknologier, et forbehold vedrørende rettigheder, der udtrykkes i henhold til artikel 4, stk. 3, i direktiv (EU) 2019/790
c)
zavedou politiku pro dodržování práva Unie v oblasti autorského práva a práv souvisejících, a zejména pro určení a dodržování výhrady práv vyjádřené podle čl. 4 odst. 3 směrnice (EU) 2019/790, a to i prostřednictvím nejmodernějších technologií;
d)
udarbejde og offentliggøre en tilstrækkeligt detaljeret sammenfatning om det indhold, der anvendes til træning af AI-modellen til almen brug, i overensstemmelse med en skabelon, der leveres af AI-kontoret.
d)
vypracují a zveřejní dostatečně podrobné shrnutí obsahu používaného pro odbornou přípravu obecného modelu AI podle vzoru poskytnutého úřadem pro AI.
2. Forpligtelserne i stk. 1, litra a) og b), finder ikke anvendelse på udbydere af AI-modeller, der frigives i henhold til en gratis open source-licens, der giver mulighed for adgang til, anvendelse, ændring og distribution af modellen, og hvis parametre, herunder vægtene, oplysningerne om modelarkitekturen og oplysningerne om modelanvendelsen, gøres offentligt tilgængelige. Denne undtagelse finder ikke anvendelse på AI-modeller til almen brug med systemiske risici.
2. Povinnosti stanovené v odst. 1 písm. a) a b) se nevztahují na poskytovatele modelů AI, jež jsou zpřístupňovány na základě svobodné a otevřené licence, která umožňuje přístup k modelu, jeho používání, úpravu a distribuci, a jejichž parametry, včetně vah, informací o architektuře modelu a informací o používání modelu, jsou veřejně dostupné. Tato výjimka se nevztahuje na obecné modely AI se systémovými riziky.
3. Udbydere af AI-modeller til almen brug samarbejder om nødvendigt med Kommissionen og de nationale kompetente myndigheder i forbindelse med udøvelsen af deres kompetencer og beføjelser i henhold til denne forordning.
3. Poskytovatelé obecných modelů AI podle potřeby spolupracují při výkonu svých kompetencí a pravomocí podle tohoto nařízení s Komisí a příslušnými vnitrostátními orgány.
4. Udbydere af AI-modeller til almen brug kan basere sig på praksiskodekser som omhandlet i artikel 56 for at påvise overholdelse af forpligtelserne i nærværende artikels stk. 1, indtil der er offentliggjort en harmoniseret standard. Overholdelse af europæiske harmoniserede standarder giver udbydere formodning om overensstemmelse, i det omfang disse standarder dækker disse forpligtelser. Udbydere af AI-modeller til almen brug, som ikke overholder en godkendt praksiskodeks, eller som ikke overholder en europæisk harmoniseret standard, skal påvise alternative passende måder for overensstemmelse med henblik på Kommissionens vurdering.
4. Poskytovatelé obecných modelů AI mohou při prokazování souladu s povinnostmi stanovenými v odstavci 1 tohoto článku vycházet z kodexů správné praxe ve smyslu článku 56, dokud nebude zveřejněna harmonizovaná norma. Soulad s evropskými harmonizovanými normami zakládá domněnku souladu ze strany poskytovatelů v rozsahu, v jakém tyto normy zahrnují tyto povinnostmi. Poskytovatelé obecných modelů AI, kteří nedodržují schválený kodex správné praxe nebo nesplňuji evropskou harmonizovanou normu, prokáží za účelem posouzení Komisí alternativní vhodné způsoby prokazování shody.
5. For at lette overholdelsen af bilag XI, navnlig punkt 2, litra d) og e), i nævnte bilag, tillægges Kommissionen beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97 for at præcisere måle- og beregningsmetoder med henblik på at muliggøre sammenlignelig og verificerbar dokumentation.
5. Za účelem usnadnění souladu s přílohou XI, zejména s bodem 2 písm. d) a e) uvedené přílohy, je Komisi svěřena pravomoc přijímat akty v přenesené pravomoci v souladu s článkem 97, v nichž podrobně popíše metodiky měření a výpočtu s cílem umožnit srovnatelnost a ověřitelnost dokumentace.
6. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 97, stk. 2, for at ændre bilag XI og XII i lyset af den teknologiske udvikling.
6. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s čl. 97 odst. 2 s cílem aktualizovat s ohledem na technický pokrok přílohy XI a XII.
7. Alle de oplysninger eller al den dokumentation, der indhentes i henhold til denne artikel, herunder forretningshemmeligheder, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
7. S veškerými informacemi nebo dokumentací získanými orgány dozoru nad trhem podle tohoto článku, včetně obchodních tajemství, se nakládá v souladu s povinnostmi zachování důvěrnosti stanovenými v článku 78.
Artikel 54
Článek 54
Bemyndigede repræsentanter for udbydere af AI-modeller til almen brug
Zplnomocnění zástupci poskytovatelů obecných modelů AI
1. Før en AI-model til almen brug bringes i omsætning på EU-markedet, udnævner udbydere, der er etableret i tredjelande, ved skriftligt mandat en bemyndiget repræsentant, der er etableret i Unionen.
1. Před uvedením obecného modelu AI na trh poskytovatelé usazení ve třetích zemích jmenují formou písemného pověření zplnomocněného zástupce usazeného v Unii.
2. Udbyderen skal gøre det muligt for sin bemyndigede repræsentant at udføre de opgaver, der er fastsat i det mandat, vedkommende har modtaget fra udbyderen.
2. Poskytovatel umožní svému zplnomocněnému zástupci provádět úkoly vymezené v pověření, které obdržel od poskytovatele.
3. Den bemyndigede repræsentant udfører de opgaver, der er fastsat i det mandat, vedkommende har modtaget fra udbyderen. Vedkommende skal på anmodning give AI-kontoret en kopi af mandatet på et af EU-institutionernes officielle sprog. Med henblik på denne forordning sætter mandatet den bemyndigede repræsentant i stand til at udføre følgende opgaver:
3. Zplnomocněný zástupce provádí úkoly vymezené v pověření, které obdržel od poskytovatele. Kopii pověření poskytne na požádání úřadu pro AI v jednom z úředních jazyků orgánů Unie. Pro účely tohoto nařízení zmocňuje pověření zplnomocněného zástupce k provádění těchto úkolů:
a)
kontrollere, at den tekniske dokumentation, der er omhandlet i bilag XI, er udarbejdet, og at alle de forpligtelser, der er omhandlet i artikel 53 og, hvis det er relevant, artikel 55, er blevet opfyldt af udbyderen
a)
ověřit, že byla vypracována technická dokumentace uvedená v příloze XI a že poskytovatel splnil všechny povinnosti uvedené v článku 53 a případně v článku 55;
b)
opbevare en kopi af den tekniske dokumentation, der er omhandlet i bilag XI, så den står til rådighed for AI-kontoret og de nationale kompetente myndigheder, i en periode på ti år, efter at AI-modellen til almen brug er bragt i omsætning, og kontaktoplysningerne på den udbyder, der har udnævnt den bemyndigede repræsentant
b)
uchovávat kopii technické dokumentace uvedené v příloze XI pro potřeby úřadu pro AI a příslušných vnitrostátních orgánů po dobu deseti let od uvedení obecného modelu AI na trh a kontaktní údaje poskytovatele, který zplnomocněného zástupce jmenoval;
c)
efter en begrundet anmodning give AI-kontoret alle de oplysninger og al den dokumentation, herunder den, der er omhandlet i litra b), som kræves for at påvise overholdelse af forpligtelserne i dette kapitel
c)
poskytnout úřadu pro AI na odůvodněnou žádost všechny informace a dokumentaci, které jsou nezbytné k prokázání souladu s povinnostmi uvedenými v této kapitole, včetně informací a dokumentace uvedených v písmenu b);
d)
efter en begrundet anmodning samarbejde med AI-kontoret og de kompetente myndigheder om ethvert tiltag, som de foretager i forbindelse med AI-modellen til almen brug, herunder når modellen er integreret i AI-systemer, der bringes i omsætning eller ibrugtages i Unionen.
d)
spolupracovat na základě odůvodněné žádosti s úřadem pro AI a příslušnými orgány při veškerých opatřeních, která tyto orgány přijmou v souvislosti s obecným modelem AI, včetně případů, kdy je daný model začleněn do systémů AI uváděných na trh nebo do provozu v Unii.
4. Mandatet giver den bemyndigede repræsentant, ud over eller i stedet for udbyderen, beføjelse til at modtage henvendelser fra AI-kontoret eller de kompetente myndigheder om alle spørgsmål relateret til at sikre overholdelse af denne forordning.
4. Toto pověření zmocňuje zplnomocněného zástupce k tomu, aby se na něj vedle poskytovatele nebo namísto něj obracel úřad pro AI nebo příslušné orgány ve všech otázkách týkajících se zajištění souladu s tímto nařízením.
5. Den bemyndigede repræsentant bringer mandatet til ophør, hvis vedkommende mener eller har grund til at mene, at udbyderen handler i strid med sine forpligtelser i henhold til denne forordning. I så fald underretter vedkommende også omgående AI-kontoret om ophøret af mandatet og årsagerne hertil.
5. Zplnomocněný zástupce pověření ukončí, pokud se domnívá nebo má důvod se domnívat, že poskytovatel jedná v rozporu se svými povinnostmi podle tohoto nařízení. V takovém případě rovněž neprodleně informuje úřad pro AI o ukončení pověření a jeho důvodech.
6. Forpligtelsen i denne artikel finder ikke anvendelse på udbydere af AI-modeller til almen brug, der frigives i henhold til en gratis open source-licens, der giver mulighed for adgang til, anvendelse, ændring og distribution af modellen, og hvis parametre, herunder vægtene, oplysningerne om modelarkitekturen og oplysningerne om modelanvendelsen, gøres offentligt tilgængelige, medmindre AI-modellen til almen brug frembyder systemiske risici.
6. Povinnost stanovená v tomto článku se nevztahuje na poskytovatele obecných modelů AI, jež jsou zpřístupňovány na základě svobodné a otevřené licence, která umožňuje přístup k modelu, jeho používání, úpravu a distribuci, a jejichž parametry, včetně vah, informací o architektuře modelu a informací o používání modelu, jsou veřejně dostupné, pokud však obecné modely AI nepředstavují systémová rizika.
AFDELING 3
ODDÍL 3
Forpligtelser for udbydere af AI-modeller til almen brug med systemisk risiko
Povinnosti poskytovatelů obecných modelů AI se systémovým rizikem
Artikel 55
Článek 55
Forpligtelser for udbydere af AI-modeller til almen brug med systemisk risiko
Povinnosti poskytovatelů obecných modelů AI se systémovým rizikem
1. Ud over de forpligtelser, der er opført i artikel 53 og 54, skal udbydere af AI-modeller til almen brug med systemisk risiko:
1. Kromě povinností uvedených v článcích 53 a 54 poskytovatelé obecných modelů AI se systémovým rizikem:
a)
foretage modelevaluering i overensstemmelse med standardiserede protokoller og værktøjer, der afspejler det aktuelle tekniske niveau, herunder gennemførelse og dokumentation af kontradiktorisk afprøvning af modellen med henblik på at identificere og afbøde systemiske risici
a)
provádějí hodnocení modelu v souladu se standardizovanými protokoly a nástroji odrážejícími nejmodernější stav technologií, včetně provádění a dokumentace kontradiktorního testování modelu s cílem určit a zmírnit systémové riziko;
b)
vurdere og afbøde mulige systemiske risici på EU-plan, herunder deres kilder, der kan skyldes udvikling, omsætning eller anvendelse af AI-modeller til almen brug med systemisk risiko
b)
posuzují a zmírňují možná systémová rizika na úrovni Unie, včetně jejich zdrojů, která mohou vyplývat z vývoje, uvádění na trh nebo používání obecných modelů AI se systémovým rizikem;
c)
uden unødigt ophold følge, dokumentere og indberette relevante oplysninger om alvorlige hændelser og mulige korrigerende foranstaltninger til håndtering heraf til AI-kontoret og, alt efter hvad der er relevant, til de nationale kompetente myndigheder
c)
sledují, dokumentují a bez zbytečného odkladu hlásí úřadu pro AI a případně příslušným vnitrostátním orgánům relevantní informace o závažných incidentech a možná nápravná opatření k jejich řešení;
d)
sikre et tilstrækkeligt niveau af cybersikkerhedsbeskyttelse for AI-modellen til almen brug med systemisk risiko og modellens fysiske infrastruktur.
d)
zajišťují odpovídající úroveň ochrany kybernetické bezpečnosti pro obecný model AI se systémovým rizikem a fyzickou infrastrukturu modelu.
2. Udbydere af AI-modeller til almen brug med systemisk risiko kan basere sig på praksiskodekser som omhandlet i artikel 56 for at påvise overholdelse af forpligtelserne i nærværende artikels stk. 1, indtil der er offentliggjort en harmoniseret standard. Overholdelse af europæiske harmoniserede standarder giver udbydere formodning om overensstemmelse, i det omfang disse standarder dækker disse forpligtelser. Udbydere af AI-modeller til almen brug med systemiske risici, som ikke overholder en godkendt praksiskodeks, eller som ikke overholder en europæisk harmoniseret standard, skal påvise alternative passende måder for overensstemmelse med henblik på Kommissionens vurdering.
2. Poskytovatelé obecných modelů AI se systémovým rizikem mohou při prokazování souladu s povinnostmi stanovenými v odstavci 1 tohoto článku vycházet z kodexů správné praxe ve smyslu článku 56, dokud nebude zveřejněna harmonizovaná norma. Soulad s evropskými harmonizovanými normami zakládá domněnku souladu ze strany poskytovatelů v rozsahu, v jakém tyto normy zahrnují dané povinnosti. Poskytovatelé obecných modelů AI, kteří nedodržují schválený kodex správné praxe nebo nesplňuji evropskou harmonizovanou normu, prokáží za účelem posouzení Komisí alternativní vhodné způsoby prokazování shody.
3. Alle de oplysninger eller al den dokumentation, der indhentes i henhold til denne artikel, herunder forretningshemmeligheder, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
3. S veškerými informacemi nebo dokumentací získanými orgány dozoru nad trhem podle tohoto článku, včetně obchodních tajemství, se nakládá v souladu s povinnostmi zachování důvěrnosti stanovenými v článku 78.
AFDELING 4
ODDÍL 4
Praksiskodekser
Kodexy správné praxe
Artikel 56
Článek 56
Praksiskodekser
Kodexy správné praxe
1. AI-kontoret tilskynder til og letter udarbejdelsen af praksiskodekser på EU-plan for at bidrage til en korrekt anvendelse af denne forordning under hensyntagen til internationale tilgange.
1. Úřad pro AI s přihlédnutím k mezinárodním přístupům podporuje a usnadňuje vypracování kodexů správné praxe na úrovni Unie s cílem přispět k řádnému uplatňování tohoto nařízení.
2. AI-kontoret og AI-udvalget tilstræber at sikre, at praksiskodekserne som minimum omfatter de forpligtelser, der er fastsat i artikel 53 og 55, herunder følgende spørgsmål:
2. Úřad pro AI a rada usilují o zajištění toho, aby kodexy správné praxe zahrnovaly alespoň povinnosti stanovené v článcích 53 a 55, včetně těchto záležitostí:
a)
midlerne til at sikre, at de oplysninger, der er omhandlet i artikel 53, stk. 1, litra a) og b), holdes ajour i lyset af den markedsmæssige og teknologiske udvikling
a)
prostředky k zajištění toho, aby informace uvedené v čl. 53 odst. 1 písm. a) a b) byly aktualizovány s ohledem na vývoj trhu a technologií;
b)
resuméet af det indhold, der anvendes til uddannelse, er tilstrækkeligt detaljeret
b)
adekvátní úroveň podrobnosti pro shrnutí obsahu použitého pro trénování;
c)
identifikationen af typen og arten af de systemiske risici på EU-plan, herunder deres kilder, hvis det er relevant
c)
určení druhu a povahy systémových rizik na úrovni Unie, včetně jejich případných zdrojů;
d)
foranstaltningerne, procedurerne og de nærmere bestemmelser for vurdering og styring af de systemiske risici på EU-plan, herunder dokumentation herfor, som skal stå i et rimeligt forhold til risiciene, tage hensyn til, hvor alvorlige og sandsynlige de er, og tage hensyn til de specifikke udfordringer i forbindelse med styringen af disse risici i lyset af de mulige måder, hvorpå sådanne risici kan opstå og vise sig i AI-værdikæden.
d)
opatření, postupy a způsoby posuzování a řízení systémových rizik na úrovni Unie, včetně jejich dokumentace, které jsou úměrné rizikům, zohledňují jejich závažnost a pravděpodobnost a berou zřetel na konkrétní výzvy spojené s řešením těchto rizik s přihlédnutím k možným způsobům, jak tato rizika mohou vzniknout a projevit se v celém hodnotovém řetězci AI.
3. AI-kontoret kan opfordre alle udbydere af AI-modeller til almen brug samt relevante nationale kompetente myndigheder til at deltage i udarbejdelsen af praksiskodekser. Civilsamfundsorganisationer, industrien, den akademiske verden og andre relevante interessenter såsom downstreamudbydere og uafhængige eksperter kan støtte processen.
3. Úřad pro AI může vyzvat všechny poskytovatele obecných modelů AI, jakož i příslušné vnitrostátní orgány, aby se na vypracovávání kodexů správné praxe podíleli. Tento proces mohou podpořit organizace občanské společnosti, průmysl, akademická obec a další příslušné zúčastněné strany, jako jsou navazující poskytovatelé a nezávislí odborníci.
4. AI-kontoret og AI-udvalget tilstræber at sikre, at praksiskodekserne klart fastsætter deres specifikke mål og indeholder forpligtelser eller foranstaltninger, herunder i relevant omfang centrale resultatindikatorer, for at sikre realiseringen af disse mål, og at de tager behørigt hensyn til alle interesserede parters, herunder berørte personers, behov og interesser på EU-plan.
4. Úřad pro AI a rada usilují o zajištění toho, aby v kodexech správné praxe byly jasně stanoveny jejich specifické cíle, aby tyto kodexy obsahovaly závazky nebo opatření včetně případných klíčových ukazatelů výkonnosti, jimiž bude dosažení těchto cílů zajištěno, a aby náležitě zohledňovaly potřeby a zájmy všech zúčastněných stran, včetně dotčených osob, na úrovni Unie.
5. AI-kontoret tilstræber at sikre, at deltagerne i praksiskodekserne regelmæssigt aflægger rapport til AI-kontoret om gennemførelsen af forpligtelserne og de trufne foranstaltninger og deres resultater, herunder i relevant omfang målt i forhold til de centrale resultatindikatorer. De centrale resultatindikatorer og rapporteringsforpligtelserne skal afspejle forskelle i størrelse og kapacitet mellem de forskellige deltagere.
5. Úřad pro AI usiluje o zajištění toho, aby účastníci kodexů správné praxe pravidelně podávali úřadu pro AI zprávy o provádění závazků a přijatých opatřeních a jejich výsledcích, a to případně i na základě klíčových ukazatelů výkonnosti. Klíčové ukazatele výkonnosti a závazky v oblasti podávání zpráv zohledňují rozdíly mezi různými účastníky, pokud jde o jejich velikost a kapacitu.
6. AI-kontoret og AI-udvalget overvåger og evaluerer regelmæssigt deltagernes realisering af praksiskodeksernes mål og deres bidrag til en korrekt anvendelse af denne forordning. AI-kontoret og AI-udvalget vurderer, om praksiskodekserne dækker de forpligtelser, der er fastsat i artikel 53 og 55, og overvåger og evaluerer regelmæssigt realiseringen af deres mål. De offentliggør deres vurdering af, om praksiskodekserne er fyldestgørende.
6. Úřad pro AI a rada pravidelně sledují a vyhodnocují dosahování cílů kodexů správné praxe ze strany účastníků a jejich přínos k řádnému uplatňování tohoto nařízení. Úřad pro AI a rada posoudí, zda kodexy správné praxe zahrnují povinnosti stanovené v článcích 53 a 55, a pravidelně sledují a vyhodnocují dosahování jejich cílů. Své posouzení přiměřenosti kodexů správné praxe zveřejní.
Kommissionen kan ved en gennemførelsesretsakt godkende en praksiskodeks og give den generel gyldighed i Unionen. Denne gennemførelsesretsakt vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
Komise může prostřednictvím prováděcího aktu určitý kodex správné praxe schválit a udělit mu obecnou platnost v rámci Unie. Tento prováděcí akt se přijme přezkumným postupem uvedeným v čl. 98 odst. 2.
7. AI-kontoret kan opfordre samtlige udbydere af AI-modeller til almen brug til at overholde praksiskodekser. For udbydere af AI-modeller til almen brug, der ikke frembyder systemiske risici, kan denne overholdelse begrænses til de forpligtelser, der er fastsat i artikel 53, medmindre de udtrykkeligt tilkendegiver deres interesse i at tilslutte sig den fulde kodeks.
7. Úřad pro AI může vyzvat všechny poskytovatele obecných modelů AI, aby se kodexy správné praxe dodržovali. V případě poskytovatelů obecných modelů AI, které nepředstavují systémová rizika, může být toto dodržování omezeno na povinnosti stanovené v článku 53, pokud tito poskytovatelé výslovně neprohlásí, že mají zájem kodex dodržovat v plném rozsahu.
8. AI-kontoret skal, alt efter hvad der er relevant, også tilskynde til og lette gennemgangen og tilpasningen af praksiskodekserne, navnlig i lyset af nye standarder. AI-kontoret bistår ved vurderingen af tilgængelige standarder.
8. Úřad pro AI rovněž podle potřeby podporuje a usnadňuje přezkum a úpravu kodexů správné praxe, zejména s ohledem na vznikající normy. Úřad pro AI je nápomocen při posuzování dostupných norem.
9. Praksiskodekser skal være klar senest den 2. maj 2025. AI-kontoret tager de nødvendige skridt, herunder indbyder udbydere i henhold til stk. 7.
9. Kodex správné praxe je k dispozici nejpozději do 2. května 2025. Úřad pro AI podnikne nezbytné kroky včetně výzvy adresované poskytovatelům podle odstavce 7.
Hvis en praksiskodeks ikke kan færdiggøres senest den 2. august 2025, eller hvis AI-kontoret efter sin vurdering i henhold til denne artikels stk. 6 finder, at den ikke er fyldestgørende, kan Kommissionen ved hjælp af gennemførelsesretsakter fastsætte fælles regler for gennemførelsen af de forpligtelser, der er fastsat i artikel 53 og 55, herunder spørgsmålene i nærværende artikels stk. 2. Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
Nebude-li do 2. srpna 2025 možno kodex správné praxe dokončit nebo pokud se úřad pro AI po posouzení podle odstavce 6 tohoto článku bude domnívat, že kodex není přiměřený, může Komise prostřednictvím prováděcích aktů stanovit společná pravidla pro plnění povinností stanovených v článcích 53 a 55, včetně záležitostí uvedených v odstavci 2 tohoto článku. Tyto prováděcí akty se přijímají přezkumným postupem podle čl. 98 odst. 2.
KAPITEL VI
KAPITOLA VI
FORANSTALTNINGER TIL STØTTE FOR INNOVATION
OPATŘENÍ NA PODPORU INOVACÍ
Artikel 57
Článek 57
Reguleringsmæssige AI-sandkasser
Regulační sandboxy pro AI
1. Medlemsstaterne sikrer, at deres kompetente myndigheder opretter mindst én reguleringsmæssig AI-sandkasse på nationalt plan, som skal være operationel senest den 2. august 2026. Denne sandkasse kan også oprettes i fællesskab med andre medlemsstaters kompetente myndigheder. Kommissionen kan yde teknisk støtte, rådgivning og værktøjer til oprettelse og drift af reguleringsmæssige AI-sandkasser.
1. Členské státy zajistí, aby jejich příslušné orgány zřídily alespoň jeden regulační sandbox pro AI na vnitrostátní úrovni, který bude funkční do 2. srpna 2026. Tento sandbox mohou rovněž zřídit společně s příslušnými orgány jiných členských států. Komise může pro účely zřízení a provozu regulačních sandboxů pro AI poskytovat technickou podporu, poradenství a nástroje.
Forpligtelsen i henhold til første afsnit kan også opfyldes ved deltagelse i en eksisterende sandkasse, for så vidt som denne deltagelse giver de deltagende medlemsstater et tilsvarende nationalt dækningsniveau.
Povinnost podle prvního pododstavce může být rovněž splněna účastí ve stávajícím sandboxu, pokud tato účast poskytuje zúčastněným členským státům rovnocennou úroveň vnitrostátního pokrytí.
2. Der kan også oprettes yderligere reguleringsmæssige AI-sandkasser på regionalt eller lokalt plan eller i fællesskab med andre medlemsstaters kompetente myndigheder.
2. Další regulační sandboxy pro AI mohou být rovněž zřízeny na regionální nebo místní úrovni nebo společně s příslušnými orgány jiných členských států.
3. Den Europæiske Tilsynsførende for Databeskyttelse kan også oprette en reguleringsmæssig AI-sandkasse for EU-institutioner, -organer, -kontorer og -agenturer og varetage de nationale kompetente myndigheders roller og opgaver i overensstemmelse med dette kapitel.
3. Evropský inspektor ochrany údajů může rovněž zřídit regulační sandbox pro AI pro orgány, instituce nebo jiné subjekty Unie a může vykonávat úlohy a úkoly příslušných vnitrostátních orgánů v souladu s touto kapitolou.
4. Medlemsstaterne sikrer, at de kompetente myndigheder, der er omhandlet i stk. 1 og 2, tildeler tilstrækkelige ressourcer til, at denne artikel overholdes effektivt og rettidigt. Hvis det er relevant, samarbejder de nationale kompetente myndigheder med andre relevante myndigheder og kan gøre det muligt at inddrage andre aktører i AI-økosystemet. Denne artikel berører ikke andre reguleringsmæssige sandkasser, der er oprettet i henhold til EU-retten eller national ret. Medlemsstaterne sikrer et passende samarbejde mellem de myndigheder, der fører tilsyn med disse andre sandkasser, og de nationale kompetente myndigheder.
4. Členské státy zajistí, aby příslušné orgány uvedené v odstavcích 1 a 2 přidělily dostatečné zdroje pro účinné a urychlené dosažení souladu s tímto článkem. Příslušné vnitrostátní orgány případně spolupracují s dalšími relevantními orgány a mohou umožnit zapojení dalších subjektů v rámci ekosystému AI. Tímto článkem nejsou dotčeny jiné regulační sandboxy zřízené podle práva Unie nebo vnitrostátního práva. Členské státy zajistí náležitou úroveň spolupráce mezi orgány vykonávajícími dohled nad těmito jinými sandboxy a příslušnými vnitrostátními orgány.
5. Reguleringsmæssig AI-sandkasser, der oprettes i henhold til stk. 1, skal tilvejebringe et kontrolleret miljø, der fremmer innovation og letter udvikling, træning, afprøvning og validering af innovative AI-systemer i et begrænset tidsrum, inden de bringes i omsætning eller tages i brug i henhold til en specifik sandkasseplan, som aftales mellem udbyderne eller de potentielle udbydere og den kompetente myndighed. Sådanne sandkasser kan omfatte afprøvning under faktiske forhold under tilsyn i sandkasserne.
5. Regulační sandboxy pro AI zřízené podle odstavce 1 poskytují kontrolované prostředí, které podporuje inovace a usnadňuje vývoj, trénování, testování a validaci inovativních systémů AI po omezenou dobu před jejich uvedením na trh nebo do provozu podle konkrétního plánu testování v sandboxu, na kterém se dohodli poskytovatelé nebo potenciální poskytovatelé a příslušný orgán. Tyto sandboxy mohou zahrnovat testování v reálných podmínkách pod dohledem v nich..
6. De kompetente myndigheder yder, alt efter hvad der er relevant, vejledning, tilsyn og støtte inden for den reguleringsmæssige AI-sandkasse med henblik på at identificere risici, navnlig for grundlæggende rettigheder, sundhed og sikkerhed, afprøvning, afbødende foranstaltninger og deres effektivitet i forbindelse med forpligtelserne og kravene i denne forordning og, hvis det er relevant, anden EU-ret og national ret, der føres tilsyn med inden for sandkassen.
6. Příslušné orgány případně poskytnou v rámci regulačního sandboxu pro AI pokyny, dohled a podporu s cílem určit rizika, zejména pro základní práva, zdraví a bezpečnost, testování, zmírňující opatření a jejich účinnost ve vztahu k povinnostem a požadavkům, jež jsou vymezeny tímto nařízením a případně jiným unijním a vnitrostátním právem a nad nimiž je v rámci daného sandboxu vykonáván dohled.
7. De kompetente myndigheder giver udbydere og potentielle udbydere, der deltager i den reguleringsmæssige AI-sandkasse, vejledning om reguleringsmæssige forventninger og om, hvordan de opfylder de krav og forpligtelser, der er fastsat i denne forordning.
7. Příslušné orgány poskytnou poskytovatelům a potenciálním poskytovatelům účastnícím se na regulačním sandboxu pro AI pokyny týkající se regulačních očekávání a toho, jak plnit požadavky a povinnosti stanovené v tomto nařízení.
Efter anmodning fra udbyderen eller den potentielle udbyder af AI-systemet forelægger den kompetente myndighed en skriftlig dokumentation for de aktiviteter, der er udført med succes i sandkassen. Den kompetente myndighed forelægger også en slutrapport med en detaljeret beskrivelse af de aktiviteter, der er gennemført i sandkassen, og de dermed forbundne resultater og læringsresultater. Udbydere kan anvende sådan dokumentation til at påvise, at de overholder denne forordning gennem overensstemmelsesvurderingsprocessen eller relevante markedsovervågningsaktiviteter. I denne forbindelse tager markedsovervågningsmyndighederne og de bemyndigede organer positivt hensyn til slutrapporterne og den skriftlige dokumentation fra den nationale kompetente myndighed med henblik på at fremskynde overensstemmelsesvurderingsprocedurerne i rimeligt omfang.
Na žádost poskytovatele nebo potenciálního poskytovatele systému AI poskytne příslušný orgán písemný doklad o činnostech, které byly v rámci sandboxu úspěšně provedeny. Příslušný orgán rovněž předloží výstupní zprávu s podrobným popisem činností prováděných v rámci sandboxu, souvisejících výsledků a výsledků učení. Poskytovatelé mohou tuto dokumentaci použít k prokázání souladu s tímto nařízením v rámci postupu posuzování shody nebo příslušných činností dozoru nad trhem. V tomto ohledu orgány dozoru nad trhem a oznámené subjekty výstupní zprávy a písemný doklad poskytnutý příslušným vnitrostátním orgánem kladně zohlední, aby bylo možno postupy posuzování shody v přiměřeném rozsahu urychlit.
8. Med forbehold af fortrolighedsbestemmelserne i artikel 78 og med samtykke fra udbyderen eller den potentielle udbyder har Kommissionen og AI-udvalget tilladelse til at få adgang til slutrapporterne og tager, alt efter hvad der er relevant, hensyn til disse, når de udfører deres opgaver i henhold til denne forordning. Hvis både udbyderen eller den potentielle udbyder og den nationale kompetente myndighed når til udtrykkelig enighed, kan slutrapporten gøres offentligt tilgængelig via den centrale informationsplatform, der er omhandlet i nærværende artikel.
8. S výhradou ustanovení o důvěrnosti v článku 78 a se souhlasem poskytovatele nebo potenciálního poskytovatele jsou Komise a rada oprávněny do výstupních zpráv nahlížet a podle potřeby je zohlední při plnění svých úkolů podle tohoto nařízení. Pokud poskytovatel nebo potenciální poskytovatel a příslušný vnitrostátní orgán výslovně souhlasí, může být výstupní zpráva zpřístupněna veřejnosti prostřednictvím jednotné informační platformy uvedené v tomto článku.
9. Oprettelsen af reguleringsmæssige AI-sandkasser har til formål at bidrage til følgende mål:
9. Cílem vytvoření regulačních sandboxů pro AI je přispět k těmto cílům:
a)
at forbedre retssikkerheden med henblik på at opnå overholdelse af bestemmelserne i denne forordning eller, hvis det er relevant, anden gældende EU-ret og national ret
a)
větší právní jistota v zájmu dosažení souladu s tímto nařízením nebo relevantních případech s jiným platným unijním a vnitrostátním právem;
b)
at støtte udvekslingen af bedste praksis gennem samarbejde med de myndigheder, der er involveret i den reguleringsmæssige AI-sandkasse
b)
podpora sdílení osvědčených postupů prostřednictvím spolupráce s orgány zapojenými do regulačního sandboxu pro AI;
c)
at fremme innovation og konkurrenceevne og lette udviklingen af et AI-økosystem
c)
podpora inovací a konkurenceschopnosti a usnadňování vývoje ekosystému AI;
d)
at bidrage til evidensbaseret lovgivningsmæssig læring
d)
přispění k fakticky podloženému regulačnímu učení;
e)
at lette og fremskynde adgangen til EU-markedet for AI-systemer, navnlig når de leveres af SMV'er, herunder iværksættervirksomheder.
e)
snazší a rychlejší přístup systémů AI na trh Unie, zejména pokud jsou poskytovány malými a středními podniky, včetně podniků začínajících.
10. I det omfang de innovative AI-systemer omfatter behandling af personoplysninger eller på anden måde henhører under tilsynsområdet for andre nationale myndigheder eller kompetente myndigheder, der giver eller understøtter adgang til data, sikrer de nationale kompetente myndigheder, at de nationale databeskyttelsesmyndigheder og disse andre nationale eller kompetente myndigheder er tilknyttet driften af den reguleringsmæssige AI-sandkasse og involveret i tilsynet med disse aspekter i henhold til deres respektive opgaver og beføjelser.
10. Příslušné vnitrostátní orgány zajistí, aby v rozsahu, v němž dané inovativní systémy AI zahrnují zpracování osobních údajů nebo jinak spadají do oblasti dohledu jiných vnitrostátních orgánů nebo příslušných orgánů poskytujících nebo podporujících přístup k údajům, byly vnitrostátní orgány pro ochranu osobních údajů a tyto jiné vnitrostátní nebo příslušné orgány přidruženy k provozu daného regulačního sandboxu pro AI a aby byly zapojeny do dohledu nad těmito aspekty v rozsahu svých příslušných úkolů a pravomocí.
11. De reguleringsmæssige AI-sandkasser berører ikke de tilsynsbeføjelser eller korrigerende beføjelser, som de kompetente myndigheder, der fører tilsyn med sandkasserne, har, herunder på regionalt eller lokalt plan. Enhver væsentlig risiko for sundhed og sikkerhed og grundlæggende rettigheder, der konstateres under udviklingen og afprøvningen af sådanne AI-systemer, fører til passende afbødning. De nationale kompetente myndigheder har beføjelse til midlertidigt eller permanent at suspendere afprøvningsprocessen eller deltagelse i sandkassen, hvis der ikke er mulighed for effektiv afbødning, og meddeler AI-kontoret denne afgørelse. De nationale kompetente myndigheder udøver deres tilsynsbeføjelser inden for rammerne af den relevante ret, idet de anvender deres skønsbeføjelser, når de gennemfører retlige bestemmelser for et specifikt projekt vedrørende reguleringsmæssige AI-sandkasser, med det formål at støtte innovation inden for AI i Unionen.
11. Regulační sandboxy pro AI nemají vliv na pravomoci příslušných orgánů dohlížejících na sandboxy v oblasti dohledu a nápravy, a to ani na regionální či místní úrovni. Veškerá významná rizika pro zdraví, bezpečnost a základní práva zjištěná během vývoje a testování těchto systémů AI jsou následně přiměřeně zmírněna. Není-li účinné zmírnění možné, příslušné vnitrostátní orgány mají pravomoc zkušební proces nebo účast v sandboxu dočasně či trvale pozastavit a o tomto rozhodnutí informují úřad pro AI. Příslušné vnitrostátní orgány plní své pravomoci dohledu v mezích příslušného práva, přičemž při uplatňování právních ustanovení ohledně konkrétního projektu regulačního sandboxu pro AI využijí své diskreční pravomoci s cílem podpořit v Unii inovace v oblasti AI.
12. Udbydere og potentielle udbydere, der deltager i den reguleringsmæssige AI-sandkasse, forbliver ansvarlige i henhold til gældende EU-ansvarsret og gældende national ansvarsret for enhver skade, der påføres tredjeparter som følge af de forsøg, der finder sted i sandkassen. Såfremt de potentielle udbydere overholder den specifikke plan og vilkårene og betingelserne for deres deltagelse og i god tro følger den nationale kompetente myndigheds vejledning, pålægger myndighederne dog ingen administrative bøder for overtrædelse af denne forordning. I tilfælde af at andre kompetente myndigheder med ansvar for anden EU-ret og national ret har været aktivt involveret i tilsynet med AI-systemet i sandkassen og givet vejledning om overholdelse, pålægges der ingen administrative bøder i forbindelse med den pågældende ret.
12. Poskytovatelé a potenciální poskytovatelé účastnící se regulačního sandboxu pro AI nesou podle platného práva Unie a vnitrostátního práva v oblasti upravujícího odpovědnost i nadále odpovědnost za jakoukoli škodu způsobenou třetím stranám v důsledku experimentů, jež jsou v daném sandboxu prováděny. Nicméně v případě, že potenciální poskytovatelé dodržují konkrétní plán a podmínky účasti a řídí se v dobré víře pokyny vydanými příslušnými vnitrostátními orgány, orgány v případě porušení tohoto nařízení neuloží žádné správní pokuty. Pokud byly do dohledu nad systémem AI v sandboxu aktivně zapojeny další příslušné orgány, odpovědné za jiné unijní a vnitrostátní právo, a poskytly pro dodržování tohoto práva pokyny, neukládají se v souvislosti s předmětnými předpisy žádné správní pokuty.
13. De reguleringsmæssige AI-sandkasser udformes og gennemføres på en sådan måde, at de letter det grænseoverskridende samarbejde mellem de nationale kompetente myndigheder, hvis det er relevant.
13. Regulační sandboxy pro AI jsou navrženy a zavedeny tak, aby v relevantních případech usnadňovaly přeshraniční spolupráci mezi příslušnými vnitrostátními orgány.
14. De nationale kompetente myndigheder koordinerer deres aktiviteter og samarbejder inden for AI-udvalgets rammer.
14. Příslušné vnitrostátní orgány koordinují své činnosti a spolupracují v rámci rady.
15. De nationale kompetente myndigheder underretter AI-kontoret og AI-udvalget om oprettelsen af en sandkasse og kan anmode dem om støtte og vejledning. AI-kontoret offentliggør en liste over planlagte og eksisterende sandkasser og ajourfører den for at tilskynde til større interaktion i de reguleringsmæssige AI-sandkasser og tværnationalt samarbejde.
15. Příslušné vnitrostátní orgány informují úřad pro AI a radu o zřízení sandboxu a mohou je požádat o podporu a pokyny. Úřad pro AI zveřejní seznam stávajících i plánovaných sandboxů a aktualizuje jej s cílem podpořit v regulačních sandboxech pro AI větší interakci a podnítit přeshraniční spolupráci.
16. De nationale kompetente myndigheder forelægger AI-kontoret og AI-udvalget årlige rapporter, fra og med ét år efter oprettelsen af den reguleringsmæssige AI-sandkasse og derefter hvert år indtil dens ophør, og en slutrapport. Disse rapporter skal indeholde oplysninger om fremskridt med og resultater af gennemførelsen af de pågældende sandkasser, herunder bedste praksis, hændelser, indhøstede erfaringer og anbefalinger vedrørende deres udformning og, hvis det er relevant, anvendelsen og den eventuelle revision af denne forordning, herunder tilhørende delegerede retsakter og gennemførelsesretsakter, og anvendelsen af anden EU-ret, som de kompetente myndigheder fører tilsyn med inden for sandkassen. De nationale kompetente myndigheder gør disse årlige rapporter eller sammendrag heraf offentligt tilgængelige online. Kommissionen tager, hvis det er relevant, hensyn til de årlige rapporter, når den udfører sine opgaver i henhold til denne forordning.
16. Příslušné vnitrostátní orgány předkládají úřadu pro AI a radě výroční zprávy, a to od jednoho roku po zřízení regulačního sandboxu pro AI a poté každý rok až do jeho ukončení, a závěrečnou zprávu. Tyto zprávy obsahují informace o pokroku při zavádění uvedených sandboxů a jejich výsledcích, včetně osvědčených postupů, incidentů, získaných zkušeností a doporučení ohledně jejich uspořádání a případně ohledně uplatňování a revize tohoto nařízení, včetně souvisejících aktů v přenesení pravomoci a prováděcích aktů, a ohledně uplatňování jiného práva Unie, nad nimiž příslušné orgány v rámci daného sandboxu provádí dohled. Příslušné vnitrostátní orgány tyto výroční zprávy nebo jejich shrnutí zpřístupní veřejnosti online. Komise tyto výroční zprávy v případě potřeby zohlední při plnění svých úkolů podle tohoto nařízení.
17. Kommissionen udvikler en fælles og særlig grænseflade, der indeholder alle relevante oplysninger vedrørende reguleringsmæssige AI-sandkasser, for at give interessenter mulighed for at interagere med reguleringsmæssige AI-sandkasser og rette forespørgsler til de kompetente myndigheder og søge ikkebindende vejledning om overensstemmelsen af innovative produkter, tjenester og forretningsmodeller, der integrerer AI-teknologier, i overensstemmelse med artikel 62, stk. 1, litra c). Kommissionen koordinerer proaktivt med nationale kompetente myndigheder, hvis det er relevant.
17. Komise vytvoří jednotné a vyhrazené rozhraní obsahující veškeré relevantní informace týkající se regulačních sandboxů pro AI s cílem umožnit zúčastněným stranám interakci s regulačními sandboxy pro AI a pokládat příslušným orgánům dotazy a žádat o nezávazné pokyny týkající se souladu inovativních produktů, služeb a obchodních modelů zahrnujících technologie AI s tímto nařízením, v souladu s čl. 62 odst. 1 písm. c). Komise svou činnost případně aktivně koordinuje s příslušnými vnitrostátními orgány.
Artikel 58
Článek 58
Nærmere ordninger for og funktionsmåden af reguleringsmæssige AI-sandkasser
Podrobná ustanovení pro regulační sandboxy pro AI a jejich fungování
1. For at undgå fragmentering i Unionen vedtager Kommissionen gennemførelsesretsakter, der fastsætter de nærmere ordninger for oprettelse, udvikling, gennemførelse, drift af og tilsyn med de reguleringsmæssige AI-sandkasser. Gennemførelsesretsakterne skal omfatte fælles principper vedrørende følgende punkter:
1. Aby se zabránilo roztříštěnosti v celé Unii, přijme Komise prováděcí akty, kterými stanoví podrobná ustanovení pro zřízení, vývoj, provádění a provoz regulačních sandboxů pro AI a pro dohled nad nimi. Prováděcí akty obsahují společné hlavní zásady týkající se těchto otázek:
a)
støtteberettigelse og udvælgelseskriterier med henblik på deltagelse i den reguleringsmæssige AI-sandkasse
a)
kritéria způsobilosti a výběru pro účast na regulačním sandboxu pro AI;
b)
procedurer for anvendelse, deltagelse, overvågning, udtræden fra og afslutning af den reguleringsmæssige AI-sandkasse, herunder sandkasseplanen og slutrapporten
b)
postupy pro podávání žádostí, účast, monitorování, ukončení účasti, jakož i ukončení samotného regulačního sandboxu pro AI, včetně plánu testování v sandboxu a výstupní zprávy;
c)
hvilke vilkår og betingelser der gælder for deltagerne.
c)
podmínky vztahující se na účastníky.
Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
Tyto prováděcí akty se přijímají přezkumným postupem podle čl. 98 odst. 2.
2. De i stk. 1 omhandlede gennemførelsesretsakter skal sikre:
2. Prováděcí akty uvedené v odstavci 1 zajistí následující:
a)
at reguleringsmæssige AI-sandkasser er åbne for enhver ansøgende udbyder eller potentiel udbyder af et AI-system, som opfylder støtteberettigelses- og udvælgelseskriterierne, som skal være gennemsigtige og fair, og at de nationale kompetente myndigheder underretter ansøgerne om deres afgørelse senest tre måneder efter ansøgningen
a)
regulační sandboxy pro AI jsou otevřeny jakémukoli žádajícímu poskytovateli či potenciálnímu poskytovateli systému AI, který splňuje kritéria způsobilosti a výběru, která jsou transparentní a spravedlivá, a příslušné vnitrostátní orgány informují žadatele o svém rozhodnutí do tří měsíců od podání žádosti;
b)
at reguleringsmæssige AI-sandkasser giver bred og lige adgang og holder trit med efterspørgslen efter deltagelse; udbydere og potentielle udbydere kan også indgive ansøgninger i partnerskab med idriftsættere eller andre relevante tredjeparter
b)
regulační sandboxy pro AI umožňují široký a rovný přístup a drží krok s poptávkou po účasti v nich; poskytovatelé či potenciální poskytovatelé mohou rovněž podávat žádosti společně se subjekty zavádějícími systémy AI a jinými příslušnými třetími stranami;
c)
at de nærmere ordninger for og betingelser vedrørende reguleringsmæssige AI-sandkasser i videst mulig udstrækning støtter fleksibilitet for nationale kompetente myndigheder til at oprette og drive deres reguleringsmæssige AI-sandkasser
c)
podrobná ustanovení pro regulační sandboxy pro AI a podmínky pro ně v co největší míře podporují flexibilitu pro příslušné vnitrostátní orgány při zřizování a provozování jejich regulačních sandboxů pro AI;
d)
at adgang til de reguleringsmæssige AI-sandkasser er gratis for SMV'er, herunder iværksættervirksomheder, uden at det berører ekstraordinære omkostninger, som de nationale kompetente myndigheder kan få dækket på fair og forholdsmæssig vis
d)
přístup k regulačním sandboxům pro AI je bezplatný pro malé a střední podniky, včetně podniků začínajících, aniž jsou dotčeny mimořádné náklady, které mohou příslušné vnitrostátní orgány vymáhat spravedlivým a přiměřeným způsobem;
e)
at de ved hjælp af læringsresultaterne fra de reguleringsmæssige AI-sandkasser gør det lettere for udbydere og potentielle udbydere at overholde overensstemmelsesvurderingsforpligtelserne i henhold til denne forordning og frivilligt at anvende adfærdskodekserne, som er omhandlet i artikel 95
e)
prostřednictvím výsledků učení v regulačních sandboxech pro AI usnadňují poskytovatelům či potenciálním poskytovatelům plnění povinností posuzování shody podle tohoto nařízení a dobrovolné uplatňování kodexů chování uvedených v článku 95;
f)
at de reguleringsmæssige AI-sandkasser letter inddragelsen af andre relevante aktører inden for AI-økosystemet såsom bemyndigede organer og standardiseringsorganisationer, SMV'er, herunder iværksættervirksomheder, virksomheder, innovatorer, afprøvnings- og forsøgsfaciliteter, forsknings- og forsøgslaboratorier og europæiske digitale innovationsknudepunkter, ekspertisecentre, individuelle forskere, med henblik på at muliggøre og lette samarbejdet med den offentlige og private sektor
f)
regulační sandboxy pro AI usnadňují zapojení dalších příslušných subjektů v rámci ekosystému AI, jako jsou oznámené subjekty a normalizační organizace, malé a střední podniky, včetně začínajících podniků, podniky, inovátoři, testovací a experimentální zařízení, výzkumné a experimentální laboratoře a evropská centra pro digitální inovace, centra excelence a jednotliví výzkumní pracovníci, s cílem umožnit a usnadnit spolupráci s veřejným a soukromým sektorem;
g)
at procedurer, processer og administrative krav vedrørende ansøgning om, udvælgelse af, deltagelse i og udtræden af den reguleringsmæssige AI-sandkasse er enkle, letforståelige og klart kommunikeret, så det bliver lettere for SMV'er, herunder iværksættervirksomheder, med begrænset juridisk og administrativ kapacitet at deltage, og strømlines i hele Unionen for at undgå fragmentering, samt at deltagelse i en reguleringsmæssig AI-sandkasse oprettet af en medlemsstat eller af Den Europæiske Tilsynsførende for Databeskyttelse anerkendes gensidigt og ensartet og har samme retsvirkning i hele Unionen
g)
postupy, procesy a správní požadavky týkající se podávání žádostí, výběru, účasti v regulačním sandboxu pro AI a jeho opuštění jsou jednoduché, snadno srozumitelné a jasně sdělené s cílem usnadnit účast malých a středních podniků s omezenými právními a správními kapacitami, včetně podniků začínajících, a jsou dostupné v celé Unii, aby se zabránilo roztříštěnosti a aby účast v regulačním sandboxu pro AI zřízeném členským státem nebo evropským inspektorem ochrany údajů byla vzájemně a jednotně uznávána a měla v celé Unii stejné právní účinky;
h)
at deltagelse i den reguleringsmæssige AI-sandkasse begrænses til en periode, der er passende til projektets kompleksitet og omfang, og som kan forlænges af den nationale kompetente myndighed
h)
účast v regulačním sandboxu pro AI je omezena na dobu, která je přiměřená složitosti a rozsahu projektu, a která může být prodloužena příslušným vnitrostátním orgánem;
i)
at reguleringsmæssige AI-sandkasser letter udviklingen af værktøjer og infrastruktur til afprøvning, benchmarking, vurdering og forklaring af dimensioner af AI-systemer, der er relevante for reguleringsmæssig læring såsom nøjagtighed, robusthed og cybersikkerhed, samt foranstaltninger til at mindske risici for de grundlæggende rettigheder og samfundet som helhed.
i)
regulační sandboxy pro AI usnadňují vývoj nástrojů a infrastruktury pro testování, srovnávání, posuzování a vysvětlování aspektů systémů AI relevantních pro regulační učení, jako je přesnost, spolehlivost a kybernetická bezpečnost a rovněž opatření k omezení rizik pro lidská práva a společnost obecně.
3. Potentielle udbydere i de reguleringsmæssige AI-sandkasser, navnlig SMV'er og iværksættervirksomheder, henvises, hvis det er relevant, til føridriftsættelsestjenester såsom vejledning om gennemførelsen af denne forordning, til andre værdiforøgende tjenester såsom hjælp med standardiseringsdokumenter og certificering, afprøvnings- og forsøgsfaciliteter, europæiske digitale innovationsknudepunkter og ekspertisecentre.
3. Potenciální poskytovatelé v regulačních sandboxech pro AI, zejména malé a střední podniky a podniky začínající, jsou podle potřeby nasměrováni na služby před zaváděním, jako jsou pokyny k provádění tohoto nařízení, na další služby vytvářející přidanou hodnotu, jako je pomoc s normalizačními dokumenty a certifikací, testovací a experimentální zařízení, evropská centra pro digitální inovace a centra excelence.
4. Hvis de nationale kompetente myndigheder overvejer at tillade afprøvning under faktiske forhold under tilsyn inden for rammerne af en reguleringsmæssig AI-sandkasse, der skal oprettes i henhold til denne artikel, aftaler de specifikt vilkårene og betingelserne for en sådan afprøvning og navnlig de fornødne sikkerhedsforanstaltninger med deltagerne med henblik på at beskytte de grundlæggende rettigheder, sundheden og sikkerheden. Hvis det er relevant, samarbejder de med andre nationale kompetente myndigheder med henblik på at sikre en ensartet praksis i hele Unionen.
4. Pokud příslušné vnitrostátní orgány zvažují, že povolí testování v reálných podmínkách, nad nímž je vykonáván dohled v rámci regulačního sandboxu pro AI zřízeného podle tohoto článku, výslovně se s účastníky dohodnou na podmínkách tohoto testování, a zejména na vhodných zárukách s cílem chránit základní práva, zdraví a bezpečnost. V případě potřeby spolupracují s dalšími příslušnými vnitrostátními orgány s cílem zajistit jednotné postupy v celé Unii.
Artikel 59
Článek 59
Viderebehandling af personoplysninger med henblik på udvikling af visse samfundsnyttige AI-systemer i den reguleringsmæssige AI-sandkasse
Další zpracování osobních údajů pro účely vývoje určitých systémů AI ve veřejném zájmu v rámci regulačního sandboxu pro AI
1. I den reguleringsmæssige AI-sandkasse må personoplysninger, der er lovligt indsamlet til andre formål, kun behandles med henblik på udvikling, træning og afprøvning af visse AI-systemer i sandkassen, når alle følgende betingelser er opfyldt:
1. Osobní údaje zákonně shromážděné pro jiné účely mohou být v regulačním sandboxu pro AI zpracovávány výhradně pro účely vývoje, trénování a testování určitých systémů AI v sandboxu, pokud jsou splněny všechny tyto podmínky:
a)
AI-systemer skal udvikles med henblik på beskyttelse af væsentlige samfundsinteresser, der varetages af en offentlig myndighed eller anden fysisk eller juridisk person, og på et eller flere af følgende områder:
a)
systémy AI jsou vyvinuty veřejným orgánem nebo jinou fyzickou nebo právnickou osobou za účelem ochrany podstatného veřejného zájmu v jedné nebo více z následujících oblastí:
i)
den offentlige sikkerhed og folkesundheden, herunder opsporing af sygdomme, diagnoser, forebyggelse, overvågning og behandling samt forbedring af sundhedssystemerne
i)
veřejná bezpečnost a veřejné zdraví, včetně zjišťování, diagnostiky prevence, kontroly a léčby nemocí a zlepšování systémů zdravotní péče;
ii)
et højt beskyttelsesniveau og forbedring af miljøkvaliteten, beskyttelse af biodiversiteten, beskyttelse mod forurening, foranstaltninger vedrørende den grønne omstilling, foranstaltninger vedrørende modvirkning af og tilpasning til klimaændringer
ii)
vysoká úroveň ochrany a zlepšování kvality životního prostředí, ochrana biologické rozmanitosti, ochrana proti znečištění, opatření zelené transformace, opatření na zmírňování změny klimatu a přizpůsobování se této změně;
iii)
energibæredygtighed
iii)
energetická udržitelnost;
iv)
sikkerhed og modstandsdygtighed i transportsystemerne og mobilitet, kritisk infrastruktur og netværk
iv)
bezpečnost a odolnost dopravních systémů a mobility, kritické infrastruktury a sítí;
v)
effektivitet og kvalitet i den offentlige forvaltning og offentlige tjenester
v)
účinnost a kvalita veřejné správy a veřejných služeb;
b)
de behandlede oplysninger skal være nødvendige for at overholde et eller flere af de krav, der er omhandlet i kapitel III, afdeling 2, såfremt disse krav ikke praktisk kan opfyldes ved behandling af anonymiserede eller syntetiske oplysninger eller andre oplysninger end personoplysninger
b)
zpracovávané údaje jsou nezbytné pro splnění jednoho nebo více požadavků uvedených v kapitole III oddíle 2, pokud tyto požadavky nelze účinně splnit zpracováním anonymizovaných, syntetických nebo jiných neosobních údajů;
c)
der skal foreligge effektive overvågningsmekanismer til at konstatere, om der kan opstå høje risici for de registreredes rettigheder og frihedsrettigheder, som omhandlet i artikel 35 i forordning (EU) 2016/679 og artikel 39 i forordning (EU) 2018/1725, i forbindelse med forsøgene i sandkassen, samt beredskabsmekanismer til straks at afbøde disse risici og om nødvendigt standse behandlingen
c)
existují účinné monitorovací mechanismy umožňující identifikovat, zda mohou během experimentování v sandboxu vzniknout jakákoli vysoká rizika pro práva a svobody subjektů údajů uvedená v článku 35 nařízení (EU) 2016/679 a článku 39 nařízení (EU) 2018/1725, a existují mechanismy reakce umožňující okamžité zmírnění těchto rizik a v případě potřeby i zastavení zpracování;
d)
alle personoplysninger, der skal behandles i forbindelse med sandkassen, skal befinde sig i et funktionelt adskilt, isoleret og beskyttet databehandlingsmiljø under den potentielle udbyders kontrol, og kun autoriserede personer har adgang til disse data
d)
veškeré osobní údaje, které mají být v rámci sandboxu zpracovány, se nacházejí ve funkčně odděleném, izolovaném a chráněném prostředí pro zpracování údajů pod kontrolou potenciálního poskytovatele a k těmto údajům mají přístup pouze oprávněné osoby;
e)
udbyderne kan kun dele de oprindeligt indsamlede data yderligere i overensstemmelse med EU-databeskyttelsesretten; personoplysninger, der er skabt i sandkassen, kan ikke deles uden for sandkassen
e)
poskytovatelé mohou dále sdílet původně shromážděné údaje pouze v souladu s právem Unie v oblasti ochrany údajů; žádné osobní údaje vytvořené v rámci sandboxu nelze sdílet mimo sandbox;
f)
enhver behandling af personoplysninger i forbindelse med sandkassen fører hverken til foranstaltninger eller afgørelser, der berører de registrerede, eller påvirker anvendelsen af deres rettigheder fastsat i EU-retten om beskyttelse af personoplysninger
f)
žádné zpracování osobních údajů v rámci sandboxu nevede k opatřením nebo rozhodnutím ovlivňujícím subjekty údajů ani nemá vliv na uplatňování jejich práv stanovených v právu Unie v oblasti osobních údajů;
g)
alle personoplysninger, der skal behandles i forbindelse med sandkassen, skal beskyttes gennem passende tekniske og organisatoriske foranstaltninger og slettes, når deltagelsen i sandkassen afsluttes, eller når opbevaringsperioden for personoplysningerne udløber
g)
veškeré osobní údaje zpracovávané v rámci sandboxu jsou chráněny prostřednictvím vhodných technických a organizačních opatření a vymazány, jakmile skončí účast na sandboxu nebo doba uchovávání osobních údajů;
h)
logfilerne over behandlingen af personoplysninger i forbindelse med sandkassen opbevares, så længe de deltager i sandkassen, medmindre andet er fastsat i EU-retten eller national ret
h)
protokoly o zpracování osobních údajů v rámci sandboxu jsou uchovávány po dobu účasti na sandboxu, nestanoví-li právo Unie nebo vnitrostátní právo jinak;
i)
en fuldstændig og detaljeret beskrivelse af processen og begrundelsen for træningen, afprøvningen og valideringen af AI-systemet opbevares sammen med afprøvningsresultaterne som en del af den tekniske dokumentation omhandlet i bilag IV
i)
společně s výsledky testování je uchováván úplný a podrobný popis postupu a zdůvodnění trénování, testování a validace systému AI jako součást technické dokumentace uvedené v příloze IV;
j)
der offentliggøres på de kompetente myndigheders websted et kort resumé af det AI-projekt, der er udviklet i sandkassen, dets mål og dets forventede resultater; denne forpligtelse omfatter ikke følsomme operationelle oplysninger i forbindelse med aktiviteter, der udføres af retshåndhævende myndigheder, grænsekontrolmyndigheder, indvandringsmyndigheder eller asylmyndigheder.
j)
stručného shrnutí projektu AI vyvinutého v sandboxu, jeho cílů a očekávaných výsledků je zveřejněno na internetových stránkách příslušných orgánů; tato povinnost se nevztahuje na citlivé operativní údaje týkající se činností donucovacích orgánů, orgánů ochrany hranic, imigračních nebo azylových orgánů.
2. Med henblik på at forebygge, efterforske, opdage eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner, herunder beskytte mod og forebygge trusler mod den offentlige sikkerhed, under de retshåndhævende myndigheders kontrol og ansvar baseres behandlingen af personoplysninger i reguleringsmæssige AI-sandkasser på særlig EU-ret eller national ret og på de samme kumulative betingelser som omhandlet i stk. 1.
2. Pro účely prevence, vyšetřování, odhalování či stíhání trestných činů nebo pro účely výkonu trestů, včetně ochrany před hrozbami pro veřejnou bezpečnost a jejich předcházení pod dozorem a v pravomoci donucovacích orgánů, vychází zpracování osobních údajů v regulačních sandboxech pro AI ze zvláštního unijního nebo vnitrostátního práva a podléhá stejným kumulativním podmínkám, jež jsou uvedeny v odstavci 1.
3. Stk. 1 berører ikke EU-ret eller national ret, der udelukker behandling til andre formål end dem, der udtrykkeligt er nævnt i den pågældende ret, og heller ikke EU-ret eller national ret, der fastsætter grundlaget for behandling af personoplysninger, som er nødvendig med henblik på udvikling, afprøvning eller træning af innovative AI-systemer, eller noget andet retsgrundlag, der overholder EU-retten om beskyttelse af personoplysninger.
3. Odstavcem 1 není dotčeno právo Unie ani vnitrostátní právo, které vylučuje zpracování osobních údajů pro jiné účely než pro účely, které toto právo výslovně uvádí, ani právo Unie a vnitrostátní právo, které stanoví základ pro zpracování osobních údajů, jež je nezbytný pro účely vývoje, testování nebo trénování inovativních systémů AI, nebo jakýkoli jiný právní základ v souladu s právem Unie o ochraně osobních údajů.
Artikel 60
Článek 60
Afprøvning af højrisiko-AI-systemer under faktiske forhold uden for reguleringsmæssige AI-sandkasser
Testování vysoce rizikových systémů AI v reálných podmínkách mimo regulační sandboxy pro AI
1. Afprøvning af højrisiko-AI-systemer under faktiske forhold uden for reguleringsmæssige AI-sandkasser kan udføres af udbydere eller potentielle udbydere af højrisiko-AI-systemer, der er opført i bilag III, i overensstemmelse med denne artikel og den plan for afprøvning under faktiske forhold, der er omhandlet i denne artikel, uden at det berører forbuddene i henhold til artikel 5.
1. Poskytovatelé nebo potenciální poskytovatelé vysoce rizikových systémů AI uvedených v příloze III mohou provádět testování vysoce rizikových systémů AI v reálných podmínkách mimo regulační sandboxy pro AI v souladu s tímto článkem a plánem testování v reálných podmínkách provozu uvedeným v tomto článku, aniž jsou dotčeny zákazy podle článku 5.
Kommissionen præciserer ved hjælp af gennemførelsesretsakter de nærmere elementer i planen for afprøvning under faktiske forhold. Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
Komise v prováděcích aktech upřesní podrobné prvky plánu testování v reálných podmínkách. Tyti prováděcí akty budou přijaty přezkumným postupem podle čl. 98 odst. 2.
Nærværende stykke berører ikke EU-ret eller national ret om afprøvning under faktiske forhold af højrisiko-AI-systemer i forbindelse med produkter, der er omfattet af EU-harmoniseringslovgivningen, der er opført i bilag I.
Tímto odstavcem není dotčeno právo Unie ani vnitrostátní právo týkající se testování vysoce rizikových systémů AI v reálných podmínkách v souvislosti s produkty, na něž se vztahují harmonizační právní předpisy uvedené v příloze I.
2. Udbydere eller potentielle udbydere kan selv eller i partnerskab med en eller flere idriftsættere eller potentielle idriftsættere gennemføre afprøvning af de højrisiko-AI-systemer, der er omhandlet i bilag III, under faktiske forhold på et hvilket som helst tidspunkt, inden AI-systemet bringes i omsætning eller ibrugtages.
2. Poskytovatelé nebo potenciální poskytovatelé mohou provádět testování vysoce rizikových systémů AI uvedených v příloze III v reálných podmínkách kdykoli před uvedením systému AI na trh nebo do provozu, a to samostatně nebo v partnerství s jedním nebo více zavádějícími subjekty nebo potenciálními zavádějícími subjekty.
3. Afprøvning af højrisiko-AI-systemer under faktiske forhold i henhold til denne artikel berører ikke enhver anden etisk gennemgang, der er påkrævet i henhold til EU-retten eller national ret.
3. Testováním vysoce rizikových systémů AI v reálných podmínkách podle tohoto článku není dotčen žádný etický přezkum, který je vyžadován právem Unie nebo vnitrostátním právem.
4. Udbydere eller potentielle udbydere må kun udføre afprøvningen under faktiske forhold, hvis alle følgende betingelser er opfyldt:
4. Poskytovatelé nebo potenciální poskytovatelé mohou provádět testování v reálných podmínkách pouze v případě, že jsou splněny všechny tyto podmínky:
a)
udbyderen eller den potentielle udbyder har udarbejdet en plan for afprøvning under faktiske forhold og forelagt den for markedsovervågningsmyndigheden i den medlemsstat, hvor afprøvningen skal udføres under faktiske forhold
a)
poskytovatel nebo potenciální poskytovatel vypracoval plán testování v reálných podmínkách a předložil jej orgánu dozoru nad trhem v členském státě, v němž má být testování v reálných podmínkách provedeno;
b)
markedsovervågningsmyndigheden i den medlemsstat, hvor afprøvningen under faktiske forhold skal udføres, har godkendt afprøvningen under faktiske forhold og planen for afprøvning under faktiske forhold; hvis markedsovervågningsmyndigheden ikke har givet et svar inden for 30 dage, betragtes afprøvningen under faktiske forhold og planen for afprøvning under faktiske forhold som godkendt; hvis national ret ikke indeholder bestemmelser om stiltiende godkendelse, skal der fortsat foreligge en tilladelse til afprøvning under faktiske forhold
b)
vnitrostátní orgán dozoru nad trhem v členském státě, v němž se testování v reálných podmínkách má provést, testování v reálných podmínkách a plán testování v reálných podmínkách schválil; pokud orgán dozoru nad trhem neposkytne odpověď do 30 dnů, testování v reálných podmínkách a plán zkoušek v reálných podmínkách se považují za schválené; nestanoví-li vnitrostátní právo implicitní schválení, testování v reálných podmínkách nadále podléhá povolení;
c)
udbyderen eller den potentielle udbyder med undtagelse af udbydere eller potentielle udbydere af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, 6 og 7, inden for retshåndhævelse, migrationsstyring, asylforvaltning og grænsekontrol, og af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2, har registreret afprøvningen under faktiske forhold i overensstemmelse med artikel 71, stk. 4, med et EU-dækkende unikt individuelt identifikationsnummer og de oplysninger, der er angivet i bilag IX; udbyderen eller den potentielle udbyder af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, 6 og 7, inden for retshåndhævelse, migrationsstyring, asylforvaltning og grænsekontrol, har registreret afprøvningen under faktiske forhold i den sikre ikkeoffentlige del af EU-databasen, jf. artikel 49, stk. 4, litra d), med et EU-dækkende unikt individuelt identifikationsnummer og de oplysninger, der er angivet i nævnte litra; udbyderen eller den potentielle udbyder af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 2, har registreret afprøvningen under faktiske forhold i overensstemmelse med artikel 49, stk. 5
c)
poskytovatel nebo potenciální poskytovatel, s výjimkou poskytovatelů nebo potenciálních poskytovatelů vysoce rizikových systémů AI uvedených v bodech 1, 6 a 7 přílohy III v oblasti vymáhání práva, migrace, azylu a řízení ochrany hranic a vysoce rizikových systémů AI uvedených v bodě 2 přílohy III, zaregistroval testování v reálných podmínkách v souladu s čl. 71 odst. 4 s uvedením celounijního jedinečného identifikačního čísla a informací stanovených v příloze IX; poskytovatel nebo potenciální poskytovatel vysoce rizikových systémů AI uvedených v bodech 1, 6 a 7 přílohy III v oblasti vymáhání práva, migrace, azylu a řízení ochrany hranic zaregistroval testování v reálných podmínkách v zabezpečené, neveřejné části databáze EU podle čl. 49 odst. 4 písm. d) s celounijním jedinečným identifikačním číslem a informacemi v tomto článku uvedenými; poskytovatel nebo potenciální poskytovatel vysoce rizikových systémů AI uvedený v bodě 2 přílohy III zaregistroval testování v reálných podmínkách v souladu s čl. 49 odst. 5;
d)
den udbyder eller potentielle udbyder, der udfører afprøvningen under faktiske forhold, er etableret i Unionen eller har udpeget en retlig repræsentant, der er etableret i Unionen
d)
poskytovatel nebo potenciální poskytovatel provádějící testování v reálných podmínkách je usazen v Unii nebo jmenoval právního zástupce, který je usazen v Unii;
e)
data, der indsamles og behandles med henblik på afprøvning under faktiske forhold, må kun overføres til tredjelande, forudsat at der er gennemført passende og gældende sikkerhedsforanstaltninger i henhold til EU-retten
e)
údaje shromážděné a zpracované pro účely testování v reálných podmínkách se předávají třetím zemím pouze za předpokladu, že jsou uplatňovány vhodné a použitelné záruky podle práva Unie;
f)
afprøvningen under faktiske forhold varer ikke længere end nødvendigt for at nå målene herfor og under ingen omstændigheder længere end seks måneder, som kan forlænges i en yderligere periode på seks måneder, forudsat at udbyderen eller den potentielle udbyder på forhånd har underrettet markedsovervågningsmyndigheden ledsaget af en redegørelse for behovet for en sådan forlængelse
f)
testování v reálných podmínkách netrvá déle, než je nezbytné k dosažení jeho cílů, a v žádném případě ne déle než šest měsíců, přičemž tato doba může být prodloužena o dalších šest měsíců, pokud poskytovatel nebo potenciální poskytovatel toto prodloužení předem oznámí orgánu dozoru nad trhem spolu s vysvětlením, proč je ho zapotřebí;
g)
de personer, der er genstand for afprøvningen under faktiske forhold, og som er personer, der tilhører sårbare grupper på grund af deres alder eller handicap, beskyttes på passende vis
g)
subjekty testování v reálných podmínkách, které vzhledem ke svému věku nebo postižení spadají do zranitelných skupin, jsou náležitě chráněny;
h)
hvis en udbyder eller potentiel udbyder organiserer afprøvningen under faktiske forhold i samarbejde med en eller flere idriftsættere eller potentielle idriftsættere, er sidstnævnte blevet informeret om alle de aspekter af afprøvningen, der er relevante for deres beslutning om at deltage, og har modtaget den relevante brugsanvisning til AI-systemet, jf. artikel 13; udbyderen eller den potentielle udbyder og idriftsætteren eller den potentielle idriftsætter skal indgå en aftale, der præciserer deres roller og ansvar med henblik på at sikre overholdelse af bestemmelserne om afprøvning under faktiske forhold i henhold til denne forordning og i henhold til anden gældende EU-ret og national ret
h)
pokud poskytovatel nebo potenciální poskytovatel uspořádá testování v reálných podmínkách ve spolupráci s jedním nebo více zavádějícími subjekty či potenciálními zavádějícími subjekty, tyto subjekty byly informovány o všech aspektech testování, které jsou relevantní pro jejich rozhodnutí účastnit se, a obdrželi příslušné pokyny pro použití systému AI uvedeného v článku 13; poskytovatel nebo potenciální poskytovatel a zavádějící subjekt nebo potenciální zavádějící subjekt uzavřou dohodu, v níž upřesní své úlohy a povinnosti s cílem zajistit soulad s ustanoveními týkajícími se testování v reálných podmínkách podle tohoto nařízení a jiným platným právem Unie a vnitrostátním právem;
i)
de personer, der er genstand for afprøvningen under faktiske forhold, har givet informeret samtykke i overensstemmelse med artikel 61 eller i tilfælde af retshåndhævelse, hvis indhentning af informeret samtykke ville forhindre, at AI-systemet afprøves, og selve afprøvningen og resultatet af afprøvningen under faktiske forhold må ikke have nogen negativ indvirkning på forsøgspersonerne, og deres personoplysninger slettes, efter at afprøvningen er udført
i)
subjekty testování v reálných podmínkách udělily informovaný souhlas v souladu s článkem 61, nebo pokud by v případě vymáhání práva získání informovaného souhlasu testování systému AI bránilo, samotné testování a výsledek testování v reálných podmínkách nemají na subjekty hodnocení žádný negativní dopad a osobní údaje těchto subjektů jsou po provedení testu vymazány;
j)
afprøvningen under faktiske forhold overvåges effektivt af udbyderen eller den potentielle udbyder samt af idriftsættere eller potentielle idriftsættere gennem personer, der er tilstrækkeligt kvalificerede på det relevante område og har den nødvendige kapacitet, uddannelse og myndighed til at udføre deres opgaver
j)
na testování v reálných podmínkách účinně dohlíží poskytovatel nebo potenciální poskytovatel, jakož i zavádějící subjekty nebo potenciální zavádějící subjekty prostřednictvím osob, které mají jak odpovídající kvalifikaci v příslušné oblasti, tak nezbytnou kapacitu, odbornou přípravu a pravomoc k plnění svých úkolů;
k)
AI-systemets forudsigelser, anbefalinger eller beslutninger kan effektivt omgøres og tilsidesættes.
k)
predikce, doporučení nebo rozhodnutí systému AI lze účinně zvrátit a nezohlednit.
5. Enhver forsøgsperson, der medvirker i afprøvningen under faktiske forhold, eller vedkommendes retligt udpegede repræsentant, alt efter hvad der er relevant, kan, uden at det medfører ulemper og uden at skulle give nogen begrundelse, når som helst trække sig tilbage fra afprøvningen ved at trække sit informerede samtykke tilbage og anmode om øjeblikkeligt og permanent at få sine personoplysninger slettet. Tilbagetrækningen af det informerede samtykke berører ikke de allerede udførte aktiviteter.
5. Kterékoli subjekty testování v reálných podmínkách nebo případně jejich zákonně ustanovený zástupce může odvoláním svého informovaného souhlasu od testování kdykoli odstoupit, aniž by tím došel jakékoliv újmy a aniž by byl povinen poskytnout jakékoliv odůvodnění, a může požádat o okamžité a trvalé vymazání svých osobních údajů. Odvoláním informovaného souhlasu nejsou dotčeny již provedené činnosti.
6. I overensstemmelse med artikel 75 tillægger medlemsstaterne deres markedsovervågningsmyndigheder beføjelser til at kræve oplysninger, som udbydere og potentielle udbydere skal indgive, til at foretage uanmeldte fjerninspektioner eller inspektioner på stedet og til at foretage kontrol af, hvordan afprøvningen udføres under faktiske forhold, og de relaterede højrisiko-AI-systemer. Markedsovervågningsmyndighederne anvender disse beføjelser til at sørge for, at afprøvningen under faktiske forhold forløber sikkert.
6. V souladu s článkem 75 svěří členské státy svým orgánům dozoru nad trhem pravomoci požadovat od poskytovatelů a potenciálních poskytovatelů informace, provádět neohlášené kontroly na dálku nebo kontroly na místě a provádět kontroly postupu testování v reálných podmínkách a souvisejících vysoce rizikových systémů AI. Orgány dozoru nad trhem využijí těchto pravomocí k zajištění bezpečného vývoje testování v reálných podmínkách.
7. Enhver alvorlig hændelse, der konstateres under afprøvningen under faktiske forhold, indberettes til den nationale markedsovervågningsmyndighed i overensstemmelse med artikel 73. Udbyderen eller den potentielle udbyder træffer straks afbødende foranstaltninger eller, hvis dette ikke er muligt, suspenderer afprøvningen under faktiske forhold, indtil en sådan afhjælpning finder sted, eller, hvis dette ikke sker, bringer den til ophør. Udbyderen eller den potentielle udbyder indfører en procedure for øjeblikkelig tilbagekaldelse af AI-systemet efter en sådan afslutning af afprøvningen under faktiske forhold.
7. Veškeré závažné incidenty zjištěné v průběhu testování v reálných podmínkách se oznámí vnitrostátnímu orgánu dozoru nad trhem v souladu s článkem 73. Poskytovatel nebo potenciální poskytovatel přijme okamžitá zmírňující opatření nebo, pokud to není možné, testování v reálných podmínkách pozastaví, dokud k tomuto zmírnění nedojde, nebo testování jiným způsobem ukončí. Po takovém ukončení testování v reálných podmínkách stanoví poskytovatel nebo potenciální poskytovatel postup pro okamžité stažení systému AI z oběhu.
8. Udbydere eller potentielle udbydere giver den nationale markedsovervågningsmyndighed i den medlemsstat, hvor afprøvningen under faktiske forhold udføres, meddelelse om suspensionen eller afslutningen af afprøvningen under faktiske forhold og om de endelige resultater.
8. Poskytovatelé nebo potenciální poskytovatelé oznámí vnitrostátnímu orgánu dozoru nad trhem v členském státě, v němž se testování v reálných podmínkách provádí, že testování v reálných podmínkách bylo pozastaveno nebo ukončeno, a jaké jsou konečné výsledky.
9. Udbyderen eller den potentielle udbyder er ansvarlige i henhold til gældende EU-ansvarsret og gældende national ansvarsret for enhver skade, der forvoldes i forbindelse med deres afprøvning under faktiske forhold.
9. Podle platného práva Unie a vnitrostátního práva upravujícího odpovědnost nesou poskytovatel nebo potenciální poskytovatel odpovědnost za veškeré škody, jež byly v průběhu jejich testování v reálných podmínkách způsobeny.
Artikel 61
Článek 61
Informeret samtykke til at deltage i afprøvning under faktiske forhold uden for reguleringsmæssige AI-sandkasser
Informovaný souhlas s účastí na testování v reálných podmínkách mimo regulační sandboxy pro AI
1. Med henblik på afprøvning under faktiske forhold i henhold til artikel 60 indhentes der frit informeret samtykke fra forsøgspersoner, inden de deltager i sådanne forsøg, og efter at de er blevet behørigt informeret med præcise, klare, relevante og forståelige oplysninger om:
1. Pro účely testování v reálných podmínkách podle článku 60 musí být od subjektů testování získám dobrovolný informovaný souhlas udělený před jejich účastí na tomto testování, a poté, co řádně obdržely stručné, jasné, relevantní a srozumitelné informace týkající se:
a)
afprøvningens art og formål under faktiske forhold, og hvilke mulige ulemper der kan være forbundet med deres deltagelse
a)
povahy a cílů testování v reálných podmínkách a možných obtíží, které mohou být s jejich účastí spojeny;
b)
de betingelser, hvorunder afprøvningen under faktiske forhold skal udføres, herunder den forventede varighed af forsøgspersonens eller forsøgspersonernes deltagelse
b)
podmínek, za nichž má být testování v reálných podmínkách provedeno, včetně předpokládané doby trvání účasti subjektu či subjektů;
c)
deres rettigheder og garantier for så vidt angår deres deltagelse, navnlig deres ret til at nægte at deltage i og retten til når som helst at trække sig tilbage fra afprøvningen under faktiske forhold, uden at det medfører ulemper, og uden at der skal gives nogen begrundelse herfor
c)
jejich práv a záruk týkajících se jejich účasti, zejména jejich práva odmítnout účast a práva kdykoliv od testování v reálných podmínkách odstoupit, aniž by jim z toho plynula jakákoliv újma a aniž by byly povinny poskytnout jakékoliv odůvodnění;
d)
ordninger for anmodning om omgørelse eller tilsidesættelse af AI-systemets forudsigelser, anbefalinger eller beslutninger
d)
opatření ohledně žádostí o zrušení nebo nezohlednění predikcí, doporučení nebo rozhodnutí systému AI;
e)
det EU-dækkende unikke individuelle identifikationsnummer for afprøvningen under faktiske forhold i overensstemmelse med artikel 60, stk. 4, litra c), og kontaktoplysninger på den udbyder eller dennes retlige repræsentant, hos hvem der kan indhentes yderligere oplysninger.
e)
celounijního jedinečného identifikačního čísla testování v reálných podmínkách v souladu s čl. 60 odst. 4 písm. c) a kontaktních údajů poskytovatele nebo jeho právního zástupce, od něhož lze získat další informace.
2. Det informerede samtykke dateres og dokumenteres, og der gives en kopi til forsøgspersonerne eller deres retlige repræsentant.
2. Informovaný souhlas je datován a zdokumentován a jeho kopie je poskytnuta subjektům testování nebo jejich právnímu zástupci.
Artikel 62
Článek 62
Foranstaltninger for udbydere og idriftsættere, navnlig SMV'er, herunder iværksættervirksomheder
Opatření pro poskytovatele a zavádějící subjekty, zejména malé a střední podniky, včetně podniků začínajících
1. Medlemsstaterne skal foretage følgende tiltag:
1. Členské státy učiní tato opatření:
a)
give SMV'er, herunder iværksættervirksomheder, der har vedtægtsmæssigt hjemsted eller en filial i Unionen, prioriteret adgang til de reguleringsmæssige AI-sandkasser, i det omfang de opfylder deltagelsesbetingelserne og udvælgelseskriterierne; den prioriterede adgang afskærer ikke andre SMV'er, herunder iværksættervirksomheder, end dem, der er omhandlet i dette stykke, fra at få adgang til den reguleringsmæssige AI-sandkasse, forudsat at de også opfylder deltagelsesbetingelserne og udvælgelseskriterierne
a)
poskytují přednostní přístup k regulačním sandboxům pro AI malým a středním podnikům, které mají sídlo nebo pobočku v Unii, včetně podniků začínajících, a to v rozsahu, v jakém splňují kritéria a podmínky způsobilosti a výběru. Přednostní přístup nebrání jiným malým a středním podnikům, které nejsou uvedeny v tomto odstavci, včetně podniků začínajících, v přístupu k regulačnímu sandboxu pro AI, pokud rovněž splňují podmínky způsobilosti a kritéria výběru;
b)
organisere specifikke oplysnings- og uddannelsesaktiviteter om anvendelsen af denne forordning, der er skræddersyet til behovene hos SMV'er, herunder iværksættervirksomheder, idriftsættere og, alt efter hvad der er relevant, lokale offentlige myndigheder
b)
organizují konkrétní činnosti zaměřené na zvyšování povědomí a odbornou přípravu, pokud jde o uplatňování tohoto nařízení, přizpůsobené potřebám malých a středních podniků, včetně podniků začínajících, zavádějících subjektů a případně místních veřejných orgánů;
c)
benytte eksisterende særlige kanaler og, hvis det er relevant, etablere nye kanaler til kommunikation med SMV'er, herunder iværksættervirksomheder, idriftsættere, andre innovatorer og, alt efter hvad der er relevant, lokale offentlige myndigheder for at yde rådgivning og besvare forespørgsler om gennemførelsen af denne forordning, herunder for så vidt angår deltagelse i reguleringsmæssige AI-sandkasser
c)
využívají stávající vyhrazené kanály a případně zřídí kanály nové pro komunikaci s malými a středními podniky, včetně podniků začínajících, se zavádějícími subjekty, dalšími inovátory a v případě potřeby s místními veřejnými orgány, a prostřednictvím těchto kanálů poskytují poradenství a reagují na dotazy týkající se provádění tohoto nařízení, a to i v souvislosti s účastí na regulačních sandboxech pro AI;
d)
lette SMV'ers og andre relevante interessenters deltagelse i standardiseringsudviklingsprocessen.
d)
usnadňují účast malých a středních podniků a dalších příslušných zúčastněných stran na procesu rozvoje normalizace.
2. Der tages hensyn til SMV-udbyderes, herunder iværksættervirksomheder, særlige interesser og behov ved fastsættelsen af gebyrerne for overensstemmelsesvurdering i henhold til artikel 43, idet gebyrerne nedsættes i forhold til deres størrelse, markedsstørrelse og andre relevante indikatorer.
2. Při stanovování poplatků za posuzování shody podle článku 43 jsou zohledňovány zvláštní zájmy a potřeby poskytovatelů z řad malých a středních podniků, včetně podniků začínajících, přičemž tyto poplatky se snižují úměrně jejich velikosti, velikosti trhu a dalším příslušným ukazatelům.
3. AI-kontoret skal foretage følgende tiltag:
3. Úřad pro AI učiní tato opatření:
a)
tilvejebringe standardiserede skabeloner for de områder, der er omfattet af denne forordning, som angivet af AI-udvalget i dets anmodning
a)
poskytuje standardizované šablony pro oblasti, na něž se vztahuje toto nařízení, jak stanoví výbor ve své žádosti;
b)
udvikle og vedligeholde en fælles informationsplatform, der giver alle operatører i hele Unionen letanvendelige oplysninger i forbindelse med denne forordning
b)
vytvoří a provozuje jednotnou informační platformu poskytující všem hospodářským subjektům v celé Unii snadno použitelné informace v souvislosti s tímto nařízením;
c)
tilrettelægge passende kommunikationskampagner for at øge bevidstheden om de forpligtelser, der følger af denne forordning
c)
organizuje vhodné komunikační kampaně s cílem zvýšit povědomí o povinnostech vyplývajících z tohoto nařízení;
d)
evaluere og fremme konvergensen af bedste praksis i offentlige udbudsprocedurer i forbindelse med AI-systemer.
d)
vyhodnocuje a podporuje sbližování osvědčených postupů při zadávacím řízení v souvislosti se systémy AI.
Artikel 63
Článek 63
Undtagelser for særlige operatører
Výjimky pro specifické provozovatele
1. Mikrovirksomheder som omhandlet i henstilling 2003/361/EF kan overholde visse elementer i det kvalitetsstyringssystem, der kræves i henhold til denne forordnings artikel 17, på en forenklet måde, forudsat at de ikke har partnervirksomheder eller tilknyttede virksomheder som omhandlet i nævnte henstilling. Med henblik herpå udvikler Kommissionen retningslinjer for de elementer i kvalitetsstyringssystemet, der kan overholdes på en forenklet måde under hensyntagen til mikrovirksomhedernes behov uden at påvirke beskyttelsesniveauet eller behovet for overholdelse af kravene til højrisiko-AI-systemer.
1. Mikropodniky ve smyslu doporučení 2003/361/ES mohou některé prvky systému řízení kvality vyžadované článkem 17 tohoto nařízení dodržovat zjednodušeným způsobem, pokud nemají partnerské podniky nebo propojené podniky ve smyslu uvedeného doporučení. Za tímto účelem Komise vypracuje pokyny k prvkům systému řízení kvality, které lze splnit zjednodušeným způsobem s ohledem na potřeby mikropodniků, aniž by byla dotčena úroveň ochrany nebo potřeba souladu s požadavky týkajícími se vysoce rizikových systémů AI.
2. Denne artikels stk. 1 skal ikke fortolkes således, at det fritager disse operatører for at opfylde andre krav eller forpligtelser, der er fastsat i denne forordning, herunder dem, der er fastsat i artikel 9, 10, 11, 12, 13, 14, 15, 72 og 73.
2. Odstavec 1 tohoto článku nelze vykládat tak, že tyto provozovatele osvobozuje od plnění jakýchkoli jiných požadavků a povinností stanovených v tomto nařízení, včetně požadavků a povinností stanovených v článcích 9, 10, 11, 12, 13, 14, 15, 72 a 73.
KAPITEL VII
KAPITOLA VII
FORVALTNING
SPRÁVA
AFDELING 1
ODDÍL 1
Forvaltning på EU-plan
Správa na úrovni Unie
Artikel 64
Článek 64
AI-kontoret
Úřad pro AI
1. Kommissionen udvikler EU-ekspertise og -kapacitet inden for AI gennem AI-kontoret.
1. Komise rozvíjí odborné znalosti a schopnosti Unie v oblasti umělé inteligence prostřednictvím úřadu pro AI.
2. Medlemsstaterne letter de opgaver, der overdrages til AI-kontoret, som afspejlet i denne forordning.
2. Členské státy usnadní plnění úkolů svěřených úřadu pro AI, jak je uvedeno v tomto nařízení.
Artikel 65
Článek 65
Oprettelse af Det Europæiske Udvalg for Kunstig Intelligens og dets struktur
Zřízení a struktura Evropské rady pro umělou inteligenci
1. Der oprettes herved et Europæisk Udvalg for Kunstig Intelligens (»AI-udvalget«).
1. Zřizuje se „Evropská rada pro umělou inteligenci“ (dále jen „rada“).
2. AI-udvalget består af én repræsentant pr. medlemsstat. Den Europæiske Tilsynsførende for Databeskyttelse deltager som observatør. AI-kontoret deltager også i AI-udvalgets møder uden at deltage i afstemningerne. AI-udvalget kan indbyde andre nationale myndigheder, organer eller eksperter og EU-myndigheder, -organer eller -eksperter til møderne fra sag til sag, hvis de spørgsmål, der drøftes, er relevante for dem.
2. Členy rady jsou zástupci členských států, za každý členský stát vždy jeden. Jako pozorovatel je zapojen evropský inspektor ochrany údajů. Na zasedáních rady je rovněž přítomen úřad pro AI, který se však neúčastní hlasování. Rada může v jednotlivých případech přizvat na zasedání další vnitrostátní a unijní orgány, subjekty nebo odborníky z členských států a Unie v případě, že jsou pro ně projednávané otázky relevantní.
3. Hver repræsentant udpeges af deres medlemsstat for en periode på tre år, der kan forlænges én gang.
3. Členský stát jmenuje svého zástupce na dobu tří let, přičemž tuto dobu lze jednou prodloužit.
4. Medlemsstaterne sikrer, at deres repræsentanter i AI-udvalget:
4. Členské státy zajistí, aby jejich zástupci v radě:
a)
har de relevante kompetencer og beføjelser i deres medlemsstat til at kunne bidrage aktivt til udførelsen af AI-udvalgets opgaver, der er omhandlet i artikel 66
a)
měli ve svém členském státě příslušné kompetence a pravomoci, a mohli se tak aktivně podílet na plnění úkolů rady uvedených v článku 66;
b)
udpeges som eneste kontaktpunkt for AI-udvalget og, hvis det er relevant, idet der tages hensyn til medlemsstaternes behov, som eneste kontaktpunkt for interessenter
b)
byli určeni jako jediné kontaktní osoby pro radu a případně, s ohledem na potřeby členských států, jako jediné kontaktní osoby pro zúčastněné strany;
c)
har beføjelse til at lette sammenhæng og koordinering mellem de nationale kompetente myndigheder i deres medlemsstat for så vidt angår gennemførelsen af denne forordning, herunder gennem indsamling af relevante data og oplysninger med henblik på udførelse af deres opgaver i AI-udvalget.
c)
měli pravomoc usnadňovat jednotnost a koordinaci mezi příslušnými vnitrostátními orgány ve svém členském státě, pokud jde o provádění tohoto nařízení, mimo jiné shromažďováním příslušných údajů a informací pro účely plnění svých úkolů v rámci rady.
5. De udpegede repræsentanter for medlemsstaterne vedtager AI-udvalgets forretningsorden med to tredjedeles flertal. Forretningsordenen fastlægger navnlig procedurer for udvælgelsesprocessen, varigheden af mandatet for og en beskrivelse af formandskabets opgaver, de nærmere afstemningsordninger og tilrettelæggelsen af AI-udvalgets og dets undergruppers aktiviteter.
5. Určení zástupci členských států přijmou dvoutřetinovou většinou jednací řád rady. Jednací řád zejména stanoví postupy pro výběrové řízení, dobu trvání mandátu předsedy a jeho konkrétní úkoly, podrobná ustanovení pro hlasování a organizaci činností rady a jejích podskupin.
6. AI-udvalget opretter to stående undergrupper for at tilvejebringe en platform for samarbejde og udveksling mellem markedsovervågningsmyndighederne og underretning af myndigheder om spørgsmål vedrørende henholdsvis markedsovervågning og bemyndigede organer.
6. Rada zřídí dvě stálé podskupiny, které poskytují platformu pro spolupráci a výměnu mezi orgány dozoru nad trhem a oznamujícími orgány v otázkách týkajících se dozoru nad trhem a oznámených subjektů.
Den stående undergruppe for markedsovervågning bør fungere som den administrative samarbejdsgruppe (ADCO) i forbindelse med denne forordning som omhandlet i artikel 30 i forordning (EU) 2019/1020.
Stálá podskupina pro dozor nad trhem by měla působit jako skupina pro správní spolupráci (ADCO) pro toto nařízení ve smyslu článku 30 nařízení (EU) 2019/1020.
AI-udvalget kan i relevant omfang nedsætte andre stående eller midlertidige undergrupper med henblik på at behandle specifikke spørgsmål. Hvis det er relevant, kan repræsentanter for det rådgivende forum omhandlet i artikel 67 indbydes til sådanne undergrupper eller til specifikke møder i disse undergrupper som observatører.
Rada může pro účely zkoumání konkrétních otázek podle potřeby zřizovat další stálé nebo dočasné podskupiny. K účasti na těchto podskupinách nebo na konkrétní zasedání těchto podskupin mohou být jako pozorovatelé případně přizváni zástupci poradního fóra uvedeného v článku 67.
7. AI-udvalget skal være organiseret og arbejde på en sådan måde, at der i dets arbejde sikres objektivitet og uvildighed.
7. Rada je organizována a provozována tak, aby byla zaručena objektivita a nestrannost jejích činností.
8. AI-udvalgets formandskab varetages af en af repræsentanterne for medlemsstaterne. AI-kontoret varetager sekretariatsfunktionen for AI-udvalget, indkalder til møderne efter anmodning fra formanden og udarbejder dagsordenen i overensstemmelse med AI-udvalgets opgaver i henhold til denne forordning og dens forretningsorden.
8. Radě předsedá jeden ze zástupců členských států. Úřad pro AI poskytuje radě sekretariát, na žádost předsedy svolává zasedání a připravuje pořad jednání v souladu s úkoly rady podle tohoto nařízení a s jejím jednacím řádem.
Artikel 66
Článek 66
AI-udvalgets opgaver
Úkoly rady
AI-udvalget rådgiver og bistår Kommissionen og medlemsstaterne med henblik på at lette en ensartet og effektiv anvendelse af denne forordning. Med henblik herpå kan AI-udvalget navnlig:
Rada poskytuje poradenství a je nápomocna Komisi a členským státům s cílem usnadnit jednotné a účinné uplatňování tohoto nařízení. Za tímto účelem může rada zejména:
a)
bidrage til koordineringen mellem de nationale kompetente myndigheder, der er ansvarlige for anvendelsen af denne forordning, og i samarbejde og efter aftale med de pågældende markedsovervågningsmyndigheder støtte markedsovervågningsmyndigheders fælles aktiviteter, der er omhandlet i artikel 74, stk. 11
a)
přispívat ke koordinaci mezi příslušnými vnitrostátními orgány odpovědnými za uplatňování tohoto nařízení a ve spolupráci s dotčenými orgány dozoru nad trhem a s výhradou jejich souhlasu podporovat společné činnosti orgánů dozoru nad trhem uvedené v čl. 74 odst. 11;
b)
indsamle og udveksle teknisk og reguleringsmæssig ekspertise og bedste praksis blandt medlemsstaterne
b)
shromažďovat a sdílet technické a regulační odborné znalosti a osvědčené postupy mezi členskými státy;
c)
yde rådgivning om gennemførelsen af denne forordning, navnlig med hensyn til håndhævelsen af reglerne om AI-modeller til almen brug
c)
poskytovat poradenství ohledně provádění tohoto nařízení, zejména pokud jde o prosazování pravidel týkajících se obecných modelů AI;
d)
bidrage til harmonisering af administrative former for praksis i medlemsstaterne, herunder i forbindelse med undtagelsen fra de overensstemmelsesvurderingsprocedurer, der er omhandlet i artikel 46, reguleringsmæssige AI-sandkassers funktion og afprøvning under faktiske forhold, der er omhandlet i artikel 57, 59 og 60
d)
přispívat k harmonizaci správní praxe v členských státech, a to i v souvislosti s odchylkou od postupů posuzování shody podle článku 46, fungováním regulačních sandboxů pro AI a testováním v reálných podmínkách podle článků 57, 59 a 60;
e)
på anmodning af Kommissionen eller på eget initiativ fremsætte henstillinger og afgive skriftlige udtalelser om alle relevante spørgsmål vedrørende gennemførelsen af denne forordning og dens ensartede og effektive anvendelse, herunder:
e)
na žádost Komise nebo z vlastního podnětu vydávat doporučení a písemná stanoviska k veškerým relevantním záležitostem souvisejícím s prováděním tohoto nařízení a s jeho jednotným a účinným uplatňováním, a to i ohledně:
i)
om udarbejdelse og anvendelse af adfærdskodekser og praksiskodekser i henhold til denne forordning samt af Kommissionens retningslinjer
i)
vypracování a uplatňování kodexů chování a kodexů správné praxe podle tohoto nařízení, jakož i pokynů Komise;
ii)
evalueringen og revisionen af denne forordning i medfør af artikel 112, herunder for så vidt angår de indberetninger af alvorlige hændelser, der er omhandlet i artikel 73, og funktionen af den EU-database, der er omhandlet i artikel 71, udarbejdelsen af delegerede retsakter eller gennemførelsesretsakter og for så vidt angår eventuelle tilpasninger af denne forordning til den EU-harmoniseringslovgivning, der er opført i bilag I
ii)
hodnocení a přezkumu tohoto nařízení podle článku 112, a to i pokud jde o zprávy o závažných incidentech uvedené v článku 73, fungování databáze EU uvedené v článku 71 a přípravu aktů v přenesené pravomoci nebo prováděcích aktů a pokud jde o možné sladění tohoto nařízení s harmonizačními právními předpisy Unie uvedenými v příloze I;
iii)
om tekniske specifikationer eller eksisterende standarder vedrørende de i kapitel III, afdeling 2, fastsatte krav
iii)
technických specifikací nebo stávajících norem týkajících se požadavků stanovených v kapitole III oddíle 2;
iv)
om anvendelsen af harmoniserede standarder eller fælles specifikationer, der er omhandlet i artikel 40 og 41
iv)
používání harmonizovaných norem nebo společných specifikací uvedených v článcích 40 a 41;
v)
tendenser såsom europæisk global konkurrenceevne inden for AI, udbredelsen af AI i Unionen og udviklingen af digitale færdigheder
v)
trendů, jako je evropská globální konkurenceschopnost v oblasti AI, zavádění AI v Unii a rozvoje digitálních dovedností;
vi)
tendenser vedrørende udviklingen i typologien af AI-værdikæder, navnlig vedrørende de deraf følgende konsekvenser med hensyn til ansvarlighed
vi)
trendů týkajících se rozvíjející se typologie hodnotových řetězců AI, zejména pokud jde o konečné důsledky z hlediska odpovědnosti;
vii)
om det potentielle behov for ændring af bilag III i overensstemmelse med artikel 7 og om det potentielle behov for en eventuel revision af artikel 5 i medfør af artikel 112 under hensyntagen til relevant tilgængelig dokumentation og den seneste teknologiske udvikling
vii)
možné potřeby změny přílohy III v souladu s článkem 7 a možné potřeby případné revize článku 5 podle článku 112 s přihlédnutím k relevantním dostupným důkazům a nejnovějšímu technologickému vývoji;
f)
støtte Kommissionen i at fremme AI-færdigheder, offentlighedens kendskab til og forståelse af fordele, risici, sikkerhedsforanstaltninger og rettigheder og forpligtelser i forbindelse med anvendelsen af AI-systemer
f)
napomáhat Komisi při podpoře gramotnosti v oblasti AI a zvyšování povědomí a informovanosti veřejnosti o přínosech, rizicích, zárukách a právech a povinnostech v souvislosti s používáním systémů AI;
g)
lette udarbejdelsen af fælles kriterier og en fælles forståelse blandt markedsoperatører og kompetente myndigheder af de relevante begreber i denne forordning, herunder ved at bidrage til udarbejdelse af benchmarks
g)
usnadňovat rozvoj společných kritérií a společný výklad příslušných pojmů stanovených v tomto nařízení ze strany hospodářských subjektů a příslušných orgánů, a mimo jiné v tomto ohledu přispět k vypracování referenčních hodnot;
h)
samarbejde, alt efter hvad der er relevant, med andre EU-institutioner, -organer, -kontorer og -agenturer samt relevante EU-ekspertgrupper og -netværk, navnlig inden for produktsikkerhed, cybersikkerhed, konkurrence, digitale tjenester og medietjenester, finansielle tjenesteydelser, forbrugerbeskyttelse, databeskyttelse og beskyttelse af grundlæggende rettigheder
h)
podle potřeby spolupracovat s dalšími orgány, institucemi nebo jinými subjekty Unie, jakož i s příslušnými skupinami a sítěmi odborníků Unie, zejména v oblasti bezpečnosti produktů, kybernetické bezpečnosti, hospodářské soutěže, digitálních a mediálních služeb, finančních služeb, ochrany spotřebitele, dat a základních práv;
i)
bidrage til et effektivt samarbejde med de kompetente myndigheder i tredjelande og med internationale organisationer
i)
přispívat k účinné spolupráci s příslušnými orgány třetích zemí a s mezinárodními organizacemi;
j)
bistå de nationale kompetente myndigheder og Kommissionen med udviklingen af den organisatoriske og tekniske ekspertise, der er nødvendig for gennemførelsen af denne forordning, herunder ved at bidrage til vurderingen af uddannelsesbehovene for personale i de medlemsstater, der er involveret i gennemførelsen af denne forordning
j)
pomáhat příslušným vnitrostátním orgánům a Komisi při rozvoji organizačních a technických odborných znalostí potřebných pro provádění tohoto nařízení, mimo jiné přispíváním k posuzování potřeb odborné přípravy pracovníků členských států zapojených do provádění tohoto nařízení;
k)
bistå AI-kontoret med at støtte de nationale kompetente myndigheder i etableringen og udviklingen af reguleringsmæssige AI-sandkasser og lette samarbejdet og informationsudvekslingen mellem reguleringsmæssige AI-sandkasser
k)
pomáhat úřadu pro AI při podpoře příslušných vnitrostátních orgánů při zřizování a rozvoji regulačních sandboxů pro AI a usnadňovat spolupráci a sdílení informací mezi regulačními sandboxy pro AI;
l)
bidrage til og yde relevant rådgivning om udarbejdelsen af vejledningsdokumenter
l)
přispívat k vypracování pokynů a poskytovat v této oblasti relevantní poradenství;
m)
rådgive Kommissionen i forbindelse med internationale spørgsmål om AI
m)
poskytovat Komisi poradenství ve vztahu k mezinárodním záležitostem týkajícím se AI;
n)
afgive udtalelser til Kommissionen om de kvalificerede varslinger vedrørende AI-modeller til almen brug
n)
poskytovat Komisi stanoviska ke kvalifikovaným výstrahám ohledně obecných modelů AI;
o)
modtage udtalelser fra medlemsstaterne om kvalificerede varslinger vedrørende AI-modeller til almen brug og om nationale erfaringer og praksis vedrørende overvågning og håndhævelse af AI-systemer, navnlig de systemer, der integrerer AI-modeller til almen brug.
o)
přijímat od členských států stanoviska ke kvalifikovaným výstrahám týkajícím se obecných modelů AI a k vnitrostátním zkušenostem a postupům v oblasti monitorování a prosazování systémů AI, zejména systémů, které integrují obecné modely AI.
Artikel 67
Článek 67
Det rådgivende forum
Poradní fórum
1. Der oprettes et rådgivende forum til at yde teknisk ekspertise til og rådgive AI-udvalget og Kommissionen og bidrage til deres opgaver i henhold til denne forordning.
1. Zřizuje se poradní fórum, jehož úkolem je poskytovat technické odborné znalosti a poskytovat poradenství radě a Komisi a přispívat k jejich úkolům vyplývajícím z tohoto nařízení.
2. Det rådgivende forums medlemmer skal repræsentere et afbalanceret udvalg af interessenter, herunder industrien, iværksættervirksomheder, SMV'er, civilsamfundet og den akademiske verden. Der skal være balance mellem det rådgivende forums medlemmer med hensyn til kommercielle og ikkekommercielle interesser og inden for kategorien af kommercielle interesser med hensyn til SMV'er og andre virksomheder.
2. Složení poradního fóra je vyváženým výběrem zúčastněných stran, včetně průmyslu, začínajících podniků, malých a středních podniků, občanské společnosti a akademické obce. Složení poradního fóra je vyvážené s ohledem na komerční i nekomerční zájmy a v rámci kategorie komerčních zájmů musí být vyvážený také poměr malých a středních podniků a jiných podniků.
3. Kommissionen udpeger medlemmerne af det rådgivende forum i overensstemmelse med kriterierne i stk. 2 blandt interessenter med anerkendt ekspertise inden for AI.
3. Komise jmenuje členy poradního fóra v souladu s kritérii stanovenými v odstavci 2 z řad zúčastněných stran, kteří mají uznávané odborné znalosti v oblasti AI.
4. Mandatperioden for medlemmerne af det rådgivende forum er to år, som kan forlænges med højst fire år.
4. Funkční období členů poradního fóra je dvouleté a nelze je prodloužit více než dvakrát po sobě.
5. Agenturet for Grundlæggende Rettigheder, ENISA, Den Europæiske Standardiseringsorganisation (CEN), Den Europæiske Komité for Elektroteknisk Standardisering (Cenelec) og Det Europæiske Standardiseringsinstitut for Telekommunikation (ETSI) er permanente medlemmer af det rådgivende forum.
5. Stálými členy poradního fóra jsou Agentura pro základní práva, Agentura Evropské unie pro kybernetickou bezpečnost (ENISA), Evropský výbor pro normalizaci (CEN), Evropský výbor pro normalizaci v elektrotechnice (CENELEC) a Evropský ústav pro telekomunikační normy (ETSI).
6. Det rådgivende forum fastsætter selv sin forretningsorden. Det vælger to medformænd blandt sine medlemmer i overensstemmelse med kriterierne i stk. 2. Medformændenes mandatperiode er på to år og kan forlænges én gang.
6. Poradní fórum vypracuje svůj jednací řád. Ze svých členů volí dva spolupředsedy v souladu s kritérii stanovenými v odstavci 2. Funkční období spolupředsedů je dvouleté a lze je jednou prodloužit.
7. Det rådgivende forum afholder møder mindst to gange om året. Det rådgivende forum kan indbyde eksperter og andre interessenter til sine møder.
7. Zasedání poradního fóra se konají alespoň dvakrát ročně. Poradní fórum může na svá zasedání přizvat odborníky a další zúčastněné strany.
8. Det rådgivende forum kan udarbejde udtalelser, anbefalinger og skriftlige bidrag på anmodning af AI-udvalget eller Kommissionen.
8. Poradní fórum může na žádost rady nebo Komise vypracovávat stanoviska, doporučení a písemné příspěvky.
9. Det rådgivende forum kan oprette stående eller midlertidige underudvalg, alt efter hvad der er relevant med henblik på undersøgelse af specifikke spørgsmål vedrørende denne forordnings formål.
9. Poradní fórum může podle potřeby zřídit stálé nebo dočasné podskupiny pro účely posuzování konkrétních otázek souvisejících s cíli tohoto nařízení.
10. Det rådgivende forum udarbejder en årlig rapport om sine aktiviteter. Denne rapport offentliggøres.
10. Poradní fórum vypracuje výroční zprávu o své činnosti. Tato zpráva se zveřejní.
Artikel 68
Článek 68
Videnskabeligt panel af uafhængige eksperter
Vědecká komise nezávislých odborníků
1. Kommissionen fastsætter ved hjælp af en gennemførelsesretsakt bestemmelser om oprettelse af et videnskabeligt panel af uafhængige eksperter (»det videnskabelige panel«), der skal støtte håndhævelsesaktiviteterne i henhold til denne forordning. Denne gennemførelsesretsakt vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
1. Komise přijme prostřednictvím prováděcího aktu ustanovení o zřízení vědecké komise nezávislých odborníků (dále jen „vědecká komise“), jejímž úkolem je podporovat činnosti v oblasti prosazování práva podle tohoto nařízení. Tento prováděcí akt se přijme přezkumným postupem uvedeným v čl. 98 odst. 2.
2. Det videnskabelige panel skal bestå af eksperter, der udvælges af Kommissionen på grundlag af den ajourførte videnskabelige eller tekniske ekspertise inden for AI, der er nødvendig med henblik på de opgaver, der er fastsat i stk. 3, og skal kunne påvise, at alle følgende betingelser er opfyldt:
2. Vědecká komise se skládá z odborníků vybraných Komisí na základě aktuálních vědeckých nebo technických odborných znalostí v oblasti AI nezbytných pro plnění úkolů stanovených v odstavci 3 a je schopna prokázat splnění všech těchto podmínek:
a)
særlig ekspertise og kompetence og videnskabelig eller teknisk ekspertise inden for AI
a)
má v oblasti AI zvláštní odborné znalosti a schopnosti a odborné znalosti vědecké nebo technické povahy;
b)
uafhængighed af udbydere af AI-systemer eller AI-modeller til almen brug
b)
není závislá na žádném poskytovateli systémů AI nebo obecných modelů AI;
c)
evne til at udføre aktiviteter omhyggeligt, nøjagtigt og objektivt.
c)
je schopna vykonávat činnosti s náležitou péčí, přesně a objektivně.
Kommissionen fastsætter i samråd med AI-udvalget antallet af eksperter i panelet i overensstemmelse med de nødvendige behov og sikrer en fair kønsmæssig og geografisk repræsentation.
Komise za konzultace s radou určí počet odborníků v komisi v souladu s požadovanými potřebami a zajistí spravedlivé genderové a zeměpisné zastoupení.
3. Det videnskabelige panel rådgiver og støtter AI-kontoret, navnlig med hensyn til følgende opgaver:
3. Vědecká komise poskytuje poradenství a podporu úřadu pro AI, zejména pokud jde o tyto úkoly:
a)
støtte gennemførelsen og håndhævelsen af denne forordning for så vidt angår AI-modeller og -systemer til almen brug, navnlig ved at:
a)
podpora provádění a prosazování tohoto nařízení, pokud jde o obecné modely a systémy AI, přičemž zejména:
i)
varsle AI-kontoret om mulige systemiske risici på EU-plan ved AI-modeller til almen brug i overensstemmelse med artikel 90
i)
upozorňuje úřad pro AI na možná systémová rizika na úrovni Unie, pokud jde o obecné modely AI v souladu s článkem 90;
ii)
bidrage til udvikling af værktøjer og metoder til at evaluere kapaciteterne i AI-modeller og -systemer til almen brug, herunder gennem benchmarks
ii)
přispívá k vývoji nástrojů a metodik pro hodnocení schopností obecných modelů a systémů AI, mimo jiné prostřednictvím referenčních hodnot;
iii)
yde rådgivning om klassificering af AI-modeller til almen brug med systemisk risiko
iii)
poskytuje poradenství ohledně klasifikace obecných modelů AI se systémovým rizikem;
iv)
yde rådgivning om klassificering af forskellige AI-modeller og -systemer til almen brug
iv)
poskytuje poradenství ohledně klasifikace různých obecných modelů a systémů AI;
v)
bidrage til udviklingen af værktøjer og skabeloner
v)
přispívá k vývoji nástrojů a šablon;
b)
støtte markedsovervågningsmyndighederne arbejde efter disses anmodning
b)
podpora činnosti orgánů dozoru nad trhem, a to na jejich žádost;
c)
støtte grænseoverskridende markedsovervågningsaktiviteter som omhandlet i artikel 74, stk. 11, uden at dette berører markedsovervågningsmyndighedernes beføjelser
c)
podpora přeshraniční činnosti dozoru nad trhem podle čl. 74 odst. 11, aniž jsou dotčeny pravomoci orgánů dozoru nad trhem;
d)
støtte AI-kontoret i udførelsen af dets opgaver inden for rammerne af EU-beskyttelsesproceduren i henhold til artikel 81.
d)
podpora úřadu pro AI při plnění jeho povinností v souvislosti s ochranným postupem Unie podle článku 81.
4. Eksperterne i det videnskabelige panel udfører deres opgaver uvildigt og objektivt og sikrer fortroligheden af de oplysninger og data, der er indhentet under udførelsen af deres opgaver og aktiviteter. De må hverken søge eller modtage instrukser fra nogen, når de udfører deres opgaver i henhold til stk. 3. Hver ekspert udfærdiger en interesseerklæring, der gøres offentligt tilgængelig. AI-kontoret etablerer systemer og procedurer til aktivt at håndtere og forebygge potentielle interessekonflikter.
4. Odborníci v rámci vědecké komise plní své úkoly nestranně a objektivně a zajišťují důvěrnost informací a údajů získaných při plnění svých úkolů a činností. Při plnění svých úkolů podle odstavce 3 od nikoho nevyžadují ani nepřijímají pokyny. Každý odborník vypracuje prohlášení o zájmech, které je veřejně dostupné. Úřad o AI zavede systémy a postupy s cílem aktivně řídit případné střety zájmů a zabránit jim.
5. Den gennemførelsesretsakt, der er omhandlet i stk. 1, skal indeholde bestemmelser om betingelserne, procedurerne og de nærmere ordninger for, hvordan det videnskabelige panel og dets medlemmer kan sende varslinger og anmode AI-kontoret om bistand til udførelsen af det videnskabelige panels opgaver.
5. Prováděcí akt uvedený v odstavci 1 obsahuje ustanovení o podmínkách, postupech a podrobných opatřeních pro vědeckou komisi a její členy při vydávání výstrah a při žádosti o pomoc úřadu pro AI při plnění úkolů vědecké komise.
Artikel 69
Článek 69
Medlemsstaternes adgang til puljen af eksperter
Přístup ke skupině odborníků ze strany členských států
1. Medlemsstaterne kan anmode eksperter i det videnskabelige panel om at støtte deres håndhævelsesaktiviteter i henhold til denne forordning.
1. Členské státy mohou požádat odborníky vědecké komise o podporu svých činností v oblasti prosazování práva podle tohoto nařízení.
2. Medlemsstaterne kan pålægges at betale gebyrer for den rådgivning og støtte, som eksperterne yder. Gebyrernes struktur og størrelse samt størrelsen og strukturen af de omkostninger, der kan kræves erstattet, fastsættes i den gennemførelsesretsakt, der er omhandlet i artikel 68, stk. 1, under hensyntagen til målene om en passende gennemførelse af denne forordning, omkostningseffektivitet og nødvendigheden af at sikre, at alle medlemsstater har effektiv adgang til eksperter.
2. Za poradenství a podporu poskytnuté odborníky mohou být od členských států žádány poplatky. Struktura a výše poplatků, jakož i rozsah a struktura nahraditelných nákladů, se stanoví prostřednictvím prováděcího aktu uvedeného v čl. 68 odst. 1, přičemž se zohlední cíle náležitého provádění tohoto nařízení, nákladová efektivnost a nutnost zajistit, aby všechny členské státy měly k odborníkům účinný přístup.
3. Kommissionen letter medlemsstaternes rettidige adgang til eksperterne efter behov og sikrer, at kombinationen af støtteaktiviteter, som udføres af EU-AI-afprøvningsstøtte i henhold til artikel 84, og eksperter i henhold til nærværende artikel tilrettelægges effektivt og giver den bedst mulige merværdi.
3. Komise podle potřeby usnadní členským státům včasný přístup k odborníkům a zajistí, aby kombinace podpůrných činností prováděných prostřednictvím podpůrných unijních struktur pro testování AI podle článku 84 a odborníky podle tohoto článku byla účinně organizována a přinášela maximální přidanou hodnotu.
AFDELING 2
ODDÍL 2
Nationale kompetente myndigheder
Příslušné vnitrostátní orgány
Artikel 70
Článek 70
Udpegelse af nationale kompetente myndigheder og centrale kontaktpunkter
Určení příslušných vnitrostátních orgánů a jednotného kontaktního místa
1. Hver medlemsstat opretter eller udpeger som nationale kompetente myndigheder mindst én bemyndigende myndighed og mindst én markedsovervågningsmyndighed med henblik på denne forordning. Disse nationale kompetente myndigheder udøver deres beføjelser uafhængigt, upartisk og uden bias for derved at beskytte objektiviteten i deres aktiviteter og opgaver og for at sikre anvendelsen og gennemførelsen af denne forordning. Medlemmerne af disse myndigheder afholder sig fra ethvert tiltag, som er uforenelig med deres hverv. Forudsat at disse principper overholdes, kan sådanne aktiviteter og opgaver udføres af en eller flere udpegede myndigheder i overensstemmelse med medlemsstatens organisatoriske behov.
1. Pro účely tohoto nařízení každý členský stát zřídí nebo určí jakožto příslušné vnitrostátní orgány alespoň jeden oznamující orgán a alespoň jeden orgán dozoru nad trhem. Tyto příslušné vnitrostátní orgány vykonávají své pravomoci nezávisle, nestranně a nezaujatě, aby chránily objektivitu svých činností a úkolů a zajistily uplatňování a provádění tohoto nařízení. Členové těchto orgánů se zdrží jakéhokoliv jednání neslučitelného s povahou svých povinností. Jsou-li uvedené zásady dodrženy, mohou být takové činnosti a úkoly prováděny jedním nebo několika určenými orgány v souladu s organizačními potřebami členského státu.
2. Medlemsstaterne meddeler Kommissionen identiteten af de bemyndigende myndigheder og markedsovervågningsmyndighederne og disse myndigheders opgaver samt eventuelle efterfølgende ændringer heraf. Medlemsstaterne offentliggør senest den 2. august 2025 oplysninger om, hvordan de kompetente myndigheder og de centrale kontaktpunkter kan kontaktes ved hjælp af elektroniske kommunikationsmidler. Medlemsstaterne udpeger en markedsovervågningsmyndighed til at fungere som centralt kontaktpunkt for denne forordning og underretter Kommissionen om identiteten af det centrale kontaktpunkt. Kommissionen offentliggør en liste over de centrale kontaktpunkter.
2. Členské státy sdělí Komisi totožnost oznamujících orgánů a orgánů dozoru nad trhem a úkoly těchto orgánů, jakož i veškeré jejich následné změny. Členské státy zveřejní informace o způsobu, jímž lze příslušné orgány a jednotná kontaktní místa kontaktovat prostřednictvím elektronických komunikačních prostředků, a to do 2. srpna 2025. Členské státy určí orgán dozoru nad trhem, který bude působit jako jednotné kontaktní místo pro toto nařízení, a Komisi totožnost tohoto jednotného kontaktního místa oznámí. Komise zveřejní seznam jednotných kontaktních míst.
3. Medlemsstaterne sikrer, at deres nationale kompetente myndigheder tilføres tilstrækkelige tekniske, finansielle og menneskelige ressourcer og infrastruktur, til at de kan udføre deres opgaver effektivt i henhold til denne forordning. De nationale kompetente myndigheder skal navnlig råde over et tilstrækkeligt antal medarbejdere på fast basis, hvis kompetencer og ekspertise spænder over en indgående forståelse af AI-teknologier, data og databehandling, beskyttelse af personoplysninger, cybersikkerhed, grundlæggende rettigheder, sundheds- og sikkerhedsrisici og viden om gældende standarder og retlige krav. Medlemsstaterne skal årligt vurdere og om nødvendigt ajourføre de kompetence- og ressourcebehov, der er omhandlet i dette stykke.
3. Členské státy zajistí, aby jejich příslušným vnitrostátním orgánům byly poskytnuty odpovídající technické, finanční a lidské zdroje a infrastruktura, které jim umožní účinně plnit úkoly podle tohoto nařízení. Příslušné vnitrostátní orgány mají zejména trvale k dispozici dostatečný počet pracovníků, jejichž způsobilost a odborné znalosti zahrnují důkladné porozumění technologiím AI, údajům a výpočtu údajů, ochraně osobních údajů, kybernetické bezpečnosti, základním právům a zdravotním a bezpečnostním rizikům, jakož i znalost platných norem a právních předpisů. Členské státy požadavky na odbornost a zdroje uvedené v tomto odstavci každoročně posoudí a v případě potřeby aktualizují.
4. De nationale kompetente myndigheder skal træffe passende foranstaltninger for at sikre et tilstrækkeligt niveau af cybersikkerhed.
4. Příslušné vnitrostátní orgány přijmou vhodná opatření k zajištění kybernetické bezpečnosti na náležité úrovni.
5. De nationale kompetente myndigheder handler i forbindelse med udførelsen af deres opgaver i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
5. Při plnění svých úkolů jedná příslušný vnitrostátní orgán v souladu s povinnostmi týkajícími se důvěrnosti stanovenými v článku 78.
6. Senest den 2. august 2025 og én gang hvert andet år derefter aflægger medlemsstaterne rapport til Kommissionen om status for de nationale kompetente myndigheders finansielle og menneskelige ressourcer med en vurdering af deres tilstrækkelighed. Kommissionen videresender disse oplysninger til AI-udvalget med henblik på drøftelse og eventuelle henstillinger.
6. Do 2. srpna 2025, a poté jednou za dva roky, předloží členské státy Komisi zprávu o stavu finančních a lidských zdrojů příslušných vnitrostátních orgánů a posoudí jejich přiměřenost. Komise předá tyto informace radě k projednání a případným doporučením.
7. Kommissionen letter udvekslingen af erfaringer mellem de nationale kompetente myndigheder.
7. Komise usnadňuje výměnu zkušeností mezi příslušnými vnitrostátními orgány.
8. De nationale kompetente myndigheder kan yde vejledning og rådgivning om gennemførelsen af denne forordning, navnlig til SMV'er, herunder iværksættervirksomheder, under hensyntagen til AI-udvalgets og Kommissionens vejledning og rådgivning, alt efter hvad der er relevant. Når de nationale kompetente myndigheder agter at yde vejledning og rådgivning i forbindelse med et AI-system på områder, der er omfattet af anden EU-ret, skal de nationale kompetente myndigheder i henhold til denne EU-ret høres, alt efter hvad der er relevant.
8. Příslušné vnitrostátní orgány mohou poskytovat pokyny a poradenství ohledně provádění tohoto nařízení, zejména malým a středním podnikům, včetně podniků začínajících, přičemž případně zohlední pokyny a poradenství rady a Komise. Kdykoli mají příslušné vnitrostátní orgány v úmyslu poskytnout pokyny a rady týkající se systému AI v oblastech, na které se vztahuje jiné právo Unie, vedou podle potřeby konzultaci s vnitrostátními orgány příslušnými podle tohoto práva Unie.
9. Hvis EU-institutioner, -organer, -kontorer eller -agenturer er omfattet af denne forordnings anvendelsesområde, fungerer Den Europæiske Tilsynsførende for Databeskyttelse som den kompetente myndighed for tilsynet med dem.
9. Pokud do oblasti působnosti tohoto nařízení spadají orgány, instituce nebo jiné subjekty Unie, jako orgán příslušný pro dohled nad nimi jedná evropský inspektor ochrany údajů.
KAPITEL VIII
KAPITOLA VIII
EU-DATABASE FOR HØJRISIKO-AI-SYSTEMER
DATABÁZE EU OBSAHUJÍCÍ VYSOCE RIZIKOVÉ SYSTÉMY AI
Artikel 71
Článek 71
EU-database for højrisiko-AI-systemer opført i bilag III
Databáze EU obsahující vysoce rizikové systémy AI uvedené v příloze III
1. Kommissionen opretter og vedligeholder i samarbejde med medlemsstaterne en EU-database med de i denne artikels stk. 2 og 3 omhandlede oplysninger vedrørende højrisiko-AI-systemer, jf. artikel 6, stk. 2, som er registreret i overensstemmelse med artikel 49 og 60, og AI-systemer, der ikke anses som højrisiko-AI-systemer i henhold til artikel 6, stk. 3, og som er registeret i overensstemmelse med artikel 6, stk. 4, og artikel 49. Ved fastsættelsen af funktionsspecifikationerne for en sådan database hører Kommissionen de relevante eksperter og, når den ajourfører funktionsspecifikationerne for en sådan database, hører Kommissionen AI-udvalget.
1. Komise ve spolupráci s členskými státy zřizuje a udržuje databázi EU obsahující informace uvedené v odstavcích 2 a 3 tohoto článku ohledně vysoce rizikových systémů AI podle čl. 6 odst. 2, které jsou registrovány v souladu s články 49 a 60 a systémy umělé inteligence, které nejsou považovány za vysoce rizikové podle čl. 6 odst. 3 a které jsou registrovány v souladu s čl. 6 odst. 4 a článkem 49. Při stanovování funkčních specifikací takové databáze Komise konzultuje příslušné odborníky a při aktualizaci funkčních specifikací této databáze Komise konzultuje radu.
2. De data, der er anført i bilag VIII, afsnit A og B, indlæses i EU-databasen af udbyderen eller, hvis det er relevant, af den bemyndigede repræsentant.
2. Poskytovatel nebo případně zplnomocněný zástupce vloží do databáze EU údaje uvedené v oddíle A a B přílohy VIII.
3. De data, der er anført i bilag VIII, afsnit C, indlæses i EU-databasen af den idriftsætter, som er eller handler på vegne af en offentlig myndighed eller et offentligt agentur eller organ i overensstemmelse med artikel 49, stk. 3 og 4.
3. Zavádějící subjekt, který je orgánem veřejné moci, agenturou nebo subjektem nebo jedná jejich jménem v souladu s čl. 49 odst. 3 a 4, vloží do databáze EU údaje uvedené v oddíle C přílohy VIII.
4. Med undtagelse af det afsnit, der er omhandlet i artikel 49, stk. 4, og artikel 60, stk. 4, litra c), skal oplysningerne i EU-databasen, der er registreret i overensstemmelse med artikel 49, kunne tilgås og være offentligt tilgængelige på en brugervenlig måde. Oplysningerne bør være lette at finde rundt i og maskinlæsbare. De oplysninger, der registreres i overensstemmelse med artikel 60, må kun være tilgængelige for markedsovervågningsmyndighederne og Kommissionen, medmindre den potentielle udbyder eller udbyderen har givet sit samtykke til, at oplysningerne også gøres tilgængelige for offentligheden.
4. Informace v databázi EU registrované v souladu s článkem 49 jsou s výjimkou oddílu uvedeného v čl. 49 odst. 4 a čl. 60 odst. 4 písm. c) přístupné a veřejně dostupné uživatelsky vstřícným způsobem. Tyto informace by měly být snadno dohledatelné a strojově čitelné. Informace registrované v souladu s článkem 60 jsou přístupné pouze orgánům dozoru nad trhem a Komisi, pokud potenciální poskytovatel nebo poskytovatel nedal souhlas k tomu, aby tyto informace byly rovněž zpřístupněny veřejnosti.
5. EU-databasen må kun indeholde personoplysninger, i det omfang det er nødvendigt for at indsamle og behandle oplysninger i overensstemmelse med denne forordning. Disse oplysninger omfatter navne og kontaktoplysninger på de fysiske personer, der er ansvarlige for registrering af systemet og har retlig beføjelse til at repræsentere udbyderen eller idriftsætteren, alt efter hvad der er relevant.
5. Databáze EU obsahuje osobní údaje pouze v míře nezbytné pro shromažďování a zpracovávání informací v souladu s tímto nařízením. Tyto informace zahrnují jména a kontaktní údaje fyzických osob, které odpovídají za registraci systému a mají zákonnou pravomoc zastupovat poskytovatele nebo případně zavádějící subjekt.
6. Kommissionen er dataansvarlig for EU-databasen. Den stiller tilstrækkelig teknisk og administrativ støtte til rådighed for udbydere, potentielle udbydere og idriftsættere. EU-databasen skal overholde gældende tilgængelighedskrav.
6. Správcem databáze EU je Komise. Poskytovatelům, potenciálním poskytovatelům a zavádějícím subjektům zpřístupní přiměřenou technickou a administrativní podporu. Databáze EU je v souladu s použitelnými požadavky na přístupnost.
KAPITEL IX
KAPITOLA IX
OVERVÅGNING EFTER OMSÆTNINGEN, UDVEKSLING AF OPLYSNINGER OG MARKEDSOVERVÅGNING
MONITOROVÁNÍ PO UVEDENÍ NA TRH, SDÍLENÍ INFORMACÍ A DOZOR NAD TRHEM
AFDELING 1
ODDÍL 1
Overvågning efter omsætningen
Monitorování po uvedení na trh
Artikel 72
Článek 72
Udbydernes overvågning efter omsætningen og plan for overvågning efter omsætningen for højrisiko-AI-systemer
Monitorování prováděné poskytovateli po uvedení vysoce rizikových systémů AI na trh na trh a plán tohoto monitorování
1. Udbyderne skal oprette og dokumentere et system til overvågning efter omsætningen på en måde, der står i et rimeligt forhold til arten af AI-teknologierne og risiciene ved højrisiko-AI-systemet.
1. Poskytovatelé zavedou a zdokumentují systém monitorování po uvedení na trh, a to způsobem, který je přiměřený povaze technologií AI a rizikům daného vysoce rizikového systému AI.
2. Systemet til overvågning efter omsætningen indsamler, dokumenterer og analyserer relevante data, som idriftsætterne kan afgive, eller som kan indsamles via andre kilder, om højrisiko-AI-systemers ydeevne i hele deres levetid, og som giver udbyderen mulighed for at evaluere, at AI-systemerne løbende overholder de i kapitel III, afdeling 2, fastsatte krav. Hvis det er relevant, skal overvågning efter omsætningen omfatte en analyse af interaktionen med andre AI-systemer. Denne forpligtelse omfatter ikke følsomme operationelle data om idriftsættere, som er retshåndhævende myndigheder.
2. Systém monitorování po uvedení na trh aktivně a systematicky shromažďuje, dokumentuje a analyzuje příslušné údaje, které mohou být získávány od zavádějících subjektů nebo které mohou být shromažďovány z jiných zdrojů a které se týkají výkonnosti vysoce rizikových systémů AI po celou dobu jejich životnosti, a umožňuje poskytovateli vyhodnocovat nepřetržitý soulad systémů AI s požadavky stanovenými v kapitole III oddíle 2. Monitorování po uvedení na trh v relevantních případech zahrnuje analýzu interakce s jinými systémy AI. Tato povinnost se nevztahuje na citlivé operativní údaje zavádějících subjektů, které jsou donucovacími orgány.
3. Systemet til overvågning efter omsætningen skal baseres på en plan for overvågning efter omsætningen. Planen for overvågning efter omsætningen skal være en del af den tekniske dokumentation, der er omhandlet i bilag IV. Kommissionen vedtager senest den 2. februar 2026 en gennemførelsesretsakt om detaljerede bestemmelser om en model for planen for overvågning efter omsætningen og listen over elementer, der skal indgå i planen. Denne gennemførelsesretsakt vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
3. Systém monitorování po uvedení na trh je založen na plánu monitorování po uvedení na trh. Plán monitorování po uvedení na trh je součástí technické dokumentace uvedené v příloze IV. Komise do 2. února 2026 přijme prováděcí akt, kterým se stanoví podrobná ustanovení zavádějící vzor plánu monitorování po uvedení na trh a seznam prvků, které mají být do tohoto plánu zahrnuty. Tento prováděcí akt se přijme přezkumným postupem uvedeným v čl. 98 odst. 2.
4. For højrisiko-AI-systemer, der er omfattet af EU-harmoniseringslovgivningen, som er opført i bilag I, afsnit A, hvor der allerede er etableret et system til og en plan for overvågning efter omsætningen i henhold til nævnte lovgivning, skal udbyderne med henblik på at sikre sammenhæng, undgå overlap og minimere yderligere byrder have mulighed for, alt efter hvad der er relevant, at integrere de nødvendige elementer, der er beskrevet i stk. 1, 2 og 3, ved hjælp af den model, der er omhandlet i stk. 3, i allerede eksisterende systemer og planer i henhold til nævnte lovgivning, forudsat at dette opnår et tilsvarende beskyttelsesniveau.
4. V případě vysoce rizikových systémů AI, na něž se vztahují harmonizační právní předpisy Unie uvedené v oddíle A přílohy I a pro něž je již podle uvedených právních předpisů zaveden systém i plán monitorování po uvedení na trh, mají poskytovatelé, s cílem zajistit soudržnost, zabránit zdvojování a minimalizovat další zátěž, možnost volby, zda v příslušných případech začlení nezbytné prvky popsané v odstavcích 1, 2 a 3 za použití šablony uvedené v odstavci 3 do systémů a plánů, které již podle uvedených právních předpisů existují, za předpokladu, že dosáhne rovnocenné úrovně ochrany.
Dette stykkes første afsnit finder også anvendelse på de i bilag III, punkt 5, omhandlede højrisiko-AI-systemer, der bringes i omsætning eller ibrugtages af finansielle institutioner, som er underlagt krav i henhold til EU-retten om finansielle tjenesteydelser for så vidt angår deres interne ledelse, ordninger eller processer.
První pododstavec tohoto odstavce se vztahuje také na vysoce rizikové systémy AI uvedené v bodě 5 přílohy III, které jsou uvedeny na trh nebo do provozu finančními institucemi, na něž se vztahují požadavky práva Unie v oblasti finančních služeb týkající se jejich vnitřní správy, opatření nebo postupů.
AFDELING 2
ODDÍL 2
Udveksling af oplysninger om alvorlige hændelser
Sdílení informací o závažných incidentech
Artikel 73
Článek 73
Indberetning af alvorlige hændelser
Oznamování závažných incidentů
1. Udbydere af højrisiko-AI-systemer, der bringes i omsætning på EU-markedet, indberetter enhver alvorlig hændelse til markedsovervågningsmyndighederne i de medlemsstater, hvor denne hændelse fandt sted.
1. Poskytovatelé vysoce rizikových systémů AI uváděných na trh Unie oznamují jakýkoli závažný incident orgánům dozoru nad trhem v členských státech, v nichž k tomuto incidentu došlo
2. Den i stk. 1 omhandlede indberetning foretages umiddelbart efter, at udbyderen har fastslået en årsagssammenhæng mellem AI-systemet og den alvorlige hændelse eller en rimelig sandsynlighed for en sådan sammenhæng, og under alle omstændigheder senest 15 dage efter, at udbyderen eller, hvor det er relevant, idriftsætteren har fået kendskab til den alvorlige hændelse.
2. Oznámení uvedené v odstavci 1 musí být učiněno neprodleně poté, co poskytovatel zjistí příčinnou souvislost mezi daným systémem AI a daným závažným incidentem nebo přiměřenou pravděpodobnost této souvislosti, v každém případě však nejpozději do patnácti dnů poté, co se poskytovatel případně zavádějící subjekt o daném závažném incidentu dozvěděl.
I den i først afsnit omhandlede frist for indberetning tages der hensyn til den alvorlige hændelses alvor.
Lhůta pro oznámení uvedená v prvním pododstavci zohlední závažnost závažného incidentu.
3. Uanset denne artikels stk. 2 forelægges den i denne artikels stk. 1 omhandlede rapport i tilfælde af en udbredt overtrædelse eller en alvorlig hændelse som defineret i artikel 3, nr. 49), litra b), omgående og senest to dage efter, at udbyderen eller, hvis det er relevant, idriftsætteren har fået kendskab til den pågældende hændelse.
3. Bez ohledu na odstavec 2 tohoto článku se v případě rozsáhlého porušení práva nebo závažného incidentu ve smyslu čl. 3 bodu 49 písm. b) podává oznámení uvedené v odstavci 1 tohoto článku okamžitě, nejpozději však do dvou dnů poté, co se poskytovatel nebo případně zavádějící subjekt o tomto incidentu dozvěděl.
4. Uanset stk. 2 forelægges rapporten i tilfælde af en persons dødsfald umiddelbart efter, at udbyderen eller idriftsætteren har fastslået, eller så snart vedkommende har mistanke om en årsagssammenhæng mellem højrisiko-AI-systemet og den alvorlige hændelse, og senest ti dage efter den dato, hvor udbyderen eller, hvis det er relevant, idriftsætteren har fået kendskab til den alvorlige hændelse.
4. Bez ohledu na odstavec 2 se v případě úmrtí osoby podává oznámení ihned poté, co poskytovatel nebo zavádějící subjekt zjistí příčinnou souvislost mezi vysoce rizikovým systémem AI a závažným incidentem, nebo jakmile má podezření, že taková příčinná souvislost existuje, avšak nejpozději do 10 dnů ode dne, kdy se poskytovatel nebo případně zavádějící subjekt o závažném incidentu dozvěděl.
5. Udbyderen eller, hvis det er relevant, idriftsætteren kan om nødvendigt for at sikre rettidig indberetning forelægge en indledende rapport, som ikke er fyldestgørende, efterfulgt af en fyldestgørende rapport.
5. Je-li to nezbytné k zajištění včasného ohlášení, může poskytovatel nebo případně zavádějící subjekt podat neúplné počáteční oznámení, po němž následuje oznámení úplné.
6. Efter indberetning af en alvorlig hændelse i henhold til stk. 1 skal udbyderen straks foretage de nødvendige undersøgelser vedrørende den alvorlige hændelse og det pågældende AI-system. Dette omfatter en risikovurdering af hændelsen og korrigerende tiltag.
6. Po ohlášení závažného incidentu podle odstavce 1 provede poskytovatel v souvislosti se závažným incidentem a dotčeným systémem AI bezodkladně nezbytná šetření. Ta zahrnují posouzení rizika incidentu a nápravná opatření.
Udbyderen samarbejder med de kompetente myndigheder og, hvis det er relevant, med det berørte bemyndigede organ under de undersøgelser, der er omhandlet i første afsnit, og må ikke foretage nogen undersøgelse, der medfører ændringer af det pågældende AI-system på en sådan måde, at det kan påvirke en efterfølgende evaluering af årsagerne til hændelsen, uden først at orientere de kompetente myndigheder om et sådant tiltag.
Poskytovatel během šetření uvedených v prvním pododstavci spolupracuje s příslušnými orgány a případně s dotčeným oznámeným subjektem a neprovádí žádná šetření, při nichž je daný systém AI upravován způsobem, který může ovlivnit následné vyhodnocení příčin incidentu, dokud o takovém opatření neinformuje příslušné orgány.
7. Når den relevante markedsovervågningsmyndighed modtager en indberetning vedrørende en alvorlig hændelse omhandlet i artikel 3, nr. 49), litra c), underretter den de nationale offentlige myndigheder eller organer, der er omhandlet i artikel 77, stk. 1. Kommissionen udarbejder særlig vejledning for at lette overholdelsen af forpligtelserne i nærværende artikels stk. 1. Denne vejledning udstedes senest den 2. august 2025 og vurderes regelmæssigt.
7. Po obdržení oznámení týkajícího se závažného incidentu uvedeného v čl. 3 bodu 49 písm. c) informuje příslušný orgán dozoru nad trhem vnitrostátní veřejné orgány nebo subjekty veřejného sektoru uvedené v čl. 77 odst. 1. Komise vypracuje zvláštní pokyny s cílem usnadnit plnění povinností stanovených v odstavci 1 tohoto článku. Tyto pokyny se vydají do 2. srpna 2025 a jsou pravidelně vyhodnocovány.
8. Markedsovervågningsmyndigheden træffer passende foranstaltninger, jf. artikel 19 i forordning (EU) 2019/1020, senest syv dage fra den dato, hvor den modtog den i nærværende artikels stk. 1 omhandlede indberetning, og følger indberetningsprocedurerne som fastsat i nævnte forordning.
8. Do sedmi dnů ode dne, kdy obdržel oznámení uvedené v odstavci 1 tohoto článku, přijme orgán dozoru nad trhem vhodná opatření stanovená v článku 19 nařízení (EU) 2019/1020 a řídí se oznamovacími postupy stanovenými v uvedeném nařízení.
9. I forbindelse med de i bilag III omhandlede højrisiko-AI-systemer, der bringes i omsætning eller ibrugtages af udbydere, som er underlagt Unionens lovgivningsmæssige instrumenter om indberetningsforpligtelser svarende til dem, der er fastsat i denne forordning, begrænses indberetningen af alvorlige hændelser til dem, der er omhandlet i artikel 3, nr. 49), litra c).
9. U vysoce rizikových systémů AI podle přílohy III, které jsou uvedeny na trh nebo do provozu poskytovateli, na něž se vztahují legislativní nástroje Unie, které stanovují oznamovací povinnosti rovnocenné povinnostem stanoveným v tomto nařízení, se oznamování závažných incidentů omezuje na incidenty uvedené v čl. 3 bod 49 písm. c).
10. For højrisiko-AI-systemer, som er sikkerhedskomponenter i udstyr, eller som selv er udstyr, der er omfattet af forordning (EU) 2017/745 og (EU) 2017/746, begrænses indberetningen af alvorlige hændelser til dem, der er omhandlet i nærværende forordnings artikel 3, nr. 49), litra c), og foretages til den nationale kompetente myndighed, som er valgt til dette formål af den medlemsstat, hvor hændelsen fandt sted.
10. U vysoce rizikových systémů AI, které jsou bezpečnostními součástmi zařízení nebo jsou samy zařízeními, na něž se vztahují nařízení (EU) 2017/745 a (EU) 2017/746, se oznamování závažných incidentů omezuje na incidenty, které jsou uvedeny v čl. 3 bodě 49 písm. c) tohoto nařízení, a provádí se u příslušného vnitrostátního orgánu zvoleného pro tento účel členskými státy, v nichž k danému incidentu došlo.
11. De nationale kompetente myndigheder underretter omgående Kommissionen om enhver alvorlig hændelse, uanset om de har foretaget tiltag desangående, i overensstemmelse med artikel 20 i forordning (EU) 2019/1020.
11. Příslušné vnitrostátní orgány každý závažný incident neprodleně oznámí Komisi v souladu s článkem 20 nařízení (EU) 2019/1020 bez ohledu na to, zda v souvislosti s ním přijaly opatření.
AFDELING 3
ODDÍL 3
Håndhævelse
Prosazování práva
Artikel 74
Článek 74
Markedsovervågning og kontrol af AI-systemer på EU-markedet
Dozor nad trhem a kontrola systémů AI na trhu Unie
1. Forordning (EU) 2019/1020 finder anvendelse på AI-systemer, der er omfattet af nærværende forordning. Med henblik på effektiv håndhævelse af nærværende forordning gælder følgende:
1. Na systémy AI upravené tímto nařízením se vztahuje nařízení (EU) 2019/1020. Pro účely účinného prosazování tohoto nařízení však platí, že:
a)
enhver henvisning til en erhvervsdrivende i henhold til forordning (EU) 2019/1020 skal forstås således, at den omfatter alle operatører, der er omfattet af nærværende forordnings artikel 2, stk. 1
a)
jakýkoli odkaz na hospodářský subjekt podle nařízení (EU) 2019/1020 je třeba chápat tak, že zahrnuje všechny provozovatele uvedené v čl. 2 odst. 1 tohoto nařízení;
b)
enhver henvisning til et produkt i henhold til forordning (EU) 2019/1020 skal forstås således, at den omfatter alle AI-systemer, der henhører under nærværende forordnings anvendelsesområde.
b)
jakýkoli odkaz na výrobek podle nařízení (EU) 2019/1020 je třeba chápat tak, že zahrnuje všechny systémy AI spadající do oblasti působnosti tohoto nařízení.
2. Som led i deres rapporteringsforpligtelser i henhold til artikel 34, stk. 4, i forordning (EU) 2019/1020 aflægger markedsovervågningsmyndighederne årligt rapport til Kommissionen og de relevante nationale konkurrencemyndigheder i forbindelse med markedsovervågningsaktiviteter, som kan være af potentiel interesse for anvendelsen af EU-retten om konkurrenceregler. De aflægger også årligt rapport til Kommissionen om anvendelsen af forbudt praksis, der har fundet sted i løbet af det pågældende år, og om de foranstaltninger, der er truffet.
2. V rámci svých oznamovacích povinností podle čl. 34 odst. 4 nařízení (EU) 2019/1020 podávají orgány dozoru nad trhem každoročně Komisi a příslušným vnitrostátním orgánům pro hospodářskou soutěž zprávu o veškerých informacích zjištěných v průběhu činností dozoru nad trhem, které mohou mít potenciální význam pro uplatňování práva Unie v oblasti pravidel hospodářské soutěže. Každoročně rovněž podávají Komisi zprávu o používání zakázaných postupů, k nimž došlo v daném roce, a o přijatých opatřeních.
3. For så vidt angår højrisiko-AI-systemer, som er knyttet til produkter, der er omfattet af EU-harmoniseringslovgivningen, som er opført i bilag I, afsnit A, er markedsovervågningsmyndigheden med henblik på denne forordning den myndighed, der i henhold til disse retsakter er ansvarlig for markedsovervågningsaktiviteter.
3. U vysoce rizikových systémů AI souvisejících s produkty, na které se vztahují harmonizační právní předpisy Unie uvedené v oddíle A přílohy I, je orgánem dozoru nad trhem pro účely tohoto nařízení orgán odpovědný za činnosti v oblasti dozoru nad trhem určený podle uvedených právních aktů.
Uanset første afsnit og under behørige omstændigheder kan medlemsstaterne udpege en anden relevant myndighed til at fungere som markedsovervågningsmyndighed, forudsat at de sikrer koordinering med de relevante sektorspecifikke markedsovervågningsmyndigheder, der er ansvarlige for håndhævelsen af den EU-harmoniseringslovgivning, der er opført i bilag I.
Odchylně od prvního pododstavce a za vhodných okolností mohou členské státy jako orgán dozoru nad trhem určit jiný příslušný orgán, pokud zajistí koordinaci s příslušnými odvětvovými orgány dozoru nad trhem odpovědnými za prosazování harmonizačních právních předpisů Unie uvedených v příloze I.
4. De procedurer, der er omhandlet i denne forordnings artikel 79-83, finder ikke anvendelse på AI-systemer, som er knyttet til produkter, der er omfattet af EU-harmoniseringslovgivningen, som er opført i bilag I, afsnit A, hvis sådanne retsakter allerede indeholder bestemmelser om procedurer, der sikrer et tilsvarende beskyttelsesniveau og har det samme formål. I sådanne tilfælde finder de relevante sektorprocedurer anvendelse i stedet.
4. Postupy uvedené v článcích 79 až 83 tohoto nařízení se nepoužijí na systémy AI související s produkty, na něž se vztahují harmonizační právní předpisy Unie uvedené v oddíle A přílohy I, pokud jsou v těchto právních aktech již stanoveny postupy zajišťující rovnocennou úroveň ochrany a mající stejný cíl. V takových případech se namísto toho použijí odpovídající odvětvové postupy.
5. Uden at det berører markedsovervågningsmyndighedernes beføjelser i henhold til artikel 14 i forordning (EU) 2019/1020, kan markedsovervågningsmyndighederne med henblik på at sikre en effektiv håndhævelse af nærværende forordning udøve de beføjelser, der er omhandlet i nævnte forordnings artikel 14, stk. 4, litra d) og j), på afstand, alt efter hvad der er relevant.
5. Aniž jsou dotčeny pravomoci orgánů dozoru nad trhem podle článku 14 nařízení (EU) 2019/1020, za účelem zajištění účinného prosazování tohoto nařízení mohou orgány dozoru nad trhem případně vykonávat pravomoci uvedené v čl. 14 odst. 4 písm. d) a j) uvedeného nařízení na dálku.
6. For så vidt angår højrisiko-AI-systemer, der bringes i omsætning, ibrugtages eller anvendes af finansielle institutioner, der er omfattet af EU-retten om finansielle tjenesteydelser, er markedsovervågningsmyndigheden med henblik på denne forordning den relevante nationale myndighed, der i henhold til nævnte lovgivning er ansvarlig for det finansielle tilsyn med disse institutioner, såfremt omsætningen, ibrugtagningen eller anvendelsen af AI-systemet er i direkte forbindelse med leveringen af disse finansielle tjenesteydelser.
6. U vysoce rizikových systémů AI uváděných na trh, do provozu nebo využívaných finančními institucemi, na něž se vztahuje právo Unie v oblasti finančních služeb, je orgánem dozoru nad trhem pro účely tohoto nařízení příslušný vnitrostátní orgán odpovědný za finanční dohled nad těmito institucemi podle uvedených právních předpisů, pokud je uvedení na trh, do provozu nebo používání systému AI v přímé souvislosti s poskytováním těchto finančních služeb.
7. Uanset stk. 6 kan medlemsstaten under behørige omstændigheder, og forudsat at der sikres koordinering, udpege en anden relevant myndighed som markedsovervågningsmyndighed med henblik på denne forordning.
7. Odchylně od odstavce 6 může členský stát za vhodných okolností a za předpokladu, že je zajištěna koordinace, určit jako orgán dozoru nad trhem pro účely tohoto nařízení jiný příslušný orgán.
Nationale markedsovervågningsmyndigheder, som fører tilsyn med kreditinstitutter, der er reguleret i henhold til direktiv 2013/36/EU, og som deltager i den fælles tilsynsmekanisme, der er oprettet ved forordning (EU) nr. 1024/2013, bør straks indberette alle de oplysninger identificeret i forbindelse med deres markedsovervågningsaktiviteter, som kan være af potentiel interesse for Den Europæiske Centralbanks tilsynsopgaver som fastsat i nævnte forordning, til Den Europæiske Centralbank.
Vnitrostátní orgány dozoru nad trhem odpovědné za dohled nad úvěrovými institucemi, na něž se vztahuje směrnice 2013/36/EU a které se účastní jednotného mechanismu dohledu zřízeného nařízením (EU) č. 1024/2013, by měly neprodleně oznámit Evropské centrální bance veškeré informace zjištěné v průběhu svých činností v oblasti dozoru nad trhem, které by mohly mít potenciální význam pro úkoly Evropské centrální banky v oblasti obezřetnostního dohledu podle uvedeného nařízení.
8. For så vidt angår de højrisiko-AI-systemer, der er anført i bilag III, punkt 1, til denne forordning for så vidt systemerne anvendes til retshåndhævelsesformål, grænseforvaltning og retsvæsen og demokrati, og de højrisiko-AI-systemer, der er anført i bilag III, punkt 6, 7 og 8, til denne forordning, udpeger medlemsstaterne med henblik på denne forordning som markedsovervågningsmyndigheder enten de kompetente datatilsynsmyndigheder i henhold til forordning (EU) 2016/679 eller direktiv (EU) 2016/680 eller enhver anden myndighed, der er udpeget på de samme betingelser, der er fastsat i artikel 41-44 i direktiv (EU) 2016/680. Markedsovervågningsaktiviteter må på ingen måde påvirke de judicielle myndigheders uafhængighed eller på anden måde gribe ind i deres aktiviteter, når de handler i deres egenskab af domstol.
8. Pokud jde o vysoce rizikové systémy AI uvedené v bodě 1 přílohy III tohoto nařízení, používají-li se tyto systémy pro účely vymáhání práva, pro účely správy hranic a v zájmu spravedlnosti a demokracie, a pokud jde pro vysoce rizikové systémy AI uvedené v bodech 6, 7 a 8 přílohy III tohoto nařízení, určí členské státy jako orgány dozoru nad trhem pro účely tohoto nařízení buď příslušné dozorové orgány pro ochranu údajů podle nařízení (EU) 2016/679 nebo směrnice (EU) 2016/680, nebo jiné orgány určené podle týchž podmínek stanovených v článcích 41 až 44 směrnice (EU) 2016/680. Činnosti v oblasti dozoru nad trhem nijak neovlivní nezávislost justičních orgánů ani jinak nezasahují do jejich činnosti při výkonu jejich soudní pravomoci.
9. I tilfælde, hvor EU-institutioner, -organer, -kontorer eller -agenturer er omfattet af denne forordning, fungerer Den Europæiske Tilsynsførende for Databeskyttelse som deres markedsovervågningsmyndighed, undtagen i forbindelse med EU-Domstolen, som handler i sin egenskab af domstol.
9. Pokud do oblasti působnosti tohoto nařízení spadají orgány, instituce nebo jiné subjekty Unie, jedná jako jejich orgán dozoru nad trhem evropský inspektor ochrany údajů, s výjimkou Soudního dvora Evropské unie při výkonu jeho soudních pravomocí.
10. Medlemsstaterne skal lette koordinering mellem markedsovervågningsmyndigheder, der er udpeget i henhold til denne forordning, og andre relevante nationale myndigheder eller organer, der fører tilsyn med anvendelsen af den EU-harmoniseringslovgivning, der er opført i bilag I, eller anden EU-ret, der kan være relevant for de i bilag III omhandlede højrisiko-AI-systemer.
10. Členské státy usnadňují koordinaci mezi orgány dozoru nad trhem určenými podle tohoto nařízení a dalšími příslušnými vnitrostátními orgány nebo subjekty, které dohlížejí na uplatňování harmonizačních právních předpisů Unie uvedených v příloze I nebo jiného práva Unie, které by mohly být relevantní pro vysoce rizikové systémy AI uvedené v příloze III.
11. Markedsovervågningsmyndighederne og Kommissionen kan foreslå fælles aktiviteter, herunder fælles undersøgelser, som skal gennemføres af enten markedsovervågningsmyndigheder eller af markedsovervågningsmyndigheder sammen med Kommissionen, og som har til formål at fremme overholdelse, identificere manglende overholdelse, øge bevidstheden eller yde vejledning for så vidt angår denne forordning med hensyn til specifikke kategorier af højrisiko-AI-systemer, der anses for at udgøre en alvorlig risiko i to eller flere medlemsstater i overensstemmelse med artikel 9 i forordning (EU) 2019/1020. AI-kontoret sørger for koordinerende støtte til de fælles undersøgelser.
11. Orgány dozoru nad trhem a Komise mohou navrhovat společné činnosti, včetně společných šetření, které provádějí orgány dozoru nad trhem nebo orgány dozoru nad trhem společně s Komisí a jejichž cílem je podporovat dodržování předpisů, zjišťovat nesoulad, zvyšovat povědomí nebo poskytovat pokyny v souvislosti s tímto nařízením, pokud jde o konkrétní kategorie vysoce rizikových systémů AI, u nichž se zjistí, že představují vážné riziko ve dvou nebo více členských státech v souladu s článkem 9 nařízení (EU) 2019/1020. Úřad pro AI poskytuje pro společná šetření koordinační podporu.
12. Uden at det berører de beføjelser, der er fastsat i forordning (EU) 2019/1020, og hvis det er relevant og begrænset til, hvad der er nødvendigt for, at markedsovervågningsmyndighederne kan udføre deres opgaver, gives de af udbydere fuld adgang til den dokumentation samt til de trænings-, validerings- og afprøvningsdatasæt, der anvendes til udvikling af højrisiko-AI-systemer, herunder, hvis det er relevant og med forbehold af sikkerhedsforanstaltninger, via programmeringsgrænseflader for applikationer (API'er) eller andre relevante tekniske midler og værktøjer, der muliggør fjernadgang.
12. Aniž jsou dotčeny pravomoci stanovené nařízením (EU) 2019/1020, poskytovatelé orgánům dozoru nad trhem v relevantních případech a v rozsahu nezbytném pro plnění jejich úkolů poskytnou plný přístup k dokumentaci, jakož i k souborům trénovacích, validačních a testovacích dat používaných pro vývoj vysoce rizikových systémů AI, v příslušných případech a s výhradou bezpečnostních záruk pak i prostřednictvím aplikačních programovacích rozhraní (API) nebo jiných vhodných technických prostředků a nástrojů umožňujících dálkový přístup.
13. Markedsovervågningsmyndighederne gives efter begrundet anmodning adgang til kildekoden for højrisiko-AI-systemet, og kun når begge følgende betingelser er opfyldt:
13. Přístup ke zdrojovému kódu vysoce rizikového systému AI je orgánům dozoru nad trhem poskytnut na základě odůvodněné žádosti a pouze v případě, že jsou splněny obě tyto podmínky:
a)
adgang til kildekode er nødvendig for at vurdere, om et højrisiko-AI-system er i overensstemmelse med kravene i kapitel III, afdeling 2, og
a)
přístup ke zdrojovému kódu je nezbytný k posouzení shody vysoce rizikového systému AI s požadavky stanovenými v kapitole III oddíle 2 a
b)
afprøvnings- eller revisionsprocedurer og -verifikationer på grundlag af data og dokumentation fra udbyderen er udtømt eller har vist sig at være utilstrækkelige.
b)
postupy testování či auditu a ověřování na základě dat a dokumentace poskytnutých poskytovatelem byly vyčerpány nebo se ukázaly jako nedostatečné.
14. Alle de oplysninger eller al den dokumentation, som markedsovervågningsmyndighederne kommer i besiddelse af, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
14. S veškerými informacemi nebo dokumentací získanými orgány dozoru nad trhem podle tohoto článku se nakládá v souladu s povinnostmi zachování důvěrnosti stanovenými v článku 78.
Artikel 75
Článek 75
Gensidig bistand, markedsovervågning og kontrol med AI-systemer til almen brug
Vzájemná pomoc, dozor nad trhem a kontrola obecných systémů AI
1. Hvis et AI-system er baseret på en AI-model til almen brug, og modellen og systemet er udviklet af den samme udbyder, har AI-kontoret beføjelser til at overvåge og føre tilsyn med, om det pågældende AI-system overholder kravene i denne forordning. For at varetage sine overvågnings- og tilsynsopgaver skal AI-kontoret have alle beføjelser som markedsovervågningsmyndighed, der er fastsat i denne afdeling og forordning (EU) 2019/1020.
1. Pokud je systém AI založen na obecném modelu AI a tento model i systém vyvíjí tentýž poskytovatel, má úřad pro AI pravomoc monitorovat shodu tohoto systému AI s povinnostmi podle tohoto nařízení a dohlížet na ni. Úřad pro AI má při plnění svých úkolů v oblasti monitorování a dohledu veškeré pravomoci orgánu dozoru nad trhem podle tohoto oddílu a nařízení (EU) 2019/1020.
2. Hvis de relevante markedsovervågningsmyndigheder har tilstrækkelig grund til at mene, at AI-systemer til almen brug, som kan anvendes direkte af idriftsættere til mindst ét formål, der er klassificeret som højrisiko i henhold til denne forordning, ikke overholder kravene i denne forordning, samarbejder de med AI-kontoret om at foretage evalueringer af overholdelsen og underretter AI-udvalget og andre markedsovervågningsmyndigheder i overensstemmelse hermed.
2. Pokud mají příslušné orgány dozoru nad trhem dostatečný důvod považovat obecné systémy AI, které mohou provozovatelé přímo používat alespoň k jednomu účelu, jenž je podle tohoto nařízení klasifikován jako vysoce rizikový, za nevyhovující požadavkům stanoveným v tomto nařízení, spolupracují s úřadem pro AI na provádění hodnocení souladu a informují o této skutečnosti radu a další orgány dozoru nad trhem.
3. Hvis en markedsovervågningsmyndighed ikke er i stand til at afslutte sin undersøgelse af højrisiko-AI-systemet som følge af manglende adgang til visse oplysninger vedrørende AI-modellen til almen brug, selv om den har udfoldet alle de nødvendige bestræbelser på at indhente disse oplysninger, kan den fremsætte en begrundet anmodning til AI-kontoret, hvorved adgangen til disse oplysninger skal håndhæves. I dette tilfælde skal AI-kontoret straks og under alle omstændigheder inden for 30 dage give den anmodende myndighed alle oplysninger, som AI-kontoret anser for at være relevante for at fastslå, om et højrisiko-AI-system overholder gældende regler eller ej. Markedsovervågningsmyndighederne sikrer, at de oplysninger, som de kommer i besiddelse af, behandles fortroligt i overensstemmelse med denne forordnings artikel 78. Proceduren i kapitel VI i forordning (EU) 2019/1020 finder tilsvarende anvendelse.
3. Pokud orgán dozoru nad trhem není schopen dokončit šetření vysoce rizikového systému AI z důvodu nemožnosti přístupu k určitým informacím souvisejícím s obecným modelem AI, přestože na získání těchto informací vynaložil veškeré náležité úsilí, může podat odůvodněnou žádost úřadu pro AI, jenž přístup k těmto informacím vynutí. V takovém případě úřad pro AI poskytne dožadujícímu orgánu bezodkladně, nejpozději však do 30 dnů, veškeré informace, které považuje pro zjištění nesouladu vysoce rizikového systému AI za relevantní. Orgány dozoru nad trhem zachovají důvěrnost informací získaných v souladu s článkem 78 tohoto nařízení. Postup stanovený v kapitole VI nařízení (EU) 2019/1020 se použije obdobně.
Artikel 76
Článek 76
Markedsovervågningsmyndighedernes tilsyn med afprøvning under faktiske forhold
Dohled nad testováním v reálných podmínkách vykonávaný orgány dozoru nad trhem
1. Markedsovervågningsmyndighederne har kompetencer og beføjelser til at sikre, at afprøvning under faktiske forhold er i overensstemmelse med denne forordning.
1. Orgány dozoru nad trhem mají kompetence a pravomoci k zajištění toho, aby bylo testování v reálných podmínkách v souladu s tímto nařízením.
2. Hvis der udføres afprøvning under faktiske forhold for AI-systemer, som der føres tilsyn med i den reguleringsmæssige AI-sandkasse i henhold til artikel 58, kontrollerer markedsovervågningsmyndighederne overholdelsen af artikel 60 som led i deres tilsynsrolle for den reguleringsmæssige AI-sandkasse. Disse myndigheder kan, alt efter hvad der er relevant, tillade, at afprøvningen under faktiske forhold udføres af udbyderen eller den potentielle udbyder som en undtagelse fra betingelserne i artikel 60, stk. 4, litra f) og g).
2. Pokud se testování v reálných podmínkách provádí u systémů AI, nad nimiž je vykonáván dohled v rámci regulačního sandboxu pro AI podle článku 58, ověří orgány dozoru nad trhem v rámci své dozorčí úlohy týkající se regulačního sandboxu pro AI soulad s ustanoveními článku 60. Tyto orgány mohou případně povolit, aby testování v reálných podmínkách provedl poskytovatel nebo potenciální poskytovatel odchylně od podmínek stanovených v čl. 60 odst. 4 písm. f) a g).
3. Hvis en markedsovervågningsmyndighed er blevet underrettet af den potentielle udbyder, udbyderen eller enhver tredjepart om en alvorlig hændelse eller har andre grunde til at mene, at betingelserne i artikel 60 og 61 ikke er opfyldt, kan den træffe en af følgende afgørelser på sit område, alt efter hvad der er relevant:
3. Byl-li orgán dozoru nad trhem potenciálním poskytovatelem, poskytovatelem nebo jakoukoli třetí stranou informován o závažném incidentu nebo má-li jiné důvody se domnívat, že podmínky stanovené v článcích 60 a 61 nejsou splněny, může na svém území případně přijmout některé z těchto rozhodnutí:
a)
suspendere eller afslutte afprøvningen under faktiske forhold
a)
pozastavit nebo ukončit testování v reálných podmínkách;
b)
kræve, at udbyderen eller den potentielle udbyder og idriftsætteren eller den potentielle idriftsætter ændrer et hvilket som helst aspekt af afprøvningen under faktiske forhold.
b)
požadovat, aby poskytovatel nebo potenciální poskytovatel a zavádějící subjekt či potenciální zavádějící subjekt změnili jakýkoli aspekt testování v reálných podmínkách.
4. Hvis en markedsovervågningsmyndighed har truffet en afgørelse omhandlet i denne artikels stk. 3 eller har gjort indsigelse som omhandlet i artikel 60, stk. 4, litra b), skal afgørelsen eller indsigelsen indeholde en begrundelse herfor og angive, hvordan udbyderen eller den potentielle udbyder kan anfægte afgørelsen eller indsigelsen.
4. Pokud orgán dozoru nad trhem přijal rozhodnutí uvedené v odstavci 3 tohoto článku nebo vznesl námitku ve smyslu čl. 60 odst. 4 písm. b), uvedou v rozhodnutí nebo námitce své odůvodnění a způsob, jak může poskytovatel nebo potenciální poskytovatel toto rozhodnutí nebo tuto námitku napadnout.
5. Hvis en markedsovervågningsmyndighed har truffet en afgørelse omhandlet i stk. 3, meddeler den, hvis det er relevant, begrundelsen herfor til markedsovervågningsmyndighederne i de andre medlemsstater, hvor AI-systemet er blevet afprøvet i overensstemmelse med planen for afprøvning.
5. Pokud orgán dozoru nad trhem přijal rozhodnutí uvedené v odstavci 3, sdělí v příslušných případech důvody tohoto rozhodnutí orgánům dozoru nad trhem dalších členských států, v nichž byl systém AI testován v souladu s plánem testování.
Artikel 77
Článek 77
Beføjelser tillagt myndigheder, der beskytter de grundlæggende rettigheder
Pravomoci orgánů chránících základní práva
1. Nationale offentlige myndigheder eller organer, der fører tilsyn med eller håndhæver overholdelsen af forpligtelser i henhold til EU-retten om beskyttelse af de grundlæggende rettigheder, herunder retten til beskyttelse mod forskelsbehandling, i forbindelse med anvendelsen af højrisiko-AI-systemer omhandlet i. bilag III har beføjelse til at anmode om og få adgang til al dokumentation, der er udarbejdet eller opretholdt i henhold til denne forordning, på et tilgængeligt sprog og i et tilgængeligt format, hvis adgang til denne dokumentation er nødvendig for effektivt at kunne udøve deres mandater inden for rammerne af deres jurisdiktion. Den relevante offentlige myndighed eller det relevante offentlige organ underretter markedsovervågningsmyndigheden i den pågældende medlemsstat om enhver sådan anmodning.
1. Vnitrostátní veřejné orgány nebo subjekty veřejného sektoru, které dohlížejí na dodržování povinností stanovených v právu Unie chránícím základní práva, včetně práva na nediskriminaci, v souvislosti s používáním vysoce rizikových systémů AI uvedených v příloze III, případně je vymáhají, jsou oprávněny vyžádat si jakoukoli dokumentaci vytvořenou nebo vedenou podle tohoto nařízení a získat k ní přístup v přístupném jazyce a formátu, pokud je přístup k této dokumentaci nezbytný k účinnému plnění jejich pověření v rámci jejich příslušnosti. Příslušný veřejný orgán nebo subjekt veřejného sektoru o každé této žádosti informuje orgán dozoru nad trhem dotčeného členského státu.
2. Senest den 2. november 2024 identificerer hver medlemsstat de offentlige myndigheder eller organer, der er omhandlet i stk. 1, og offentliggør en liste. Medlemsstaterne meddeler listen til Kommissionen og de øvrige medlemsstater og holder listen ajour.
2. Každý členský stát určí do 2. listopadu 2024 veřejné orgány nebo subjekty veřejného sektoru uvedené v odstavci 1 a zveřejní jejich seznam. Členské státy oznámí tento seznam Komisi a ostatním členským státům a průběžně jej aktualizují.
3. Hvis den i stk. 1 omhandlede dokumentation er utilstrækkelig til at fastslå, om der er sket en tilsidesættelse af forpligtelser i henhold til den del af EU-retten, der beskytter de grundlæggende rettigheder, kan den offentlige myndighed eller det offentlige organ, der er omhandlet i stk. 1, fremsætte en begrundet anmodning til markedsovervågningsmyndigheden om at tilrettelægge afprøvning af højrisiko-AI-systemet ved hjælp af tekniske midler. Markedsovervågningsmyndigheden tilrettelægger afprøvningen med tæt inddragelse af den anmodende offentlige myndighed eller det anmodende offentlige organ inden for rimelig tid efter anmodningen.
3. Pokud dokumentace uvedená v odstavci 1 není dostatečná k tomu, aby bylo možné zjistit, zda došlo k porušení povinností podle práva Unie chránícího základní práva, může orgán veřejné moci nebo subjekt uvedený v odstavci 1 podat orgánu dozoru nad trhem odůvodněnou žádost o uspořádání testování vysoce rizikového systému AI technickými prostředky. Orgán dozoru nad trhem uspořádá toto testování, do něhož bude dožadující orgán veřejné moci nebo subjekt významně zapojen, v přiměřené lhůtě po podání žádosti.
4. Alle de oplysninger eller al den dokumentation, som de i denne artikels stk. 1 omhandlede nationale offentlige myndigheder eller organer kommer i besiddelse af i henhold til denne artikel, behandles i overensstemmelse med fortrolighedsforpligtelserne fastsat i artikel 78.
4. S veškerými informacemi nebo dokumentací, které vnitrostátní orgány veřejné správy nebo veřejnoprávní subjekty uvedené v odstavci 1 tohoto článku obdrží podle tohoto článku, se nakládá v souladu s povinnostmi zachování důvěrnosti stanovenými v článku 78.
Artikel 78
Článek 78
Fortrolighed
Důvěrnost
1. Kommissionen, markedsovervågningsmyndighederne og bemyndigede organer og enhver anden fysisk eller juridisk person, der er involveret i anvendelsen af denne forordning, respekterer i overensstemmelse med EU-retten eller national ret fortroligheden af oplysninger og data, som de kommer i besiddelse af under udførelsen af deres opgaver og aktiviteter, på en sådan måde, at de navnlig beskytter:
1. Komise, orgány dozoru nad trhem a oznámené subjekty a veškeré další fyzické nebo právnické osoby zapojené do používání tohoto nařízení respektují v souladu s právem Unie nebo vnitrostátním právem důvěrnost informací a údajů, které získají při provádění svých úkolů a činností, takovým způsobem, aby chránily zejména:
a)
intellektuelle ejendomsrettigheder og fysiske eller juridiske personers fortrolige forretningsoplysninger eller forretningshemmeligheder, herunder kildekode, med undtagelse af de tilfælde, der er omhandlet i artikel 5 i Europa-Parlamentets og Rådets direktiv (EU) 2016/943 (57)
a)
práva duševního vlastnictví a důvěrné obchodní informace nebo obchodní tajemství fyzických nebo právnických osob, včetně zdrojového kódu s výjimkou případů, na které se vztahuje článek 5 směrnice Evropského parlamentu a Rady (EU) 2016/943 (57);
b)
den effektive gennemførelse af denne forordning, navnlig for så vidt angår inspektioner, undersøgelser eller revisioner
b)
účinné provádění tohoto nařízení, zejména za účelem inspekcí, šetření nebo auditů;
c)
offentlige og nationale sikkerhedsinteresser
c)
veřejný zájem a zájem národní bezpečnosti;
d)
strafferetlige eller administrative procedurers gennemførelse
d)
vedení trestního nebo správního řízení;
e)
informationer, der er klassificeret i henhold til EU-retten eller national ret.
e)
informace utajované podle práva Unie nebo vnitrostátního práva.
2. De myndigheder, der er involveret i anvendelsen af denne forordning i henhold til stk. 1, må kun anmode om data, der er strengt nødvendige for at vurdere den risiko, som AI-systemer udgør, og for at udøve deres beføjelser i overensstemmelse med denne forordning og med forordning (EU) 2019/1020. De skal indføre passende og effektive cybersikkerhedsforanstaltninger for at beskytte sikkerheden og fortroligheden af de indsamlede oplysninger og data og slette de indsamlede data, så snart de ikke længere er nødvendige til det formål, som de blev indsamlet til, i overensstemmelse med gældende EU-ret eller national ret.
2. Orgány zapojené do uplatňování tohoto nařízení podle odstavce 1 požadují pouze údaje, které jsou nezbytně nutné pro posouzení rizika, jež systémy AI představují, a pro výkon jejich pravomocí v souladu s tímto nařízením a s nařízením (EU) 2019/1020. Tyto orgány v zájmu bezpečnosti a důvěrnosti získaných informací a údajů zavedou přiměřená a účinná opatření v oblasti kybernetické bezpečnosti a vymažou shromážděné údaje, jakmile již nejsou potřebné pro účel, pro který byly získány, v souladu s platným právem Unie nebo vnitrostátním právem.
3. Uden at det berører stk. 1 og 2 må oplysninger, der udveksles fortroligt mellem de nationale kompetente myndigheder eller mellem de nationale kompetente myndigheder og Kommissionen, ikke videregives uden forudgående høring af den oprindelige nationale kompetente myndighed og idriftsætteren i tilfælde, hvor højrisiko-AI-systemer omhandlet i bilag III, punkt 1, 6 eller 7, anvendes af retshåndhævende myndigheder, grænsekontrolmyndigheder, indvandringsmyndigheder eller asylmyndigheder, og hvis en sådan videregivelse ville bringe offentlige og nationale sikkerhedsinteresser i fare. Denne udveksling af oplysninger omfatter ikke følsomme operationelle oplysninger i forbindelse med aktiviteter, der udføres af retshåndhævende myndigheder, grænsekontrolmyndigheder, indvandringsmyndigheder eller asylmyndigheder.
3. Aniž jsou dotčeny odstavce 1 a 2, informace důvěrně vyměňované mezi příslušnými vnitrostátními orgány nebo mezi příslušnými vnitrostátními orgány a Komisí se nezpřístupní bez předchozí konzultace s příslušným vnitrostátním orgánem, který informace poskytl, a zavádějícím subjektem, pokud jsou vysoce rizikové systémy AI uvedené v bodech 1, 6 nebo 7 přílohy III používány donucovacími orgány, orgány ochrany hranic, imigračními nebo azylovými orgány a pokud by jejich zveřejnění ohrozilo zájmy veřejné a vnitrostátní bezpečnosti. Tato výměna informací se nevztahuje na citlivé operativní údaje týkající se činností donucovacích orgánů, orgánů ochrany hranic, imigračních nebo azylových orgánů.
I tilfælde, hvor de retshåndhævende myndigheder, indvandringsmyndighederne eller asylmyndighederne er udbydere af højrisiko-AI-systemer, der er omhandlet i bilag III, punkt 1, 6 eller 7, skal den tekniske dokumentation, der er omhandlet i bilag IV, forblive hos disse myndigheder. Disse myndigheder sikrer, at de markedsovervågningsmyndigheder, der er omhandlet i artikel 74, stk. 8 og 9, alt efter hvad der er relevant, efter anmodning omgående kan få adgang til dokumentationen eller få en kopi heraf. Kun det af markedsovervågningsmyndighedens personale, der har et passende sikkerhedsgodkendelsesniveau, må få adgang til dokumentationen eller en kopi heraf.
Pokud jsou uvedené donucovací, imigrační nebo azylové orgány poskytovateli vysoce rizikových systémů AI uvedených v bodech 1, 6 nebo 7 přílohy III, technická dokumentace uvedená v příloze IV zůstává v prostorách těchto orgánů. Tyto orgány zajistí, aby orgány dozoru nad trhem uvedené v čl. 74 odst. 8 a 9 mohly případně na požádání okamžitě získat k této dokumentaci přístup nebo obdržet její kopii. K této dokumentaci nebo k jakékoli její kopii mají přístup pouze pracovníci orgánu dozoru nad trhem, kteří mají bezpečnostní prověrku na odpovídající úrovni.
4. Stk. 1, 2 og 3 berører ikke Kommissionens, medlemsstaternes og deres relevante myndigheders samt de bemyndigede organers rettigheder eller forpligtelser med hensyn til udveksling af oplysninger og udsendelse af advarsler, herunder i forbindelse med grænseoverskridende samarbejde, eller de berørte parters forpligtelse til at afgive oplysninger inden for rammerne af medlemsstaternes strafferet.
4. Ustanoveními odstavců 1, 2 a 3 nejsou dotčena práva a povinnosti Komise, členských států a jejich příslušných orgánů ani oznámených subjektů ohledně vzájemného informování a šíření výstrah, a to i v souvislosti s přeshraniční spoluprací, ani jimi nejsou dotčeny povinnosti dotčených stran poskytovat informace podle trestního práva členských států.
5. Kommissionen og medlemsstaterne kan om nødvendigt og i overensstemmelse med relevante bestemmelser i internationale aftaler og handelsaftaler udveksle fortrolige oplysninger med reguleringsmyndigheder i tredjelande, med hvilke de har indgået bilaterale eller multilaterale fortrolighedsordninger, der sikrer en tilstrækkelig grad af fortrolighed.
5. V nezbytných případech si Komise a členské státy mohou v souladu s příslušnými ustanoveními mezinárodních a obchodních dohod vyměňovat důvěrné informace s regulačními orgány třetích zemí, s nimiž uzavřely dvoustranná nebo vícestranná ujednání o důvěrnosti zaručující odpovídající úroveň důvěrnosti.
Artikel 79
Článek 79
Procedure på nationalt plan i tilfælde af AI-systemer, der udgør en risiko
Postup na vnitrostátní úrovni pro nakládání se systémy AI představujícími riziko
1. AI-systemer, der udgør en risiko, skal forstås som et »produkt, der udgør en risiko« som defineret i artikel 3, nr. 19), i forordning (EU) 2019/1020, for så vidt de udgør risici for sundhed eller sikkerhed eller for personers grundlæggende rettigheder.
1. Systémy AI, které představují riziko, jsou považovány za „výrobek představující riziko“ podle čl. 3 bodu 19 nařízení (EU) 2019/1020, pokud představují riziko pro zdraví, bezpečnost nebo základní práva osob.
2. Hvis en medlemsstats markedsovervågningsmyndighed har tilstrækkelig grund til at mene, at et AI-system udgør en risiko som omhandlet i denne artikels stk. 1, foretager den en evaluering af det pågældende AI-system for så vidt angår dets overholdelse af alle de krav og forpligtelser, der er fastsat i denne forordning. Der lægges særlig vægt på AI-systemer, der udgør en risiko for sårbare grupper. Hvis der identificeres risici for grundlæggende rettigheder, underretter markedsovervågningsmyndigheden også de relevante nationale offentlige myndigheder eller organer, der er omhandlet i artikel 77, stk. 1, og samarbejder fuldt ud med dem. De relevante operatører samarbejder om nødvendigt med markedsovervågningsmyndigheden og med de andre nationale offentlige myndigheder eller organer, der er omhandlet i artikel 77, stk. 1.
2. Pokud má orgán dozoru nad trhem členského státu dostatečný důvod se domnívat, že určitý systém AI představuje riziko podle odstavce 1 tohoto článku, provede hodnocení dotčeného systému AI z hlediska jeho souladu se všemi požadavky a povinnostmi stanovenými v tomto nařízení. Zvláštní pozornost věnuje systémům AI, které představují riziko pro zranitelné skupiny. Pokud jsou zjištěna rizika týkající se základních práv, informuje orgán dozoru nad trhem rovněž příslušné vnitrostátní veřejné orgány nebo subjekty veřejného sektoru uvedené v čl. 77 odst. 1 a plně s nimi spolupracuje. Příslušní provozovatelé podle potřeby spolupracují s orgánem dozoru nad trhem a s dalšími vnitrostátními orgány veřejné správy nebo veřejnoprávními subjekty uvedenými v čl. 77 odst. 1.
Hvis markedsovervågningsmyndigheden i forbindelse med evalueringen eller i givet fald i samarbejde med den nationale offentlige myndighed, der er omhandlet i artikel 77, stk. 1, konstaterer, at AI-systemet ikke overholder kravene og forpligtelserne i denne forordning, anmoder den uden unødigt ophold den pågældende operatør om at foretage alle fornødne korrigerende tiltag til at sørge for, at AI-systemet overholder kravene og forpligtelserne, tilbagetrække AI-systemet fra markedet eller tilbagekalde det inden for en tidsfrist, som markedsovervågningsmyndigheden kan fastsætte, og under alle omstændigheder inden for 15 arbejdsdage eller som fastsat i den relevante EU-harmoniseringslovgivning.
Pokud v průběhu tohoto hodnocení orgán dozoru nad trhem nebo případně orgán dozoru nad trhem ve spolupráci s příslušným vnitrostátním orgánem uvedeným v čl. 77 odst. 1 zjistí, že daný systém AI požadavky a povinnosti stanovené v tomto nařízení nesplňuje, neprodleně vyzve příslušného provozovatele, aby přijal veškerá vhodná nápravná opatření k uvedení systému AI do souladu, k jeho stažení z trhu nebo z oběhu ve lhůtě, kterou může orgán dozoru nad trhem stanovit, a v každém případě nejpozději do patnácti pracovních dnů, nebo jak je stanoveno v příslušných harmonizačních právních předpisech Unie.
Markedsovervågningsmyndigheden skal underrette det relevante bemyndigede organ herom. Artikel 18 i forordning (EU) 2019/1020 finder anvendelse på de i dette stykkes andet afsnit omhandlede foranstaltninger.
Orgán dozoru nad trhem o této skutečnosti informuje příslušný oznámený subjekt. Na opatření uvedená v druhém pododstavci tohoto odstavce se použije článek 18 nařízení (EU) 2019/1020.
3. Hvis markedsovervågningsmyndigheden konstaterer, at den manglende overholdelse ikke er begrænset til medlemsstatens område, underretter den uden unødigt ophold Kommissionen og de øvrige medlemsstater om resultaterne af evalueringen og om de tiltag, den har pålagt operatøren at foretage.
3. Domnívá-li se orgán dozoru nad trhem, že se nesoulad netýká pouze území jeho členského státu, informuje o výsledcích hodnocení a o opatřeních, která má provozovatel na jeho pokyn přijmout, neprodleně Komisi a ostatní členské státy.
4. Operatøren sikrer, at der foretages alle fornødne korrigerende tiltag over for alle de pågældende AI-systemer, som denne har gjort tilgængelige EU-markedet.
4. Provozovatel zajistí, aby byla přijata všechna vhodná nápravná opatření ohledně všech dotčených systémů AI, které dodal na trh v Unii.
5. Hvis AI-systemets operatør ikke foretager tilstrækkelige korrigerende tiltag inden for den frist, der er omhandlet i stk. 2, træffer markedsovervågningsmyndigheden de nødvendige foreløbige foranstaltninger til at forbyde eller begrænse, at AI-systemet gøres tilgængeligt på dens nationale marked eller ibrugtages, tilbagetrække produktet eller det selvstændige AI-system fra dette marked eller tilbagekalde det. Den pågældende myndighed giver uden unødigt ophold Kommissionen og de øvrige medlemsstater meddelelse om disse foranstaltninger.
5. Pokud provozovatel určitého systému AI ve lhůtě uvedené v odstavci 2 náležitá nápravná opatření nepřijme, přijme orgán dozoru nad trhem všechna vhodná dočasná opatření, jimiž zakáže nebo omezí uvádění tohoto systému AI na trh svého členského státu nebo do provozu nebo jimiž zajistí, aby byl tento produkt nebo samostatný systém AI z dotyčného trhu nebo z provozu stažen. O takových opatřeních tento orgán neprodleně informuje Komisi a ostatní členské státy.
6. Den i stk. 5 omhandlede underretning skal indeholde alle tilgængelige oplysninger, navnlig de nødvendige oplysninger til identifikation af det AI-system, der ikke overholder kravene, AI-systemets og forsyningskædens oprindelse, arten af den påståede manglende overholdelse og af den pågældende risiko, arten og varigheden af de trufne nationale foranstaltninger samt de synspunkter, som den pågældende operatør har fremsat. Markedsovervågningsmyndighederne oplyser navnlig, om den manglende overholdelse af kravene skyldes et eller flere af følgende:
6. Součástí oznámení uvedeného v odstavci 5 jsou všechny dostupné podrobnosti, zejména informace nezbytné pro identifikaci nevyhovujícího systému AI, údaje o původu systému AI a dodavatelského řetězce, povaze nesouladu a souvisejícího rizika, povaze a době trvání opatření přijatých na vnitrostátní úrovni a stanoviska příslušného poskytovatele. Orgány dozoru nad trhem zejména uvedou, zda je důvodem nesouladu jeden nebo více těchto nedostatků:
a)
manglende overholdelse af forbuddet mod de i artikel 5 omhandlede former for AI-praksis
a)
nedodržení zákazu postupů v oblasti AI uvedených v článku 5;
b)
et højrisiko-AI-systems manglende opfyldelse af kravene i kapitel III, afdeling 2
b)
vysoce rizikový systém AI nesplňuje požadavky uvedené v kapitole III oddíle 2;
c)
mangler i de harmoniserede standarder eller fælles specifikationer, der er omhandlet i artikel 40 og 41, og som danner grundlag for overensstemmelsesformodningen
c)
nedostatky v harmonizovaných normách nebo ve společných specifikacích uvedených v článcích 40 a 41, na nichž je založen předpoklad shody;
d)
manglende overholdelse af artikel 50.
d)
není dodržen článek 50.
7. Andre markedsovervågningsmyndigheder end markedsovervågningsmyndigheden i den medlemsstat, der har indledt proceduren, underretter uden unødigt ophold Kommissionen og de øvrige medlemsstater om de trufne foranstaltninger og om yderligere oplysninger, som de måtte råde over, om det pågældende AI-systems manglende overholdelse og om deres indsigelser, hvis de ikke er indforstået med den meddelte nationale foranstaltning.
7. Orgány dozoru nad trhem jiné než orgán dozoru nad trhem členského státu, který tento postup zahájil, neprodleně informují Komisi a ostatní členské státy o veškerých opatřeních, která přijaly, a o všech doplňujících údajích týkajících se nesouladu dotčeného systému AI, které mají k dispozici, a v případě nesouhlasu s oznámeným vnitrostátním opatřením o svých námitkách.
8. Hvis der ikke inden for tre måneder efter modtagelsen af den i denne artikels stk. 5 omhandlede underretning er blevet gjort indsigelse af enten en markedsovervågningsmyndighed i en medlemsstat eller af Kommissionen mod en foreløbig foranstaltning truffet af en markedsovervågningsmyndighed i en anden medlemsstat, anses denne foranstaltning for at være berettiget. Dette berører ikke den pågældende operatørs procedurerettigheder i overensstemmelse med artikel 18 i forordning (EU) 2019/1020. Den periode på tre måneder, der er omhandlet i nærværende stykke, nedsættes til 30 dage i tilfælde af manglende overholdelse af forbuddet mod de i nærværende forordnings artikel 5 anførte former for AI-praksis.
8. Pokud do tří měsíců od oznámení uvedeného v odstavci 5 tohoto článku orgán dozoru nad trhem některého členského státu ani Komise námitku proti prozatímnímu opatření přijatému orgánem dozoru nad trhem jiného členského státu nevznese, považuje se toto opatření za odůvodněné. Tím nejsou dotčena procesní práva dotčeného provozovatele v souladu s článkem 18 nařízení (EU) 2019/1020. V případě nedodržení zákazu postupů v oblasti AI podle článku 5 tohoto nařízení se tříměsíční lhůta uvedená v tomto odstavci zkracuje na 30 dnů.
9. Markedsovervågningsmyndighederne sikrer, at der uden unødigt ophold træffes de fornødne restriktive foranstaltninger med hensyn til det pågældende produkt eller AI-system såsom tilbagetrækning af produktet eller AI-systemet fra deres marked.
9. Orgány dozoru nad trhem zajistí, aby byla v souvislosti s dotčeným produktem nebo systémem AI bezodkladně přijata náležitá restriktivní opatření, například stažení daného produktu nebo systému AI z jejich trhů.
Artikel 80
Článek 80
Procedure i tilfælde af AI-systemer, der af udbyderen er klassificeret som ikkehøjrisiko, i forbindelse med anvendelsen af bilag III
Postup nakládání se systémy AI, které nejsou při použití přílohy III poskytovatelem klasifikovány jako vysoce rizikové
1. Hvis en markedsovervågningsmyndighed har tilstrækkelig grund til at mene, at et AI-system, der af udbyderen er klassificeret som ikkehøjrisiko i henhold til artikel 6, stk. 3, faktisk er højrisiko, foretager markedsovervågningsmyndigheden en evaluering af det pågældende AI-system med hensyn til dets klassificering som et højrisiko-AI-system på grundlag af de betingelser, der er fastsat i artikel 6, stk. 3, og Kommissionens retningslinjer.
1. Pokud má orgán dozoru nad trhem dostatečný důvod se domnívat, že systém AI klasifikovaný poskytovatelem jako nikoliv vysoce rizikový podle čl. 6 odst. 3 ve skutečnosti vysoce rizikový je, provede hodnocení dotčeného systému AI ohledně jeho klasifikace jako vysoce rizikového systému AI, a to na základě podmínek stanovených v čl. 6 odst. 3 a v pokynech Komise.
2. Hvis markedsovervågningsmyndigheden som led i denne evaluering konstaterer, at det pågældende AI-system er højrisiko, pålægger den uden unødigt ophold den relevante udbyder at foretage alle fornødne tiltag til at bringe AI-systemet i overensstemmelse med de krav og forpligtelser, der er fastsat i denne forordning, samt foretage fornødne korrigerende tiltag inden for en tidsfrist, som markedsovervågningsmyndigheden kan fastsætte.
2. Pokud v průběhu tohoto hodnocení orgán dozoru nad trhem zjistí, že dotčený systém AI vysoce rizikový je, vyzve bez zbytečného odkladu příslušného poskytovatele, aby přijal veškerá nezbytná opatření k uvedení systému AI do souladu s požadavky a povinnostmi stanovenými v tomto nařízení a aby ve lhůtě, kterou může orgán dozoru nad trhem stanovit, přijal vhodná nápravná opatření.
3. Hvis markedsovervågningsmyndigheden konstaterer, at anvendelsen af det pågældende AI-system ikke er begrænset til medlemsstatens område, underretter den uden unødigt ophold Kommissionen og de øvrige medlemsstater om resultaterne af evalueringen og om de tiltag, den har pålagt udbyderen at foretage.
3. Domnívá-li se orgán dozoru nad trhem, že použití dotčeného systému AI není omezeno pouze na území jeho členského státu, informuje o výsledcích hodnocení a o opatřeních, která má poskytovatel na jeho žádost přijmout, neprodleně Komisi a ostatní členské státy.
4. Udbyderen sikrer, at der foretages alle de nødvendige tiltag til at bringe AI-systemet i overensstemmelse med kravene og forpligtelserne i denne forordning. Hvis den pågældende udbyder af et AI-system ikke bringer AI-systemet i overensstemmelse med disse krav og forpligtelser inden for den tidsfrist, der er omhandlet i denne artikels stk. 2, straffes udbyderen med bøder i overensstemmelse med artikel 99.
4. Poskytovatel zajistí, aby byla přijata veškerá nezbytná opatření k uvedení dotyčného systému AI do souladu s požadavky a povinnostmi stanovenými v tomto nařízení. Pokud dotčený poskytovatel systému AI neuvede systém AI do souladu s těmito požadavky a povinnostmi ve lhůtě uvedené v odstavci 2 tohoto článku, uloží se mu pokuty v souladu s článkem 99.
5. Udbyderen sikrer, at der foretages alle fornødne korrigerende tiltag over for alle de pågældende AI-systemer, som denne har gjort tilgængelige EU-markedet.
5. Poskytovatel zajistí, aby byla přijata veškerá vhodná nápravná opatření ohledně všech dotčených systémů AI, které dodal na trh v Unii.
6. Hvis udbyderen af det pågældende AI-system ikke foretager tilstrækkelige korrigerende tiltag inden for den tidsfrist, der er omhandlet i denne artikels stk. 2, finder artikel 79, stk. 5-9, anvendelse.
6. Pokud poskytovatel dotčeného systému AI ve lhůtě uvedené v odstavci 2 tohoto článku přiměřená nápravná opatření nepřijme, použije se čl. 79 odst. 5 až 9.
7. Hvis markedsovervågningsmyndigheden som led i evalueringen i henhold til denne artikels stk. 1 konstaterer, at AI-systemet er blevet fejlklassificeret af udbyderen som ikkehøjrisiko for at omgå anvendelsen af kravene i kapitel III, afdeling 2, straffes udbyderen med bøder i overensstemmelse med artikel 99.
7. Pokud v průběhu hodnocení podle odstavce 1 tohoto článku orgán dozoru nad trhem zjistí, že poskytovatel daný systém AI nesprávně klasifikoval jako nikoliv vysoce rizikový s cílem obejít uplatňování požadavků uvedených v kapitole III oddíle 2, uloží se poskytovateli pokuty v souladu s článkem 99.
8. Ved udøvelsen af deres beføjelse til at overvåge anvendelsen af denne artikel og i overensstemmelse med artikel 11 i forordning (EU) 2019/1020 kan markedsovervågningsmyndighederne foretage passende kontroller under særlig hensyntagen til oplysninger, der er lagret i den EU-database, der er omhandlet i nærværende forordnings artikel 71.
8. Při výkonu své pravomoci monitorovat uplatňování tohoto článku a v souladu s článkem 11 nařízení (EU) 2019/1020 mohou orgány dozoru nad trhem provádět vhodné kontroly, zejména s přihlédnutím k informacím uloženým v databázi EU uvedené v článku 71 tohoto nařízení.
Artikel 81
Článek 81
Beskyttelsesprocedure på EU-plan
Ochranný postup Unie
1. Hvis markedsovervågningsmyndigheden i en medlemsstat inden for tre måneder efter modtagelsen af den i artikel 79, stk. 5, omhandlede underretning eller inden for 30 dage i tilfælde af manglende overholdelse af forbuddet mod de i artikel 5 anførte former for AI-praksis har gjort indsigelse mod en foranstaltning truffet af en anden markedsovervågningsmyndighed, eller hvis Kommissionen finder, at foranstaltningen er i strid med EU-retten, hører Kommissionen uden unødigt ophold den relevante medlemsstats markedsovervågningsmyndighed og den eller de relevante operatører og evaluerer den nationale foranstaltning. På grundlag af resultaterne af denne evaluering træffer Kommissionen senest seks måneder efter den i artikel 79, stk. 5, omhandlede underretning afgørelse om, hvorvidt den nationale foranstaltning er berettiget, eller inden for 60 dage i tilfælde af manglende overholdelse af forbuddet mod de i artikel 5 anførte former for AI-praksis og meddeler sin afgørelse til markedsovervågningsmyndigheden i den pågældende medlemsstat. Kommissionen underretter også alle andre markedsovervågningsmyndigheder om sin afgørelse.
1. Pokud do tří měsíců od obdržení oznámení uvedeného v čl. 79 odst. 5 nebo do 30 dnů v případě nedodržení zákazu praktik AI uvedeného v článku 5 vznese orgán dozoru nad trhem členského státu námitky proti opatření přijatému jiným orgánem dozoru nad trhem, nebo pokud se Komise domnívá, že je dané opatření v rozporu s právem Unie, zahájí Komise s orgánem dozoru nad trhem příslušného členského státu a s provozovatelem nebo provozovateli neprodleně konzultace a předmětné vnitrostátní opatření podrobí hodnocení. Na základě výsledků tohoto hodnocení Komise rozhodne do šesti měsíců nebo do 60 dnů v případě nedodržení zákazu praktik v oblasti AI uvedeného v článku 5, počínaje oznámením podle čl. 79 odst. 5, zda je vnitrostátní opatření oprávněné a oznámí toto rozhodnutí orgánu dozoru nad trhem dotčeného členského státu. Komise o tomto rozhodnutí informuje rovněž všechny ostatní orgány dozoru nad trhem.
2. Hvis Kommissionen anser den foranstaltning, der er truffet af den relevante medlemsstat, for at være berettiget, sikrer alle medlemsstater, at de træffer de fornødne restriktive foranstaltninger med hensyn til det pågældende AI-system, f.eks. krav om tilbagetrækning af AI-systemet fra deres marked uden unødigt ophold, og underretter Kommissionen herom. Hvis Kommissionen anser den nationale foranstaltning for ikke at være berettiget, trækker den pågældende medlemsstat foranstaltningen tilbage og underretter Kommissionen herom.
2. Pokud se Komise domnívá, že opatření přijaté příslušným členským státem je oprávněné, všechny členské státy zajistí, aby ve vztahu k dotčenému systému AI přijaly vhodná omezující opatření, jako je požadavek na stažení systému AI z jejich trhu bez zbytečného odkladu, a informují o této skutečnosti Komisi. Pokud Komise považuje vnitrostátní opatření za neodůvodněné, dotčený členský stát opatření zruší a informuje o této skutečnosti Komisi.
3. Hvis den nationale foranstaltning anses for at være berettiget, og hvis AI-systemets manglende overholdelse tilskrives mangler ved de harmoniserede standarder eller fælles specifikationer, der er omhandlet i denne forordnings artikel 40 og 41, anvender Kommissionen proceduren i artikel 11 i forordning (EU) nr. 1025/2012.
3. Pokud je vnitrostátní opatření považováno za odůvodněné a je-li nesoulad systému AI přisuzován nedostatkům v harmonizovaných normách nebo společných specifikacích, jak je uvedeno v článcích 40 a 41 tohoto nařízení, použije Komise postup stanovený v článku 11 nařízení (EU) č. 1025/2012.
Artikel 82
Článek 82
AI-systemer, som overholder kravene, men som udgør en risiko
Vyhovující systémy AI, které představují riziko
1. Hvis en medlemsstats markedsovervågningsmyndighed efter at have foretaget en vurdering i henhold til artikel 79 og efter høring af den relevante nationale offentlige myndighed, der er omhandlet i artikel 77, stk. 1, finder, at et højrisiko-AI-system, selv om det overholder kravene i denne forordning, alligevel udgør en risiko for personers sundhed eller sikkerhed, for grundlæggende rettigheder eller for andre aspekter vedrørende beskyttelse af samfundsinteresser, skal den pålægge den relevante operatør uden unødigt ophold at træffe alle nødvendige foranstaltninger for at sikre, at det pågældende AI-system, når det bringes i omsætning eller ibrugtages, ikke længere udgør en sådan risiko, inden for en tidsfrist, som den kan fastsætte.
1. Pokud orgán dozoru nad trhem členského státu po provedení hodnocení podle článku 79 po konzultaci s příslušnými vnitrostátními veřejnými orgány uvedenými v čl. 77 odst. 1 zjistí, že ačkoli je určitý vysoce rizikový systém AI v souladu s tímto nařízením, představuje tento systém přesto riziko pro zdraví nebo bezpečnost osob, pro základní práva nebo jiné aspekty ochrany veřejného zájmu, vyzve příslušného provozovatele, aby přijal veškerá vhodná opatření k zajištění toho, aby dotčený systém AI při uvedení na trh nebo do provozu toto riziko již nepředstavoval, a to bez zbytečného odkladu, ve lhůtě, kterou může tento orgán dozoru stanovit.
2. Udbyderen eller en anden relevant operatør sikrer, at der foretages korrigerende tiltag med hensyn til alle de pågældende AI-systemer, som vedkommende har gjort tilgængelige på EU-markedet, inden for den tidsfrist, der er fastsat af medlemsstatens markedsovervågningsmyndighed, der er omhandlet stk. 1.
2. Poskytovatel nebo jiný příslušný provozovatel zajistí, aby byla přijata nápravná opatření ve vztahu ke všem dotčeným systémům AI, které dodal na trh Unie, ve lhůtě stanovené orgánem dozoru nad trhem členského státu uvedeného v odstavci 1.
3. Medlemsstaterne underretter omgående Kommissionen og de øvrige medlemsstater om resultaterne i henhold til stk. 1. Denne underretning skal indeholde alle tilgængelige oplysninger, især de nødvendige data til identifikation af de pågældende AI-systemer, AI-systemets oprindelse og forsyningskæde, arten af den pågældende risiko og arten og varigheden af de trufne nationale foranstaltninger.
3. Tyto členské státy o zjištěních podle odstavce 1 neprodleně informují Komisi a ostatní členské státy. Příslušné informace musí obsahovat všechny dostupné podrobnosti, zejména údaje nezbytné pro identifikaci dotčeného systému AI, údaje o jeho původu a dodavatelském řetězci, údaje o povaze souvisejícího rizika a údaje o povaze a době trvání opatření přijatých na vnitrostátní úrovni.
4. Kommissionen hører uden unødigt ophold de berørte medlemsstater og de relevante operatører og vurderer de trufne nationale foranstaltninger. På grundlag af resultaterne af denne vurdering træffer Kommissionen afgørelse om, hvorvidt foranstaltningen er berettiget, og foreslår om nødvendigt andre passende foranstaltninger.
4. Komise s dotčenými členskými státy a s příslušnými provozovateli neprodleně zahájí konzultaci a přijatá vnitrostátní opatření podrobí hodnocení. Na základě výsledků tohoto hodnocení Komise rozhodne, zda jsou opatření odůvodněná, a pokud je to nutné, navrhne jiná vhodná opatření.
5. Kommissionen meddeler omgående sin afgørelse til de pågældende medlemsstater og til de relevante operatører. Den underretter også de øvrige medlemsstater.
5. Komise neprodleně sdělí své rozhodnutí dotčenému členskému státu a příslušným provozovatelům. Informuje též ostatní členské státy.
Artikel 83
Článek 83
Formel manglende overholdelse
Formální nesoulad
1. Hvis en medlemsstats markedsovervågningsmyndighed konstaterer et af følgende forhold, pålægger den den pågældende udbyder at bringe den manglende overholdelse til ophør inden for en tidsfrist, som den kan fastsætte:
1. Orgán dozoru nad trhem daného členského státu vyzve příslušného provozovatele, aby ve lhůtě, kterou může orgán dozor nad trhem stanovit, odstranil nesoulad, pokud zjistí jeden z těchto nedostatků:
a)
CE-mærkningen er anbragt i modstrid med artikel 48
a)
označení CE bylo umístěno v rozporu s článkem 48;
b)
CE-mærkningen er ikke anbragt
b)
označení CE nebylo umístěno;
c)
den i artikel 47 omhandlede EU-overensstemmelseserklæring er ikke udarbejdet
c)
nebylo vypracováno EU prohlášení o shodě uvedené v článku 47;
d)
den i artikel 47 omhandlede EU-overensstemmelseserklæring er ikke udarbejdet korrekt
d)
EU prohlášení o shodě uvedené v článku 47 nebylo vypracováno správně;
e)
den i artikel 71 omhandlede registrering i EU-databasen er ikke foretaget
e)
nebyla provedena registrace v databázi EU uvedená v článku 71;
f)
der er, hvor det er relevant, ikke udpeget nogen bemyndiget repræsentant
f)
v příslušných případech nebyl jmenován zplnomocněný zástupce;
g)
den tekniske dokumentation er ikke tilgængelig.
g)
není k dispozici technická dokumentace.
2. Hvis der fortsat er tale om manglende overholdelse omhandlet i stk. 1, skal markedsovervågningsmyndigheden i den pågældende medlemsstat træffe nødvendige og forholdsmæssige foranstaltninger for at begrænse eller forbyde, at højrisiko-AI-systemet gøres tilgængeligt på markedet, eller for at sikre, at det straks tilbagekaldes eller tilbagetrækkes fra markedet.
2. Pokud nesoulad uvedený v odstavci 1 nadále trvá, přijme orgán dozoru nad trhem dotčeného členského státu vhodná a přiměřená opatření s cílem omezit nebo zakázat dodávání daného vysoce rizikového systému AI na trh nebo zajistit, aby byl neprodleně stažen z oběhu nebo z trhu.
Artikel 84
Článek 84
EU-støttestrukturer for afprøvning af AI
Podpůrné struktury Unie pro testování AI
1. Kommissionen udpeger en eller flere EU-støttestrukturer for afprøvning af AI til at udføre de opgaver, der er anført i artikel 21, stk. 6, i forordning (EU) 2019/1020 inden for AI.
1. Komise určí jednu nebo více podpůrných struktur Unie pro testování AI k provádění úkolů uvedených podle čl. 21 odst. 6 nařízení (EU) 2019/1020 v oblasti AI.
2. Uden at det berører de opgaver, der er omhandlet i stk. 1, skal EU-støttestrukturer for afprøvning af AI også yde uafhængig teknisk eller videnskabelig rådgivning på anmodning af AI-udvalget, Kommissionen eller markedsovervågningsmyndighederne.
2. Aniž jsou dotčeny úkoly uvedené v odstavci 1, poskytují podpůrné struktury Unie na žádost rady, Komise nebo orgánů dozoru nad trhem pro testování AI rovněž nezávislé technické nebo vědecké poradenství.
AFDELING 4
ODDÍL 4
Retsmidler
Prostředky ochrany
Artikel 85
Článek 85
Ret til at indgive klage til en markedsovervågningsmyndighed
Právo vznést stížnost u orgánu dozoru nad trhem
Uden at det berører andre administrative klageadgange eller adgang til retsmidler, kan enhver fysisk eller juridisk person, der har grund til at mene, at der er sket en overtrædelse af bestemmelserne i denne forordning, indgive klager til den relevante markedsovervågningsmyndighed.
Aniž jsou dotčeny jiné správní nebo soudní prostředky ochrany, každá fyzická nebo právnická osoba, která má důvod se domnívat, že došlo k porušení ustanovení tohoto nařízení, by měla mít možnost podávat stížnosti příslušnému orgánu dozoru nad trhem.
I overensstemmelse med forordning (EU) 2019/1020 tages sådanne klager i betragtning med henblik på at udføre markedsovervågningsaktiviteterne og behandles i overensstemmelse med de særlige procedurer, som markedsovervågningsmyndighederne har fastlagt dertil.
V souladu s nařízením (EU) 2019/1020 se takové stížnosti zohlední pro účely provádění činností dozoru nad trhem a vyřizují se v souladu se specializovanými postupy, které orgány dozoru nad trhem pro tyto účely stanoví.
Artikel 86
Článek 86
Ret til at få en forklaring om individuel beslutningstagning
Právo na vysvětlení rozhodnutí v konkrétním případě
1. Enhver berørt person, der er omfattet af en afgørelse truffet af idriftsætteren på grundlag af output fra et højrisiko-AI-system opført i bilag III, med undtagelse af systemerne opført i nævnte bilags punkt 2, og som har retsvirkninger eller på tilsvarende måde i væsentlig grad påvirker den pågældende person på en måde, som de anser for at have negativ indvirkning på vedkommendes sundhed, sikkerhed eller grundlæggende rettigheder, har ret til at få en klar og meningsfuld forklaring fra idriftsætteren om AI-systemets rolle i beslutningsprocessen og hovedelementerne i den trufne afgørelse.
1. Každá dotčená osoba, na niž se vztahuje rozhodnutí, které přijal zavádějící subjekt na základě výstupu z vysoce rizikového systému AI uvedeného v příloze III, s výjimkou systémů uvedených v bodě 2 této přílohy, a které má právní účinky nebo se dotčené osoby podobně významně dotýká způsobem, o němž se tato osoba domnívá, že má nepříznivý dopad na její zdraví, bezpečnost nebo základní práva, má právo získat od zavádějícího subjektu jasná a smysluplná vysvětlení ohledně úlohy tohoto systému AI v rozhodovacím postupu a v hlavních prvcích přijatého rozhodnutí.
2. Stk. 1 finder ikke anvendelse på anvendelsen af AI-systemer, for hvilke undtagelser fra eller begrænsninger af forpligtelsen i henhold til nævnte stykke følger af EU-retten eller national ret, der overholder EU-retten.
2. Odstavec 1 se nepoužije na používání systémů AI, u nichž výjimky nebo omezení povinnosti podle uvedeného odstavce vyplývají z unijního nebo vnitrostátního práva v souladu s právem Unie.
3. Denne artikel finder kun anvendelse, for så vidt den i stk. 1 omhandlede ret ikke på anden vis er fastsat i EU-retten.
3. Tento článek se použije pouze v rozsahu, v němž právo uvedené v odstavci 1 není právem Unie upraveno jinak.
Artikel 87
Článek 87
Indberetning af overtrædelser og beskyttelse af indberettende personer
Oznamování porušení a ochrana oznamujících osob
Direktiv (EU) 2019/1937 finder anvendelse på indberetning af overtrædelser af denne forordning og på beskyttelsen af personer, der indberetter sådanne overtrædelser.
Na oznamování porušení tohoto nařízení a ochranu osob oznamujících tyto případy se vztahuje směrnice (EU) 2019/1937.
AFDELING 5
ODDÍL 5
Tilsyn, undersøgelser, håndhævelse og overvågning i forbindelse med udbydere af AI-modeller til almen brug
Dohled, vyšetřování, prosazování a monitorování ve vztahu k poskytovatelům obecných modelů AI
Artikel 88
Článek 88
Håndhævelse af forpligtelser for udbydere af AI-modeller til almen brug
Vymáhání povinností poskytovatelů obecných modelů AI
1. Kommissionen har enekompetence til at føre tilsyn med og håndhæve kapitel V under hensyntagen til de proceduremæssige garantier i henhold til artikel 94. Kommissionen overdrager gennemførelsen af disse opgaver til AI-kontoret, uden at dette berører Kommissionens organisationsbeføjelser og kompetencefordelingen mellem medlemsstaterne og Unionen på grundlag af traktaterne.
1. Komise má výlučnou pravomoc dohlížet na kapitolu V a prosazovat ji s přihlédnutím k procesním zárukám podle článku 94. Komise prováděním těchto úkolů pověří úřad pro AI, aniž jsou dotčeny organizační pravomoci Komise a rozdělení pravomocí mezi členské státy a Unii na základě Smluv.
2. Uden at det berører artikel 75, stk. 3, kan markedsovervågningsmyndighederne anmode Kommissionen om at udøve de beføjelser, der er fastsat i denne afdeling, hvis dette er nødvendigt og forholdsmæssigt for at bistå med udførelsen af deres opgaver i henhold til denne forordning.
2. Aniž je dotčen čl. 75 odst. 3, mohou orgány dozoru nad trhem požádat Komisi o výkon pravomocí stanovených v tomto oddíle, je-li to nezbytné a přiměřené pro pomoc při plnění jejich úkolů podle tohoto nařízení.
Artikel 89
Článek 89
Overvågningstiltag
Monitorovací opatření
1. AI-kontoret kan for at kunne udføre de opgaver, der tildeles det i henhold til denne afdeling, foretage de nødvendige tiltag for at overvåge, at udbydere af AI-modeller til almen brug gennemfører og overholder denne forordning effektivt, herunder overholder godkendte praksiskodekser.
1. Za účelem plnění úkolů svěřených mu v tomto oddíle může úřad pro AI přijmout nezbytná opatření k monitorování účinného provádění a dodržování tohoto nařízení poskytovateli obecných modelů AI, včetně toho, zda splňují schválené kodexy správné praxe.
2. Downstreamudbydere har ret til at indgive en klage over en overtrædelse af denne forordning. En klage skal være behørigt begrundet og som minimum indeholde:
2. Navazující poskytovatelé mají právo podat stížnost na porušení tohoto nařízení. Stížnost je řádně odůvodněna a obsahuje alespoň:
a)
kontaktpunktet for udbyderen af den pågældende AI-model til almen brug
a)
kontaktní místo poskytovatele dotčeného obecného modelu AI;
b)
en beskrivelse af de relevante kendsgerninger, de pågældende bestemmelser i denne forordning og årsagen til, at downstreamudbyderen mener, at udbyderen af den pågældende AI-model til almen brug har overtrådt denne forordning
b)
popis příslušných skutečností, dotčená ustanovení tohoto nařízení a důvod, proč se navazující poskytovatel domnívá, že poskytovatel obecného modelu AI toto nařízení porušil;
c)
alle andre oplysninger, som downstreamudbyderen, som sendte anmodningen, anser for relevante, herunder i givet fald oplysninger indsamlet på eget initiativ.
c)
jakékoli další informace, které navazující poskytovatel, jenž žádost zaslal, považuje za relevantní, včetně případných informací shromážděných z jeho vlastního podnětu.
Artikel 90
Článek 90
Varslinger om systemiske risici fra det videnskabelige panel
Výstraha vědecké komise ohledně systémového rizika
1. Det videnskabelige panel kan sende en kvalificeret varsling til AI-kontoret, hvis det har begrundet mistanke om, at:
1. Vědecká komise může úřadu pro AI zaslat kvalifikovanou výstrahu, pokud má důvodné podezření, že:
a)
en AI-model til almen brug udgør en konkret identificerbar risiko på EU-plan, eller
a)
obecný model AI představuje na úrovni Unie konkrétní identifikovatelné riziko nebo
b)
en AI-model til almen brug opfylder betingelserne omhandlet i artikel 51.
b)
obecný model AI splňuje podmínky uvedené v článku 51.
2. Efter en sådan kvalificeret varsling kan Kommissionen gennem AI-kontoret og efter at have underrettet AI-udvalget udøve de beføjelser, der er fastsat i denne afdeling, med henblik på at vurdere sagen. AI-kontoret underretter AI-udvalget om enhver foranstaltning i henhold til artikel 91-94.
2. Po takové kvalifikované výstraze může Komise prostřednictvím úřadu pro AI a po informování rady vykonávat pravomoci stanovené v tomto oddíle za účelem posouzení dané záležitosti. Úřad pro AI informuje radu o veškerých opatřeních podle článků 91 až 94.
3. En kvalificeret varsling skal være behørigt begrundet og som minimum indeholde:
3. Kvalifikovaná výstraha je řádně odůvodněna a obsahuje alespoň:
a)
kontaktpunktet for udbyderen af den pågældende AI-model til almen brug med systemisk risiko
a)
kontaktní místo poskytovatele dotčeného obecného modelu AI se systémovými riziky;
b)
en beskrivelse af de relevante kendsgerninger og årsager til varslingen fra det videnskabelige panel
b)
popis relevantních skutečností a důvodů pro výstrahu ze strany vědecké komise;
c)
alle andre oplysninger, som det videnskabelige panel anser for relevante, herunder i givet fald oplysninger indsamlet på eget initiativ.
c)
jakékoli další informace, které vědecká komise považuje za relevantní, včetně případných informací shromážděných z jejího vlastního podnětu.
Artikel 91
Článek 91
Beføjelse til at anmode om dokumentation og oplysninger
Pravomoc požadovat dokumentaci a informace
1. Kommissionen kan anmode udbyderen af den pågældende AI-model til almen brug om at stille den dokumentation til rådighed, som udbyderen har udarbejdet i overensstemmelse med artikel 53 og 55, eller eventuelle yderligere oplysninger, som er nødvendige for at vurdere, om udbyderen overholder denne forordning.
1. Komise může požádat dotčeného poskytovatele obecného modelu AI, aby poskytl dokumentaci vypracovanou poskytovatelem podle článků 53 a 55 nebo jakékoli další informace, které jsou nezbytné pro účely posouzení, zda poskytovatel splňuje toto nařízení.
2. Inden anmodningen om oplysninger sendes, kan AI-kontoret indlede en struktureret dialog med udbyderen af AI-modellen til almen brug.
2. Před odesláním žádosti o informace může úřad pro AI s poskytovatelem obecného modelu AI zahájit strukturovaný dialog.
3. Efter en behørigt begrundet anmodning fra det videnskabelige panel kan Kommissionen fremsætte en anmodning om oplysninger til en udbyder af en AI-model til almen brug, hvis adgangen til oplysninger er nødvendig og forholdsmæssig for udførelsen af det videnskabelige panels opgaver i henhold til artikel 68, stk. 2.
3. Na základě řádně odůvodněné žádosti vědecké komise může Komise podat žádost o informace poskytovateli obecného modelu AI, pokud je přístup k informacím nezbytný a přiměřený pro plnění úkolů vědecké komise podle čl. 68 odst. 2.
4. Anmodningen om oplysninger skal angive retsgrundlaget og formålet med anmodningen, præcisere, hvilke oplysninger der anmodes om, fastsætte tidsfristen, inden for hvilken oplysningerne skal fremlægges, og angive de bøder, der er fastsat i artikel 101, for at afgive ukorrekte, ufuldstændige eller vildledende oplysninger.
4. V žádosti o informace je uveden právní základ a účel žádosti, jsou v ní upřesněny požadované informace, je v ní stanovena lhůta, v níž mají být informace poskytnuty, a jsou v ní uvedeny pokuty stanovené v článku 101 za poskytnutí nesprávných, neúplných nebo zavádějících informací.
5. Udbyderen af den pågældende AI-model til almen brug eller dennes repræsentant skal afgive de oplysninger, der anmodes om. Såfremt det drejer sig om juridiske personer, selskaber eller firmaer, eller hvis udbyderen ikke har status som juridisk person, skal de personer, som ved lov eller ifølge deres vedtægter har beføjelse til at repræsentere dem, afgive de oplysninger, der anmodes om på vegne af udbyderen af den pågældende AI-model til almen brug. Behørigt befuldmægtigede advokater kan afgive oplysninger på deres klienters vegne. Klienterne bærer dog det fulde ansvar, såfremt de afgivne oplysninger er ufuldstændige, ukorrekte eller vildledende.
5. Poskytovatel dotčeného obecného modelu AI nebo jeho zástupce poskytne požadované informace. V případě právnických osob, společností nebo podniků nebo v případě, že poskytovatel nemá právní subjektivitu, poskytnou požadované informace jménem poskytovatele dotčeného obecného modelu AI osoby oprávněné je zastupovat podle zákona nebo podle jejich stanov. Informace mohou za své klienty sdělit řádně zmocnění právní zástupci. Tito klienti však jsou i nadále plně odpovědní v případě, že jsou poskytnuté informace neúplné, nesprávné nebo zavádějící.
Artikel 92
Článek 92
Beføjelse til at foretage evalueringer
Pravomoc provádět hodnocení
1. AI-kontoret kan efter høring af AI-udvalget foretage evalueringer af den pågældende AI-model til almen brug:
1. Úřad pro AI může po konzultaci s radou provádět hodnocení dotčeného obecného modelu AI s cílem:
a)
med henblik på at vurdere, om udbyderen overholder forpligtelserne i henhold til denne forordning, hvis de indsamlede oplysninger i henhold til artikel 91 er utilstrækkelige, eller
a)
posoudit, zda poskytovatel plní povinnosti podle tohoto nařízení, jsou-li informace shromážděné podle článku 91 nedostatečné nebo
b)
med henblik på at undersøge systemiske risici på EU-plan for AI-modeller til almen brug med systemisk risiko, navnlig efter en kvalificeret varsling fra det videnskabelige panel i overensstemmelse med artikel 90, stk. 1, litra a).
b)
zkoumat na úrovni Unie systémová rizika obecných modelů AI se systémovým rizikem, zejména na základě kvalifikované výstrahy vědecké komise v souladu s čl. 90 odst. 1 písm. a).
2. Kommissionen kan beslutte at udpege uafhængige eksperter til at foretage evalueringer på dens vegne, herunder fra det videnskabelige panel, der er oprettet i henhold til artikel 68. Uafhængige eksperter, der udpeges til denne opgave, skal opfylde kriterierne anført i artikel 68, stk. 2.
2. Komise může rozhodnout o jmenování nezávislých odborníků, kteří budou hodnocení provádět jejím jménem, a to i z řad vědecké komise zřízené podle článku 68. Nezávislí odborníci jmenovaní pro tento úkol splňují kritéria uvedená v čl. 68 odst. 2.
3. Med henblik på stk. 1 kan Kommissionen anmode om adgang til den pågældende AI-model til almen brug via API'er eller andre hensigtsmæssige tekniske midler og værktøjer, herunder kildekode.
3. Pro účely odstavce 1 může Komise požádat o přístup k dotčenému obecnému modelu AI prostřednictvím aplikačních programovacích rozhraní nebo dalších vhodných technických prostředků a nástrojů, včetně zdrojového kódu.
4. Anmodningen om adgang skal angive retsgrundlaget, formålet med og begrundelsen for anmodningen og fastsætte tidsfristen, inden for hvilken der skal gives adgang, samt bøder, der er fastsat i artikel 101, ved manglende adgang.
4. V žádosti o přístup je uveden právní základ, účel a odůvodnění žádosti, je v ní stanovena lhůta, v níž má být přístup poskytnut, a jsou v ní uvedeny pokuty stanovené v článku 101 za neposkytnutí přístupu.
5. Udbydere af den pågældende AI-model til almen brug eller dennes repræsentant skal afgive de oplysninger, der anmodes om. Såfremt det drejer sig om juridiske personer, selskaber eller firmaer, eller hvis udbyderen ikke har status som juridisk person, skal de personer, som ved lov eller ifølge deres vedtægter har beføjelse til at repræsentere dem, give den adgang, der anmodes om på vegne af udbyderen af den pågældende AI-model til almen brug.
5. Poskytovatelé dotčeného obecného modelu AI nebo jeho zástupci požadované informace poskytnou; Jménem poskytovatelů dotčeného modelu AI, kteří jsou právnickou osobou, společností nebo poskytovateli bez právní subjektivity, poskytnou požadovaný přístup osoby oprávněné je zastupovat podle zákona nebo jejich stanov.
6. Kommissionen vedtager gennemførelsesretsakter, der fastsætter de nærmere ordninger og bestemmelser og betingelser for evalueringerne, herunder de nærmere ordninger for inddragelse af uafhængige eksperter, og proceduren for udvælgelse heraf. Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
6. Komise přijme prováděcí akty, kterými stanoví podrobná ustanovení a podmínky hodnocení, včetně podrobných ustanovení pro zapojení nezávislých odborníků, a postup pro jejich výběr. Tyto prováděcí akty se přijímají přezkumným postupem podle čl. 98 odst. 2.
7. Inden der anmodes om adgang til den pågældende AI-model til almen brug, kan AI-kontoret indlede en struktureret dialog med udbyderen af AI-modellen til almen brug for at indsamle flere oplysninger om den interne afprøvning af modellen, interne sikkerhedsforanstaltninger til forebyggelse af systemiske risici og andre interne procedurer og foranstaltninger, som udbyderen har truffet for at afbøde sådanne risici.
7. Před podáním žádosti o přístup k dotčenému obecnému modelu AI může úřad pro AI s poskytovatelem obecného modelu AI zahájit strukturovaný dialog s cílem shromáždit více informací o interním testování modelu, interních zárukách pro předcházení systémovým rizikům a dalších vnitřních postupech a opatřeních, které poskytovatel přijal ke zmírnění těchto rizik.
Artikel 93
Článek 93
Beføjelse til at anmode om foranstaltninger
Pravomoc požádat o opatření
1. Hvis det er nødvendigt og hensigtsmæssigt, kan Kommissionen anmode udbyderne om at:
1. Je-li to nezbytné a vhodné, může Komise požádat poskytovatele, aby:
a)
træffe passende foranstaltninger til at overholde forpligtelserne i artikel 53 og 54
a)
přijali vhodná opatření ke splnění povinností stanovených v článcích 53 a 54;
b)
gennemføre afbødende foranstaltninger, hvis den evaluering, der foretages i overensstemmelse med artikel 92, har givet anledning til alvorlig og begrundet mistanke om en systemisk risiko på EU-plan
b)
zavedli zmírňující opatření, pokud hodnocení provedené v souladu s článkem 92 vyvolalo vážné a odůvodněné obavy ohledně systémového rizika na úrovni Unie;
c)
begrænse tilgængeliggørelsen på markedet, tilbagetrække eller tilbagekalde modellen.
c)
omezili dodávání modelu na trh, stáhli jej z trhu nebo z oběhu.
2. Inden der anmodes om foranstaltninger, kan AI-kontoret indlede en struktureret dialog med udbyderen af AI-modellen til almen brug.
2. Před odesláním žádosti o opatření může úřad pro AI s poskytovatelem obecného modelu AI zahájit strukturovaný dialog.
3. Hvis udbyderen af AI-modellen til almen brug med systemisk risiko under den strukturerede dialog, der er omhandlet i stk. 2, afgiver tilsagn om at gennemføre afbødende foranstaltninger for at afhjælpe en systemisk risiko på EU-plan, kan Kommissionen ved en afgørelse gøre disse tilsagn bindende og erklære, at der ikke er yderligere grundlag for handling.
3. Pokud během strukturovaného dialogu uvedeného v odstavci 2 poskytovatel obecného modelu AI se systémovým rizikem nabídne zavázat se k provedení zmírňujících opatření k řešení systémového rizika na úrovni Unie, může Komise rozhodnutím prohlásit tyto závazky za závazné a prohlásit, že neexistují žádné další důvody pro přijetí opatření.
Artikel 94
Článek 94
Erhvervsdrivendes procedurerettigheder i forbindelse med AI-modellen til almen brug
Procesní práva provozovatelů spojených s obecnými modely AI
Artikel 18 i forordning (EU) 2019/1020 finder tilsvarende anvendelse på udbydere af AI-modellen til almen brug, uden at dette berører de mere specifikke procedurerettigheder, som er fastsat i nærværende forordning.
Na poskytovatele obecného modelu AI se použije obdobně článek 18 nařízení (EU) 2019/1020, aniž jsou dotčena konkrétnější procesní práva stanovená v tomto nařízení.
KAPITEL X
KAPITOLA X
ADFÆRDSKODEKSER OG RETNINGSLINJER
KODEXY CHOVÁNÍ A POKYNY
Artikel 95
Článek 95
Adfærdskodekser for frivillig anvendelse af specifikke krav
Kodexy chování v případě dobrovolného uplatňování konkrétních požadavků
1. AI-kontoret og medlemsstaterne tilskynder til og letter udarbejdelsen af adfærdskodekser, herunder tilhørende forvaltningsmekanismer, der har til formål at fremme frivillig anvendelse af visse af eller alle de i kapitel III, afdeling 2, fastsatte krav på AI-systemer, der ikke er højrisiko-AI-systemer, under hensyntagen til de tilgængelige tekniske løsninger og industriens bedste praksis, der gør det muligt at anvende sådanne krav.
1. Úřad pro AI a členské státy podporují a usnadňují vypracovávání kodexů chování, včetně souvisejících mechanismů správy, které mají podpořit dobrovolné uplatňování některých nebo všech požadavků stanovených v kapitole III oddílu 2 na systémy AI, jež nejsou vysoce rizikovými systémy AI, při zohlednění dostupných technických řešení a osvědčených postupů v daném odvětví, jež uplatňování těchto požadavků umožňují.
2. AI-kontoret og medlemsstaterne letter udarbejdelsen af adfærdskodekser vedrørende frivillig anvendelse, herunder fra idriftsætternes side, af specifikke krav til alle AI-systemer på grundlag af klare mål og centrale resultatindikatorer til måling af realiseringen af disse mål, herunder elementer såsom, men ikke begrænset til:
2. Úřad pro AI a členské státy usnadňují vypracovávání kodexů chování týkajících se dobrovolného uplatňování, a to i ze strany zavádějících subjektů, konkrétních požadavků na všechny systémy AI na základě jasných cílů a klíčových ukazatelů výkonnosti umožňujících měřit dosahování těchto cílů, včetně prvků, jako jsou mimo jiné:
a)
relevante elementer fastsat i Unionens etiske retningslinjer for troværdig AI
a)
příslušné prvky stanovené v etických pokynech Unie pro zajištění důvěryhodnosti AI;
b)
vurdering og minimering af AI-systemers indvirkning på miljømæssig bæredygtighed, herunder med hensyn til energieffektiv programmering og teknikker til effektiv udformning, træning og anvendelse af AI
b)
posuzování a minimalizace dopadu systémů AI na environmentální udržitelnost, a to i pokud jde o energeticky účinné programování a techniky pro účinné navrhování, trénování a využívání AI;
c)
fremme af AI-færdigheder, navnlig hos personer, der beskæftiger sig med udvikling, drift og anvendelse af AI
c)
podpora gramotnosti v oblasti AI, zejména u osob zabývajících se vývojem, fungováním a využíváním AI;
d)
fremme af en inklusiv og mangfoldig udformning af AI-systemer, herunder gennem oprettelse af inklusive og mangfoldige udviklingsteams og fremme af interessenters inddragelse i denne proces
d)
usnadňování inkluzivního navrhování systémů AI zohledňujícího rozmanitost, mimo jiné zřízením inkluzivních a rozmanitých vývojových týmů a podporou účasti zúčastněných stran na tomto procesu;
e)
vurdering og forebyggelse af, at AI-systemer har negativ indvirkning på sårbare personer eller grupper af sårbare personer, herunder for så vidt angår tilgængelighed for personer med handicap, samt på ligestilling mellem kønnene.
e)
posuzování negativního dopadu systémů AI na zranitelné osoby nebo skupiny zranitelných osob, a to i pokud jde o přístupnost pro osoby se zdravotním postižením, jakož i na genderovou rovnost a zamezování tomuto dopadu.
3. Adfærdskodekser kan udarbejdes af individuelle udbydere eller idriftsættere af AI-systemer, af organisationer, der repræsenterer dem, eller af begge, herunder med inddragelse af eventuelle interesserede parter og deres repræsentative organisationer, herunder civilsamfundsorganisationer og den akademiske verden. Adfærdskodekser kan omfatte et eller flere AI-systemer under hensyntagen til ligheden mellem de relevante systemers tilsigtede formål.
3. Kodexy chování mohou vypracovat jednotliví poskytovatelé systémů AI či subjekty, které tyto systémy zavádějí, nebo organizace, které je zastupují, případně tito aktéři společně, a to i za účasti veškerých zúčastněných stran a jejich zastupujících organizací, včetně organizací občanské společnosti a akademické obce. Kodexy chování se mohou vztahovat na jeden nebo více systémů AI s přihlédnutím k podobnosti zamýšleného účelu daných systémů.
4. Når AI-kontoret og medlemsstaterne tilskynder til og letter udarbejdelsen af adfærdskodekser, tager de hensyn til SMV'ers, herunder iværksættervirksomheders, særlige interesser og behov.
4. Při podpoře a usnadňování vypracovávání kodexů chování zohlední úřad pro AI a členské státy konkrétní zájmy a potřeby malých a středních podniků, včetně podniků začínajících.
Artikel 96
Článek 96
Retningslinjer fra Kommissionen om gennemførelsen af denne forordning
Pokyny Komise týkající se provádění tohoto nařízení
1. Kommissionen udarbejder retningslinjer for den praktiske gennemførelse af denne forordning, navnlig for:
1. Komise vypracuje pokyny týkající se praktického provádění tohoto nařízení, a to zejména pokud jde o:
a)
anvendelsen af de krav og forpligtelser, der er omhandlet i artikel 8-15 og artikel 25
a)
uplatňování požadavků a povinností uvedených v odstavcích 8 až 15 a v článku 25;
b)
de forbudte former for praksis, der er omhandlet i artikel 5
b)
zakázané postupy podle článku 5;
c)
den praktiske gennemførelse af bestemmelserne om væsentlig ændring
c)
praktické provádění ustanovení týkajících se podstatné změny;
d)
den praktiske gennemførelse af gennemsigtighedsforpligtelserne i artikel 50
d)
praktické provádění povinností v oblasti transparentnosti stanovených v článku 50;
e)
detaljerede oplysninger om forholdet mellem denne forordning og EU-harmoniseringslovgivningen, der er opført i bilag I, samt anden relevant EU-ret, herunder for så vidt angår konsekvens i håndhævelsen deraf
e)
podrobné informace o vztahu tohoto nařízení k harmonizačním právním předpisům Unie uvedeným v příloze I, jakož i k jinému relevantnímu právu Unie, a to i pokud jde o konzistentnost při jejich prosazování;
f)
anvendelsen af definitionen af et AI-system som fastsat i artikel 3, nr. 1).
f)
uplatňování definice systému AI stanovené v čl. 3 bodu 1.
Når Kommissionen udsteder sådanne retningslinjer, skal den være særlig opmærksom på behovene hos SMV'er, herunder iværksættervirksomheder, hos lokale offentlige myndigheder og i sektorer, der med størst sandsynlighed vil blive berørt af denne forordning.
Při vydávání těchto pokynů věnuje Komise zvláštní pozornost potřebám malých a středních podniků, včetně podniků začínajících, místních veřejných orgánů a odvětví, kterých se toto nařízení s největší pravděpodobností dotkne.
Der skal med de retningslinjer, der er omhandlet i dette stykkes første afsnit, tages behørigt hensyn til det generelt anerkendte aktuelle teknologiske niveau inden for AI samt til relevante harmoniserede standarder og fælles specifikationer, der er omhandlet i artikel 40 og 41, eller til de harmoniserede standarder eller tekniske specifikationer, der er fastsat i henhold til EU-harmoniseringsretten.
V pokynech uvedených v prvním pododstavci tohoto odstavce se náležitě zohlední obecně uznávaný nejnovější vývoj v oblasti AI, jakož i relevantní harmonizované normy a společné specifikace uvedené v článcích 40 a 41 nebo harmonizované normy nebo technické specifikace, které jsou stanoveny podle harmonizačních právních předpisů Unie.
2. På anmodning af medlemsstaterne eller AI-kontoret eller på eget initiativ ajourfører Kommissionen tidligere vedtagne retningslinjer, når det skønnes nødvendigt.
2. V případě potřeby Komise na žádost členských států či úřadu pro AI nebo z vlastního podnětu pokyny přijaté v minulosti aktualizuje.
KAPITEL XI
KAPITOLA XI
DELEGATION AF BEFØJELSER OG UDVALGSPROCEDURE
PŘENESENÍ PRAVOMOCI A POSTUP PROJEDNÁVÁNÍ VE VÝBORU
Artikel 97
Článek 97
Udøvelse af de delegerede beføjelser
Výkon přenesené pravomoci
1. Beføjelsen til at vedtage delegerede retsakter tillægges Kommissionen på de i denne artikel fastlagte betingelser.
1. Pravomoc přijímat akty v přenesené pravomoci je svěřena Komisi za podmínek stanovených v tomto článku.
2. Beføjelsen til at vedtage delegerede retsakter, jf. artikel 6, stk. 6 og 7, artikel 7, stk. 1 og 3, artikel 11, stk. 3, artikel 43, stk. 5 og 6, artikel 47, stk. 5, artikel 51, stk. 3, artikel 52, stk. 4, og artikel 53, stk. 5 og 6, tillægges Kommissionen for en periode på fem år fra den 1. august 2024. Kommissionen udarbejder en rapport vedrørende delegationen af beføjelser senest ni måneder inden udløbet af femårsperioden. Delegationen af beføjelser forlænges stiltiende for perioder af samme varighed, medmindre Europa-Parlamentet eller Rådet modsætter sig en sådan forlængelse senest tre måneder inden udløbet af hver periode.
2. Pravomoc přijímat akty v přenesené pravomoci uvedená v čl. 6 odst. 6 a 7, čl. 7 odst. 1 a 3, čl. 11 odst. 3, čl. 43 odst. 5 a 6, čl. 47 odst. 5, čl. 51 odst. 3, čl. 52 odst. 4 a čl. 53 odst. 5 a 6 je Komisi svěřena na dobu pěti let ode dne 1. srpna 2024. Komise vypracuje zprávu o výkonu přenesení pravomoci nejpozději devět měsíců před koncem tohoto pětiletého období. Přenesení pravomoci se automaticky prodlužuje o stejně dlouhá období, pokud Evropský parlament ani Rada nevysloví proti tomuto prodloužení námitku nejpozději tři měsíce před koncem každého z těchto období.
3. Den i artikel 6, stk. 6 og 7, artikel 7, stk. 1 og 3, artikel 11, stk. 3, artikel 43, stk. 5 og 6, artikel 47, stk. 5, artikel 51, stk. 3, artikel 52, stk. 4, og artikel 53, stk. 5 og 6, omhandlede delegation af beføjelser kan til enhver tid tilbagekaldes af Europa-Parlamentet eller Rådet. En afgørelse om tilbagekaldelse bringer delegationen af de beføjelser, der er angivet i den pågældende afgørelse, til ophør. Den får virkning dagen efter offentliggørelsen af afgørelsen i Den Europæiske Unions Tidende eller på et senere tidspunkt, der angives i afgørelsen. Den berører ikke gyldigheden af delegerede retsakter, der allerede er i kraft.
3. Evropský parlament nebo Rada mohou přenesení pravomoci uvedené v čl. 6 odst. 6 a 7, čl. 7 odst. 1 a 3, čl. 11 odst. 3, čl. 43 odst. 5 a 6, čl. 47 odst. 5, čl. 51 odst. 3, čl. 52 odst. 4 a čl. 53 odst. 5 a 6 kdykoli zrušit. Rozhodnutím o zrušení se ukončuje přenesení pravomoci v něm blíže určené. Rozhodnutí nabývá účinku prvním dnem po zveřejnění v Úředním věstníku Evropské unie nebo k pozdějšímu dni, který je v něm upřesněn. Nedotýká se platnosti již platných aktů v přenesené pravomoci.
4. Inden vedtagelsen af en delegeret retsakt hører Kommissionen eksperter, som er udpeget af hver enkelt medlemsstat, i overensstemmelse med principperne i den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning.
4. Před přijetím aktu v přenesené pravomoci vede Komise konzultace s odborníky jmenovanými jednotlivými členskými státy v souladu se zásadami stanovenými v interinstitucionální dohodě ze dne 13. dubna 2016 o zdokonalení tvorby právních předpisů.
5. Så snart Kommissionen vedtager en delegeret retsakt, giver den samtidigt Europa-Parlamentet og Rådet meddelelse herom.
5. Přijetí aktu v přenesené pravomoci Komise neprodleně oznámí současně Evropskému parlamentu a Radě.
6. Enhver delegeret retsakt vedtaget i henhold til artikel 6, stk. 6 eller 7, artikel 7, stk. 1 eller 3, artikel 11, stk. 3, artikel 43, stk. 5 eller 6, artikel 47, stk. 5, artikel 51, stk. 3, artikel 52, stk. 4, eller artikel 53, stk. 5 eller 6, træder kun i kraft, hvis hverken Europa-Parlamentet eller Rådet har gjort indsigelse inden for en frist på tre måneder fra meddelelsen af den pågældende retsakt til Europa-Parlamentet og Rådet, eller hvis Europa-Parlamentet og Rådet inden udløbet af denne frist begge har underrettet Kommissionen om, at de ikke agter at gøre indsigelse. Fristen forlænges med tre måneder på Europa-Parlamentets eller Rådets initiativ.
6. Akt v přenesené pravomoci přijatý podle čl. 6 odst. 6 nebo 7, čl. 7 odst. 1 nebo 3, čl. 11 odst. 3, čl. 43 odst. 5 nebo 6, čl. 47 odst. 5, čl. 51 odst. 3, čl. 52 odst. 4 nebo čl. 53 odst. 5 nebo 6 vstoupí v platnost, pouze pokud proti němu Evropský parlament nebo Rada nevysloví námitky ve lhůtě tří měsíců ode dne, kdy jim byl tento akt oznámen, nebo pokud Evropský parlament i Rada před uplynutím této lhůty informují Komisi o tom, že námitky nevysloví. Z podnětu Evropského parlamentu nebo Rady se tato lhůta prodlouží o tři měsíce.
Artikel 98
Článek 98
Udvalgsprocedure
Postup projednávání ve výboru
1. Kommissionen bistås af et udvalg. Dette udvalg er et udvalg som omhandlet i forordning (EU) nr. 182/2011.
1. Komisi je nápomocen výbor. Tento výbor je výborem ve smyslu nařízení (EU) č. 182/2011.
2. Når der henvises til dette stykke, finder artikel 5 i forordning (EU) nr. 182/2011 anvendelse.
2. Odkazuje-li se na tento odstavec, použije se článek 5 nařízení (EU) č. 182/2011.
KAPITEL XII
KAPITOLA XII
SANKTIONER
SANKCE
Artikel 99
Článek 99
Sanktioner
Sankce
1. I overensstemmelse med de vilkår og betingelser, der er fastsat i denne forordning, fastsætter medlemsstaterne regler om sanktioner og andre håndhævelsesforanstaltninger, som også kan omfatte advarsler og ikkeøkonomiske foranstaltninger, for operatørers overtrædelse af denne forordning og træffer alle nødvendige foranstaltninger for at sikre, at de gennemføres korrekt og effektivt, og dermed tage hensyn til de retningslinjer, som Kommissionen har udstedt i henhold til artikel 96. Sanktionerne skal være effektive, stå i et rimeligt forhold til overtrædelsen og have afskrækkende virkning. Der tages hensyn til SMV'ers, herunder iværksættervirksomheders, interesser og deres økonomiske levedygtighed.
1. Členské státy v souladu s podmínkami stanovenými v tomto nařízení stanoví pravidla pro sankce a jiná donucovací opatření, která mohou rovněž zahrnovat varování a nepeněžní opatření, použitelná v případě porušení tohoto nařízení ze strany provozovatelů a přijmou veškerá opatření nezbytná k zajištění jejich řádného a účinného uplatňování, a to s přihlédnutím k pokynům vydaným Komisí podle článku 96. Stanovené sankce musí být účinné, přiměřené a odrazující. Zohledňují zájmy malých a středních podniků, včetně podniků začínajících, a jejich ekonomickou životaschopnost.
2. Medlemsstaterne giver straks og senest på anvendelsesdatoen Kommissionen meddelelse om reglerne om sanktioner og andre håndhævelsesforanstaltninger, der er omhandlet i stk. 1, og meddeler den straks enhver efterfølgende ændring heraf.
2. Členské státy neprodleně a nejpozději ke dni použitelnosti oznámí Komisi pravidla pro sankce a jiná donucovací opatření uvedená v odstavci 1 a neprodleně jí oznámí veškeré jejich následné změny.
3. Manglende overholdelse af forbud mod de i artikel 5 anførte former for AI-praksis straffes med administrative bøder på op til 35 000 000 EUR eller, hvis lovovertræderen er en virksomhed, op til 7 % af dens samlede globale årlige omsætning i det foregående regnskabsår, alt efter hvilket beløb der er størst.
3. Za nedodržení zákazu postupů v oblasti AI uvedených v článku 5 se uloží správní pokuty až do výše 35 000 000 EUR nebo, dopustí-li se porušení podnik, až do výše 7 % jeho celkového celosvětového ročního obratu za předchozí finanční rok podle toho, která hodnota je vyšší:
4. Manglende overholdelse af en af følgende bestemmelser vedrørende operatører eller bemyndigede organer, bortset fra de bestemmelser, der er fastsat i artikel 5, straffes med administrative bøder på op til 15 000 000 EUR eller, hvis lovovertræderen er en virksomhed, op til 3 % af dens samlede globale årlige omsætning i det foregående regnskabsår, alt efter hvilket beløb der er størst:
4. Za nesoulad s jakýmikoli z následujících ustanovení týkajících se jiných provozovatelů nebo oznámených subjektů, než kteří jsou uvedeni v článku 5, se uloží správní pokuty až do výše 15 000 000 EUR nebo, dopustí-li se porušení podnik, až do výše 3 % jeho celkového celosvětového ročního obratu za předchozí finanční rok podle toho, která hodnota je vyšší:
a)
forpligtelser for udbydere i henhold til artikel 16
a)
povinnosti poskytovatelů podle článku 16;
b)
forpligtelser for bemyndigede repræsentanter i henhold til artikel 22
b)
povinnosti zplnomocněných zástupců podle článku 22;
c)
forpligtelser for importører i henhold til artikel 23
c)
povinnosti dovozců podle článku 23;
d)
forpligtelser for distributører i henhold til artikel 24
d)
povinnosti distributorů podle článku 24;
e)
forpligtelser for idriftsættere i henhold til artikel 26
e)
povinnosti zavádějících subjektů podle článku 26;
f)
krav til og forpligtelser for bemyndigede organer i henhold til artikel 31, artikel 33, stk. 1, 3 og 4, eller artikel 34
f)
požadavky a povinnosti oznámených subjektů podle článku 31, čl. 33 odst. 1, 3 a 4 nebo článku 34;
g)
gennemsigtighedsforpligtelser for udbydere og idriftsættere i henhold til artikel 50.
g)
povinnosti v oblasti transparentnosti pro poskytovatele a zavádějící subjekty podle článku 50.
5. Afgivelse af ukorrekte, ufuldstændige eller vildledende oplysninger til bemyndigede organer eller nationale kompetente myndigheder som svar på en anmodning straffes med administrative bøder på op til 7 500 000 EUR eller, hvis lovovertræderen er en virksomhed, op til 1 % af dens samlede globale årlige omsætning i det foregående regnskabsår, alt efter hvilket beløb der er størst.
5. Za poskytnutí nesprávných, neúplných nebo zavádějících informací oznámeným subjektům nebo příslušným vnitrostátním orgánům v reakci na žádost se uloží správní pokuty až do výše 7 500 000 EUR nebo, dopustí-li se porušení podnik, až do výše 1 % jeho celkového celosvětového ročního obratu za předchozí finanční rok podle toho, která hodnota je vyšší.
6. For SMV'er, herunder iværksættervirksomheder, skal hver bøde, der er omhandlet i denne artikel, være op til den procentsats eller det beløb, der er omhandlet i stk. 3, 4 og 5, alt efter hvilken af dem der er lavest.
6. V případě malých a středních podniků, včetně podniků začínajících, činí výše každé pokuty uvedené v tomto článku maximálně procentní podíl nebo částku podle odstavců 3, 4 a 5 podle toho, která z těchto hodnot je nižší.
7. Når der træffes afgørelse om, hvorvidt der skal pålægges en administrativ bøde, og ved fastsættelsen af den administrative bødes størrelse tages der i hvert enkelt tilfælde hensyn til alle relevante omstændigheder i den specifikke situation, og der tages i relevant omfang hensyn til følgende:
7. Při rozhodování o tom, zda uložit správní pokutu, a při rozhodování o výši správní pokuty v jednotlivých případech se zohlední všechny příslušné okolnosti konkrétní situace s náležitým přihlédnutím k následujícím okolnostem:
a)
overtrædelsens art, grovhed og varighed samt dens konsekvenser under hensyntagen til formålet med AI-systemet samt, hvis det er relevant, antallet af berørte personer og omfanget af den skade, de har lidt
a)
povaha, závažnost a doba trvání protiprávního jednání a jeho důsledků, s přihlédnutím k účelu systému AI, jakož i případně k počtu dotčených osob a k úrovni škod, které jim vznikly;
b)
hvorvidt andre markedsovervågningsmyndigheder allerede har pålagt den samme operatør administrative bøder for samme overtrædelse
b)
zda již byly stejnému provozovateli za stejné protiprávní jednání uloženy správní pokuty jinými orgány dozoru nad trhem;
c)
hvorvidt andre myndigheder allerede har pålagt den samme operatør administrative bøder for overtrædelser af anden EU-ret eller national ret, når sådanne overtrædelser skyldes den samme aktivitet eller undladelse, der udgør en relevant overtrædelse af denne forordning
c)
zda již jiné orgány uložily témuž provozovateli správní pokuty za porušení jiného práva Unie nebo vnitrostátního práva, pokud tato porušení vyplývají ze stejné činnosti nebo opomenutí, které představují relevantní porušení tohoto nařízení;
d)
størrelsen på den operatør, der har begået overtrædelsen, og dennes årlige omsætning og markedsandel
d)
velikost a roční obrat provozovatele, který se porušení dopustil, a jeho podíl na trhu;
e)
om der er andre skærpende eller formildende faktorer ved sagens omstændigheder såsom opnåede økonomiske fordele eller undgåede tab som direkte eller indirekte følge af overtrædelsen
e)
jakákoliv jiná přitěžující nebo polehčující okolnost týkající se kontextu daného případu, jako je finanční prospěch, který byl z porušení přímo či nepřímo získán, či zamezení ztrátám, které z porušení přímo či nepřímo vyplývá;
f)
graden af samarbejde med de nationale kompetente myndigheder for at afhjælpe overtrædelsen og begrænse de negative konsekvenser, som overtrædelsen måtte have givet anledning til
f)
míra spolupráce s příslušnými vnitrostátními orgány za účelem nápravy porušení a zmírnění jeho možných nežádoucích účinků;
g)
graden af ansvar hos operatøren under hensyntagen til de tekniske og organisatoriske foranstaltninger, som vedkommende har gennemført
g)
míra odpovědnosti provozovatele s přihlédnutím k technickým a organizačním opatřením, která provedl;
h)
den måde, hvorpå de nationale kompetente myndigheder fik kendskab til overtrædelsen, navnlig om operatøren har underrettet om overtrædelsen, og i givet fald i hvilket omfang
h)
způsob, jakým se příslušné vnitrostátní orgány o porušení dozvěděly, zejména zda provozovatel porušení oznámil, a pokud ano, v jakém rozsahu;
i)
hvorvidt overtrædelsen blev begået forsætligt eller uagtsomt
i)
zda k porušení došlo úmyslně, nebo z nedbalosti;
j)
ethvert tiltag fra operatørens side for at afbøde skaden på de pågældende personer.
j)
veškerá opatření přijatá provozovatelem ke zmírnění škody způsobené dotčeným osobám.
8. Hver medlemsstat fastsætter regler om, i hvilket omfang administrative bøder kan pålægges offentlige myndigheder og organer, der er etableret i den pågældende medlemsstat.
8. Každý členský stát stanoví pravidla týkající se toho, do jaké míry je možno ukládat správní pokuty orgánům veřejné moci a veřejným subjektům usazeným v daném členském státě.
9. Afhængigt af medlemsstaternes retssystem kan reglerne om administrative bøder anvendes på en sådan måde, at bøderne pålægges af kompetente nationale domstole eller af andre organer, alt efter hvad der er relevant i disse medlemsstater. Anvendelsen af disse regler i disse medlemsstater har tilsvarende virkning.
9. V závislosti na právním systému členských států lze pravidla pro správní pokuty použít tak, aby pokuty byly ukládány příslušnými vnitrostátními soudy nebo jinými subjekty dle úpravy platné v těchto členských státech. Uplatňování těchto pravidel v uvedených členských státech má rovnocenný účinek.
10. Udøvelse af beføjelser i henhold til denne artikel skal være underlagt fornødne proceduremæssige sikkerhedsforanstaltninger i overensstemmelse med EU-retten og national ret, herunder effektive retsmidler og retfærdig procedure.
10. Na výkon pravomocí podle tohoto článku se vztahují vhodné procesní záruky v souladu s právem Unie a vnitrostátním právem, včetně účinné soudní ochrany a spravedlivého procesu.
11. Medlemsstaterne aflægger årligt rapport til Kommissionen om de administrative bøder, de har udstedt i løbet af det pågældende år, i overensstemmelse med denne artikel, og om eventuelle dermed forbundne tvister eller retssager.
11. Členské státy každoročně podávají Komisi zprávu o správních pokutách, které v daném roce v souladu s tímto článkem uložily, a o veškerých souvisejících soudních sporech nebo soudních řízeních.
Artikel 100
Článek 100
Administrative bøder til EU-institutioner, -organer, -kontorer og -agenturer
Správní pokuty ukládané orgánům, institucím a jiným subjektům Unie
1. Den Europæiske Tilsynsførende for Databeskyttelse kan pålægge de EU-institutioner, -organer, -kontorer og -agenturer, der er omfattet af denne forordnings anvendelsesområde, administrative bøder. Når der træffes afgørelse om, hvorvidt der skal pålægges en administrativ bøde, og ved fastsættelsen af den administrative bødes størrelse tages der i hvert enkelt tilfælde hensyn til alle relevante omstændigheder i den specifikke situation, og der tages behørigt hensyn til følgende:
1. Evropský inspektor ochrany údajů může ukládat správní pokuty orgánům, institucím a jiným subjektům Unie, které spadají do oblasti působnosti tohoto nařízení. Při rozhodování o tom, zda uložit správní pokutu, a při rozhodování o výši správní pokuty se v jednotlivých případech zohlední všechny příslušné okolnosti konkrétní situace s náležitým přihlédnutím k následujícím okolnostem:
a)
overtrædelsens art, grovhed og varighed samt dens konsekvenser, under hensyntagen til formålet med det pågældende AI-system, samt, hvis det er relevant, antallet af berørte personer og omfanget af den skade, de har lidt
a)
povaha, závažnost a doba trvání porušení příslušných ustanovení a jeho následky; s přihlédnutím k účelu daného systému AI, a v příslušných případech rovněž k počtu dotčených osob a k úrovni škod, které jim vznikly;
b)
graden af ansvar hos EU-institutionen, -organet, -kontoret eller -agenturet under hensyntagen til de tekniske og organisatoriske foranstaltninger, som de har gennemført
b)
míra odpovědnosti orgánu, instituce nebo jiného subjektu Unie s přihlédnutím k technickým a organizačním opatřením, která provedly;
c)
ethvert tiltag, der foretages af EU-institutionen, -organet, -kontoret eller -agenturet for at afhjælpe den skade, som de berørte personer har lidt
c)
veškerá opatření přijatá orgánem, institucí nebo jiným subjektem Unie ke zmírnění škod, které dotčeným osobám vznikly;
d)
graden af samarbejde med Den Europæiske Tilsynsførende for Databeskyttelse med henblik på at afhjælpe overtrædelsen og afbøde de mulige negative virkninger af overtrædelsen, herunder overholdelse af enhver af de foranstaltninger, som Den Europæiske Tilsynsførende for Databeskyttelse tidligere har pålagt den pågældende EU-institution eller det pågældende EU-organ, -kontor eller -agentur med hensyn til samme genstand
d)
míra spolupráce s evropským inspektorem ochrany údajů za účelem nápravy daného porušení a zmírnění jeho možných nežádoucích účinků, včetně splnění případných opatření, která dříve nařídil evropský inspektor ochrany údajů dotčené instituci, orgánu nebo jinému subjektu Unie v souvislosti s toutéž záležitostí;
e)
eventuelle lignende overtrædelser, som den pågældende EU-institution eller det pågældende EU-organ, EU-kontor eller EU-agentur tidligere har begået
e)
všechna podobná předchozí porušení ze strany orgánu, instituce nebo jiného subjektu Unie;
f)
den måde, hvorpå Den Europæiske Tilsynsførende for Databeskyttelse fik kendskab til overtrædelsen, navnlig om den pågældende EU-institution eller det pågældende EU-organ, -kontor eller -agentur gav underretning om overtrædelsen, og i givet fald i hvilket omfang
f)
způsob, jakým se evropský inspektor ochrany údajů o porušení dozvěděl, zejména zda orgán, instituce nebo jiný subjekt Unie porušení oznámil, a pokud ano, v jakém rozsahu;
g)
EU-institutionens, -organets, -kontorets eller -agenturets årlige budget.
g)
roční rozpočet orgánu, instituce nebo jiného subjektu Unie.
2. Manglende overholdelse af forbuddet mod de i artikel 5 anførte former for AI-praksis straffes med administrative bøder på op til 1 500 000 EUR.
2. Za porušení zákazu postupů v oblasti AI uvedených v článku 5 lze uložit správní pokuty až do výše 1 500 000 EUR.
3. AI-systemets manglende overholdelse af ethvert krav eller enhver forpligtelse i henhold til denne forordning, bortset fra kravene i artikel 5, straffes med administrative bøder på op til 750 000 EUR.
3. Za nesoulad systému AI s jakýmikoli požadavky nebo povinnostmi podle tohoto nařízení s výjimkou těch, které jsou stanoveny v článku 5, se uloží správní pokuty až do výše 750 000 EUR.
4. Inden der træffes afgørelse i henhold til denne artikel, giver Den Europæiske Tilsynsførende for Databeskyttelse den pågældende EU-institution eller det pågældende EU-organ, -kontor eller -agentur, der er genstand for de procedurer, som gennemføres af Den Europæiske Tilsynsførende for Databeskyttelse, mulighed for at blive hørt om genstanden for den mulige overtrædelse. Den Europæiske Tilsynsførende for Databeskyttelse baserer udelukkende sine afgørelser på elementer og forhold, som de berørte parter har haft mulighed for at fremsætte bemærkninger til. Eventuelle klagere inddrages i vid udstrækning i proceduren.
4. Před přijetím rozhodnutí podle tohoto článku poskytne evropský inspektor ochrany údajů orgánu, instituci nebo jiného subjektu Unie, se kterým vede řízení, příležitost vyjádřit k záležitosti týkající se daného možného porušení své stanovisko. Evropský inspektor ochrany údajů zakládá své rozhodnutí pouze na prvcích a okolnostech, ke kterým se dotčené strany mohly vyjádřit. Případní stěžovatelé jsou do řízení úzce zapojeni.
5. De deltagende parters ret til forsvar skal sikres fuldt ud i procedureforløbet. De har ret til aktindsigt i Den Europæiske Tilsynsførende for Databeskyttelses sagsakter med forbehold af fysiske personers eller virksomheders berettigede interesse i at beskytte deres personoplysninger eller forretningshemmeligheder.
5. Při řízení je v plné míře zachováno právo dotčených stran na obhajobu. Dotčené strany mají přístup do spisu evropského inspektora ochrany údajů, s výhradou oprávněného zájmu jednotlivců nebo podniků na ochraně jejich osobních údajů nebo obchodního tajemství.
6. Midler, der er indsamlet ved pålæg af bøder i henhold til denne artikel, bidrager til Unionens almindelige budget. Bøderne berører ikke den effektive funktion af den EU-institution eller det EU-organ, -kontor eller -agentur, der er blevet pålagt bøden.
6. Prostředky vybrané ukládáním pokut podle tohoto článku jsou příspěvkem do souhrnného rozpočtu Unie. Pokutami není dotčeno účinné fungování orgánu, instituce nebo jiného subjektu Unie, jimž byla pokuta uložena.
7. Den Europæiske Tilsynsførende for Databeskyttelse underretter hvert år Kommissionen om de administrative bøder, den har pålagt i henhold til denne artikel, og om eventuelle tvister eller retssager, den har indledt.
7. Evropský inspektor ochrany údajů každoročně oznámí Komisi správní pokuty, které podle tohoto článku uložil, a veškeré soudní spory nebo soudní řízení, které zahájil.
Artikel 101
Článek 101
Bøder til udbydere af AI-modeller til almen brug
Pokuty pro poskytovatele obecných modelů AI
1. Kommissionen kan pålægge udbydere af AI-modeller til almen brug bøder på op til 3 % af deres årlige samlede globale omsætning i det foregående regnskabsår eller 15 000 000 EUR, alt efter hvilket beløb der er størst, når Kommissionen finder, at udbyderen forsætligt eller uagtsomt:
1. Komise může poskytovatelům obecných modelů AI uložit pokuty nepřesahující 3 % jejich celkového ročního celosvětového obratu za předchozí účetní období nebo 15 000 000 EUR, podle toho, která z těchto hodnot je vyšší, pokud Komise zjistí, že poskytovatel úmyslně nebo z nedbalosti:
a)
har overtrådt de relevante bestemmelser i denne forordning
a)
porušil příslušná ustanovení tohoto nařízení;
b)
har undladt at efterkomme en anmodning om et dokument eller om oplysninger i henhold til artikel 91 eller har afgivet ukorrekte, ufuldstændige eller vildledende oplysninger
b)
nevyhověl žádosti o dokument nebo o informace podle článku 91 nebo předložil nesprávné, neúplné či zavádějící informace;
c)
har undladt at efterkomme en foranstaltning, der er anmodet om i henhold til artikel 93
c)
nedodržel opatření požadované podle článku 93;
d)
har undladt at give Kommissionen adgang til AI-modellen til almen brug eller AI-modellen til almen brug med systemisk risiko med henblik på at foretage en evaluering i henhold til artikel 92.
d)
neposkytl Komisi přístup k obecnému modelu AI nebo obecnému modelu AI se systémovým rizikem za účelem provedení hodnocení podle článku 92.
Ved fastsættelse af bødens eller tvangsbødens størrelse tages overtrædelsens karakter, alvor og varighed i betragtning under behørig hensyntagen til proportionalitets- og rimelighedsprincippet. Kommissionen tager også hensyn til forpligtelser, der er indgået i overensstemmelse med artikel 93, stk. 3, eller i de relevante praksiskodekser i overensstemmelse med artikel 56.
Při stanovení výše pokuty nebo penále se zohlední povaha, závažnost a doba trvání porušení s náležitým přihlédnutím k zásadám proporcionality a přiměřenosti. Komise rovněž zohlední závazky přijaté v souladu s čl. 93 odst. 3 nebo přijaté v relevantních kodexech správné praxe v souladu s článkem 56.
2. Inden Kommissionen vedtager afgørelsen i henhold til stk. 1, meddeler den sine foreløbige resultater til udbyderen af AI-modellen til almen brug og giver vedkommende mulighed for at blive hørt.
2. Před přijetím rozhodnutí podle odstavce 1 sdělí Komise svá předběžná zjištění poskytovateli obecného modelu AI a poskytne mu příležitost se vyjádřit.
3. Bøder, der pålægges i overensstemmelse med denne artikel, skal være effektive, stå i et rimeligt forhold til overtrædelsen og have afskrækkende virkning.
3. Pokuty uložené v souladu s tímto článkem musí být účinné, přiměřené a odrazující.
4. Information om de bøder, der pålægges i henhold til denne artikel, meddeles også AI-udvalget, alt efter hvad der er relevant.
4. Informace o pokutách uložených podle tohoto článku se podle potřeby rovněž sdělují radě.
5. EU-Domstolen har fuld prøvelsesret med hensyn til Kommissionens afgørelser om fastsættelse af bøder i henhold til denne artikel. Den kan annullere, nedsætte eller forhøje den pålagte bøde.
5. Soudní dvůr Evropské unie má neomezenou pravomoc k přezkumu rozhodnutí Komise, jimiž se ukládá pokuta podle tohoto článku. Uloženou pokutu může zrušit, snížit nebo zvýšit.
6. Kommissionen vedtager gennemførelsesretsakter med de nærmere ordninger og proceduremæssige sikkerhedsforanstaltninger for procedurerne med henblik på eventuel vedtagelse af afgørelser i henhold til denne artikels stk. 1. Disse gennemførelsesretsakter vedtages efter undersøgelsesproceduren, jf. artikel 98, stk. 2.
6. Komise přijme prováděcí akty obsahující podrobná pravidla a procesní záruky pro řízení za účelem případného přijetí rozhodnutí podle odstavce 1 tohoto článku. Tyto prováděcí akty se přijímají přezkumným postupem podle čl. 98 odst. 2.
KAPITEL XIII
KAPITOLA XIII
AFSLUTTENDE BESTEMMELSER
ZÁVĚREČNÁ USTANOVENÍ
Artikel 102
Článek 102
Ændring af forordning (EF) nr. 300/2008
Změna nařízení (ES) č. 300/2008
I artikel 4, stk. 3, i forordning (EF) nr. 300/2008, tilføjes følgende afsnit:
V čl. 4 odst. 3 nařízení (ES) č. 300/2008 se doplňuje nový pododstavec, který zní:
»Når der vedtages detaljerede foranstaltninger vedrørende tekniske specifikationer og procedurer for godkendelse og brug af sikkerhedsudstyr vedrørende kunstig intelligens-systemer som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689 (*1), skal der tages hensyn til kravene i nævnte forordnings kapital III, afdeling 2.
„Při přijímání podrobných prováděcích opatření týkajících se technických specifikací a postupů pro schvalování a používání bezpečnostního vybavení ve vztahu k systémům umělé inteligence ve smyslu nařízení Evropského parlamentu a Rady (EU) 2024/1689 (*1), se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.
Artikel 103
Článek 103
Ændring af forordning (EU) nr. 167/2013
Změna nařízení (EU) č. 167/2013
I artikel 17, stk. 5, i forordning (EU) nr. 167/2013 tilføjes følgende afsnit:
V čl. 17 odst. 5 nařízení (EU) č. 167/2013 se doplňuje nový pododstavec, který zní:
»Når der i henhold til første afsnit vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689 (*2), skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
„Při přijímání aktů v přenesené pravomoci podle prvního pododstavce týkajících se systémů umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení Evropského parlamentu a Rady (EU) 2024/1689 (*2), se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.
Artikel 104
Článek 104
Ændring af forordning (EU) nr. 168/2013
Změna nařízení (EU) č. 168/2013
I artikel 22, stk. 5, i forordning (EU) nr. 168/2013 tilføjes følgende afsnit:
V čl. 22 odst. 5 nařízení (EU) č. 168/2013 se doplňuje nový pododstavec, který zní:
»Når der i henhold til første afsnit vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689 (*3), skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
„Při přijímání aktů v přenesené pravomoci podle prvního pododstavce týkajících se systémů umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení Evropského parlamentu a Rady (EU) 2024/1689 (*3), se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.
Artikel 105
Článek 105
Ændring af direktiv 2014/90/EU
Změna směrnice 2014/90/EU
I artikel 8 i direktiv 2014/90/EU tilføjes følgende stykke:
V článku 8 směrnice 2014/90/EU se doplňuje nový odstavec, který zní:
»5. For så vidt angår kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689 (*4), tager Kommissionen, når den udfører sine aktiviteter i henhold til stk. 1, og når den vedtager tekniske specifikationer og afprøvningsstandarder i overensstemmelse med stk. 2 og 3, hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
„5. Pro systémy umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení Evropského parlamentu a Rady (EU) 2024/1689 (*4), zohlední Komise při provádění svých činností podle odstavce 1 a při přijímání technických specifikací a zkušebních norem v souladu s odstavci 2 a 3 požadavky stanovené v kapitole III oddíle 2 uvedeného nařízení.
Artikel 106
Článek 106
Ændring af direktiv (EU) 2016/797
Změny směrnice (EU) 2016/797
I artikel 5 i direktiv (EU) 2016/797 tilføjes følgende stykke:
V článku 5 směrnice (EU) 2016/797 se doplňuje nový odstavec, který zní:
»12. Når der i henhold til stk. 1 vedtages delegerede retsakter eller i henhold til stk. 11 vedtages gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689 (*5), skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
„12. Při přijímání aktů v přenesené pravomoci podle odstavce 1 a prováděcích aktů podle odstavce 11 týkajících se systémů umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení Evropského parlamentu a Rady (EU) 2024/1689 (*5), se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.
Artikel 107
Článek 107
Ændring af forordning (EU) 2018/858
Změna nařízení (EU) 2018/858
I artikel 5 i forordning (EU) 2018/858 tilføjes følgende stykke:
V článku 5 nařízení (EU) 2018/858 se doplňuje nový odstavec, který zní:
»4. Når der i henhold til stk. 3 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689 (*6), skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
„4. Při přijímání aktů v přenesené pravomoci podle odstavce 3 týkajících se systémů umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení Evropského parlamentu a Rady (EU) 2024/1689 (*6), se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.
Artikel 108
Článek 108
Ændring af forordning (EU) 2018/1139
Změny nařízení (EU) 2018/1139
I forordning (EU) 2018/1139 foretages følgende ændringer:
Nařízení (EU) 2018/1139 se mění takto:
1)
I artikel 17 tilføjes følgende stykke:
1)
V článku 17 se doplňuje nový odstavec, který zní:
»3. Uden at det berører stk. 2, når der i henhold til stk. 1 vedtages gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689 (*7), skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.
„3. Aniž je dotčen odstavec 2, při přijímání prováděcích aktů podle odstavce 1 týkajících se systémů umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení Evropského parlamentu a Rady (EU) 2024/1689 (*7), se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.
(*7) Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797 og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).« "
(*7) Nařízení Evropského parlamentu a Rady (EU) 2024/1689 ze dne 13. června 2024, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění nařízení (ES) č. 300/2008, (EU) č. 167/2013, (EU) č. 168/2013, (EU) 2018/858, (EU) 2018/1139 a (EU) 2019/2144 a směrnice 2014/90/EU, (EU) 2016/797 a (EU) 2020/1828 (akt o umělé inteligenci) (Úř. věst. L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/_reg/2024/1689/oj).“ "
2)
I artikel 19 tilføjes følgende stykke:
2)
V článku 19 se doplňuje nový odstavec, který zní:
»4. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.«
„4. Při přijímání aktů v přenesené pravomoci podle odstavců 1 a 2 týkajících se systémů umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení (EU) 2024/1689, se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.“
3)
I artikel 43 tilføjes følgende stykke:
3)
V článku 43 se doplňuje nový odstavec, který zní:
»4. Når der i henhold til stk. 1 vedtages gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.«
„4. Při přijímání prováděcích aktů podle odstavce 1 týkajících se systémů umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení (EU) 2024/1689, se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.“
4)
I artikel 47 tilføjes følgende stykke:
4)
V článku 47 se doplňuje nový odstavec, který zní:
»3. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.«
„3. Při přijímání aktů v přenesené pravomoci podle odstavců 1 a 2 týkajících se systémů umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení (EU) 2024/1689, se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.“
5)
I artikel 57 tilføjes følgende afsnit:
5)
V článku 57 se doplňuje nový pododstavec, který zní:
»Når der vedtages sådanne gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.«
„Při přijímání těchto prováděcích aktů týkajících se systémů umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení (EU) 2024/1689, se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.“
6)
I artikel 58 tilføjes følgende stykke:
6)
V článku 58 se doplňuje nový odstavec, který zní:
»3. Når der i henhold til stk. 1 og 2 vedtages delegerede retsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i forordning (EU) 2024/1689, skal der tages hensyn til kravene i nævnte forordnings kapitel III, afdeling 2.«
„3. Při přijímání aktů v přenesené pravomoci podle odstavců 1 a 2 týkajících se systémů umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení (EU) 2024/1689, se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.“
Artikel 109
Článek 109
Ændring af forordning (EU) 2019/2144
Změna nařízení (EU) 2019/2144
I artikel 11 i forordning (EU) 2019/2144 tilføjes følgende stykke:
V článku 11 nařízení (EU) 2019/2144 se doplňuje nový odstavec, který zní:
»3. Når der i henhold til stk. 2 vedtages gennemførelsesretsakter vedrørende kunstig intelligens-systemer, som er sikkerhedskomponenter som omhandlet i Europa-Parlamentets og Rådets forordning (EU) 2024/1689 (*8), skal der tages hensyn til kravene i nævnte forordning kapitel III, afdeling 2.
„3. Při přijímání prováděcích aktů v přenesené pravomoci podle odstavce 2 týkajících se systémů umělé inteligence, které představují bezpečnostní komponenty ve smyslu nařízení Evropského parlamentu a Rady (EU) 2024/1689 (*8), se zohledňují požadavky uvedené v kapitole III oddíle 2 uvedeného nařízení.
Artikel 110
Článek 110
Ændring af direktiv (EU) 2020/1828
Změny směrnice (EU) 2020/1828
I bilag I til Europa-Parlamentets og Rådets direktiv (EU) 2020/1828 (58) tilføjes følgende punkt:
V příloze I směrnice Evropského parlamentu a Rady (EU) 2020/1828 (58) se doplňuje nový bod, který zní:
»68)
Europa-Parlamentets og Rådets forordning (EU) 2024/1689 af 13. juni 2024 om harmoniserede regler for kunstig intelligens og om ændring af forordning (EF) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 og (EU) 2019/2144 samt direktiv 2014/90/EU, (EU) 2016/797 og (EU) 2020/1828 (forordningen om kunstig intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).«
„68)
Nařízení Evropského parlamentu a Rady (EU) 2024/1689 ze dne 13. června 2024, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění nařízení (ES) č. 300/2008, (EU) č. 167/2013, (EU) č. 168/2013, (EU) 2018/858, (EU) 2018/1139 a (EU) 2019/2144 a směrnice 2014/90/EU, (EU) 2016/797 a (EU) 2020/1828 (akt o umělé inteligenci) (Úř. věst. L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/_reg/2024/1689/oj).“
Artikel 111
Článek 111
AI-systemer, der allerede er bragt i omsætning eller ibrugtaget, og AI-modeller til almen brug, der allerede er bragt i omsætning
Systémy AI, které již byly uvedeny na trh nebo do provozu a obecné modely AI již uvedené na trh
1. Uden at det berører anvendelsen af artikel 5 som omhandlet i artikel 113, stk. 3, litra a), skal AI-systemer, som er komponenter i de store IT-systemer, der er oprettet ved de retsakter, der er opført i bilag X, og som er blevet bragt i omsætning eller ibrugtaget inden den 2. august 2027, bringes i overensstemmelse med denne forordning senest den 31. december 2030.
1. Aniž je dotčeno použití článku 5, jak je uvedeno v čl. 113 odst. 3 písm. a), systémy AI, které jsou součástmi rozsáhlých informačních systémů zřízených právními akty uvedenými v příloze X a které byly uvedeny na trh nebo do provozu před 2. srpna 2027, se do 31. prosince 2030 uvedou do souladu s tímto nařízením.
De krav, der er fastsat i denne forordning, skal tages i betragtning ved den evaluering, som skal foretages i henhold til de retsakter, der er opført i bilag X, af hvert af de store IT-systemer, der er oprettet ved disse retsakter, og hvis disse retsakter erstattes eller ændres.
Požadavky stanovené v tomto nařízení se zohlední při hodnocení všech rozsáhlých informačních systémů zřízených právními akty uvedenými v příloze X, které se má provádět v souladu s těmito právními akty a v případě, že jsou tyto právní akty nahrazeny nebo pozměněny.
2. Uden at det berører anvendelsen af artikel 5 som omhandlet i artikel 113, stk. 3, litra a), finder denne forordning kun anvendelse på operatører af andre højrisiko-AI-systemer end de systemer, der er omhandlet i nærværende artikels stk. 1, og som er bragt i omsætning eller ibrugtaget inden den 2. august 2026, hvis disse systemer fra denne dato er genstand for betydelige ændringer af deres udformning. I alle tilfælde skal udbydere og idriftsættere af højrisiko-AI-systemer, der tilsigtes anvendt af offentlige myndigheder, tage de nødvendige skridt til at overholde kravene og forpligtelserne i denne forordning senest den 2. august 2030.
2. Aniž je dotčeno použití článku 5, jak je uvedeno v čl. 113 odst. 3 písm. a), toto nařízení se vztahuje na provozovatele vysoce rizikových systémů AI kromě systémů uvedených v odstavci 1 tohoto článku, které byly uvedeny na trh nebo do provozu před 2. srpnem 2026, pouze pokud po uvedeném datu dojde k významným změnám v jejich návrhu. Poskytovatelé a zavádějící subjekty vysoce rizikových systémů AI určených k použití orgány veřejné moci v každém případě přijmou kroky nezbytné ke splnění požadavků a povinností podle tohoto nařízení do dne 2. srpna 2030.
3. Udbydere af AI-modeller til almen brug, der er bragt i omsætning før den 2. august 2025, tager de nødvendige skridt til at overholde de forpligtelser, der er fastsat i denne forordning, senest den 2. august 2027.
3. Poskytovatelé obecných modelů AI, které byly uvedeny na trh přede dnem 2. srpna 2025, přijmou kroky nezbytné ke splnění povinností stanovených v tomto nařízení do dne 2. srpna 2027.
Artikel 112
Článek 112
Evaluering og revision
Hodnocení a přezkum
1. Kommissionen vurderer behovet for at ændre listen i bilag III og listen over forbudte former for AI-praksis i artikel 5 én gang om året efter denne forordnings ikrafttræden og indtil slutningen af perioden med delegation af beføjelser, der er fastsat i artikel 97. Kommissionen forelægger resultaterne af denne vurdering for Europa-Parlamentet og Rådet.
1. Jednou ročně od vstupu tohoto nařízení v platnost a do konce období přenesení pravomoci uvedeného v článku 97 Komise posuzuje, zda je třeba změnit seznam uvedený v příloze III a seznam zakázaných postupů v oblasti AI uvedeného v článku 5. Komise předloží závěry tohoto posouzení Evropskému parlamentu a Radě.
2. Senest den 2. august 2028 og hvert fjerde år derefter evaluerer Kommissionen og aflægger rapport til Europa-Parlamentet og Rådet om følgende:
2. Do dne 2. srpna 2028 a poté každé čtyři roky provede Komise hodnocení a předloží Evropskému parlamentu a Radě zprávu o těchto aspektech:
a)
behovet for ændringer om udvidelse af eksisterende områdeoverskrifter eller tilføjelse af nye områdeoverskrifter i bilag III
a)
nezbytnost změn, jimiž by byly rozšířeny stávající okruhy oblastí nebo doplněny nové okruhy oblastí v příloze III;
b)
ændringer af listen over de AI-systemer, der kræver yderligere gennemsigtighedsforanstaltninger i henhold til artikel 50
b)
změny seznamu systémů AI, které vyžadují další opatření v oblasti transparentnosti podle článku 50;
c)
ændringer om styrkelse af effektiviteten af tilsyns- og forvaltningssystemet.
c)
změny zvyšující účinnost systému dohledu a správy.
3. Senest den 2. august 2029 og hvert fjerde år derefter forelægger Kommissionen Europa-Parlamentet og Rådet en rapport om evaluering og revision af denne forordning. Rapporten skal indeholde en vurdering af håndhævelsesstrukturen og det eventuelle behov for, at et EU-agentur løser eventuelle konstaterede mangler. På grundlag af resultaterne ledsages rapporten i givet fald af et forslag til ændring af denne forordning. Rapporterne offentliggøres.
3. Do dne 2. srpna 2029 a poté každé čtyři roky předloží Komise Evropskému parlamentu a Radě zprávu o hodnocení a přezkumu tohoto nařízení. Tato zpráva zahrnuje posouzení struktury prosazování a posouzení případné potřeby, aby zjištěné nedostatky vyřešil některý subjekt Unie. Na základě zjištění se ke zprávě případně přiloží návrh na změnu tohoto nařízení. Tyto zprávy se zveřejní.
4. I de i stk. 2 omhandlede rapporter lægges der særlig vægt på følgende:
4. Ve zprávách uvedených v odstavci 2 je věnována zvláštní pozornost následujícím aspektům:
a)
status over de nationale kompetente myndigheders finansielle, tekniske og menneskelige ressourcer med henblik på effektivt at udføre de opgaver, de pålægges i henhold til denne forordning
a)
stavu finančních, technických a lidských zdrojů příslušných vnitrostátních orgánů určených na účinné plnění úkolů, kterými byly tyto orgány pověřeny podle tohoto nařízení;
b)
status over de sanktioner, navnlig de administrative bøder, der er omhandlet i artikel 99, stk. 1, som medlemsstaterne har pålagt som følge af overtrædelser af denne forordning
b)
stavu sankcí, a zejména správních pokut uvedených v čl. 99 odst. 1, které členské státy uplatňují v případě porušení tohoto nařízení;
c)
vedtagne harmoniserede standarder og fælles specifikationer, der er udarbejdet til støtte for denne forordning
c)
přijatým harmonizovaným normám a společným specifikacím vypracovaným na podporu tohoto nařízení;
d)
antallet af virksomheder, der kommer ind på markedet efter anvendelsen af denne forordning, og hvor mange af dem der er SMV'er.
d)
počtu podniků, které vstoupí na trh po datu použitelnosti tohoto nařízení, a tomu, kolik z nich jsou malé a střední podniky.
5. Senest den 2. august 2028 evaluerer Kommissionen AI-kontorets funktion, og om det har fået tilstrækkelige beføjelser og kompetencer til at udføre sine opgaver, samt om det vil være relevant og nødvendigt for en korrekt gennemførelse og håndhævelse af denne forordning at opgradere AI-Kontoret og dets håndhævelsesbeføjelser og øge dets ressourcer. Kommissionen forelægger en rapport om sin evaluering for Europa-Parlamentet og Rådet.
5. Do dne 2. srpna 2028 Komise vyhodnotí fungování úřadu pro AI, zda mu byly k plnění jeho úkolů uděleny dostatečné pravomoci a zda by bylo pro řádné provádění a prosazování tohoto nařízení relevantní a potřebné úřad AI a jeho pravomoci v oblasti prosazování práva aktualizovat a navýšit jeho zdroje. Komise předloží zprávu o svém hodnocení Evropskému parlamentu a Radě.
6. Senest den 2. august 2028 og hvert fjerde år derefter forelægger Kommissionen en rapport om revisionen af fremskridt med udviklingen af standardiseringsdokumentation om en energieffektiv udvikling af AI-modeller til almen brug og vurderer behovet for yderligere foranstaltninger eller tiltag, herunder bindende foranstaltninger eller tiltag. Rapporten forelægges Europa-Parlamentet og Rådet og offentliggøres.
6. Do dne 2. srpna 2028 a poté každé čtyři roky předloží Komise zprávu o přezkumu pokroku při vývoji produktů normalizace, pokud jde o energeticky účinný vývoj obecných modelů AI, a posoudí potřebu dalších opatření nebo kroků, včetně závazných opatření nebo kroků. Tato zpráva se předloží Evropskému parlamentu a Radě a zveřejní se.
7. Senest den 2. august 2028 og hvert tredje år derefter evaluerer Kommissionen virkningen og effektiviteten af frivillige adfærdskodekser med henblik på at fremme anvendelsen af kravene i kapitel III, afdeling 2, på andre AI-systemer end højrisiko-AI-systemer og eventuelt andre yderligere krav til andre AI-systemer end højrisiko-AI-systemer, herunder vedrørende miljømæssig bæredygtighed.
7. Do 2. srpna 2028 a poté každé tři roky zhodnotí Komise dopad a účinnost dobrovolných kodexů chování, které mají podpořit uplatňování požadavků stanovených v kapitole III oddílu 2 na systémy AI jiné než vysoce rizikové systémy AI a případně dalších požadavků na systémy AI jiné než vysoce rizikové systémy AI, včetně požadavků týkajících se environmentální udržitelnosti.
8. Med henblik på stk. 1-7 indgiver AI-udvalget, medlemsstaterne og de nationale kompetente myndigheder oplysninger til Kommissionen på dennes anmodning og uden unødigt ophold.
8. Pro účely odstavců 1 až 7 poskytuje rada, členské státy a příslušné vnitrostátní orgány Komisi na její žádost a bez zbytečného prodlení příslušné informace.
9. Når Kommissionen foretager de evalueringer og revisioner, der er omhandlet i stk. 1-7, tager den hensyn til holdninger og resultater fra AI-udvalget, fra Europa-Parlamentet, fra Rådet og fra andre relevante organer eller kilder.
9. Při provádění hodnocení a přezkumů podle odstavců 1 až 7 zohlední Komise postoje a zjištění rady, Evropského parlamentu, Rady a dalších příslušných subjektů nebo zdrojů.
10. Kommissionen forelægger om nødvendigt relevante forslag til ændring af denne forordning, navnlig under hensyntagen til den teknologiske udvikling, AI-systemernes indvirkning på sundhed og sikkerhed og de grundlæggende rettigheder og i lyset af fremskridtene i informationssamfundet.
10. Komise v případě potřeby předloží vhodné návrhy na změnu tohoto nařízení, zejména s přihlédnutím k vývoji technologií a dopadu systémů AI na zdraví a bezpečnost a na základní práva a s ohledem na pokrok dosažený v oblasti informační společnosti.
11. Som grundlag for de evalueringer og revisioner, der er omhandlet i denne artikels stk. 1-7, påtager AI-kontoret sig at udvikle en objektiv og inddragende metode til evaluering af risikoniveauerne baseret på de kriterier, der er anført i de relevante artikler, og medtagelse af nye systemer i:
11. V zájmu usměrňování hodnocení a přezkumů uvedených v odstavcích 1 až 7 tohoto článku se úřad pro AI zaváže, že vypracuje objektivní a participativní metodiku pro hodnocení úrovní rizika na základě kritérií uvedených v příslušných článcích a pro začlenění nových systémů do:
(a)
listen i bilag III, herunder udvidelse af eksisterende områdeoverskrifter eller tilføjelse af nye områdeoverskrifter i nævnte bilag
a)
seznamu stanoveného v příloze III, včetně rozšíření stávajících okruhů oblastí nebo doplnění nových okruhů oblastí v uvedené příloze,
(b)
listen over de forbudte former for praksis, der er omhandlet i artikel 5, og
b)
do seznamu zakázaných postupů stanoveného v článku 5 a
(c)
listen over de AI-systemer, der kræver yderligere gennemsigtighedsforanstaltninger i henhold til artikel 50.
c)
do seznamu systémů AI, které vyžadují další opatření v oblasti transparentnosti podle článku 50.
12. Alle ændringer til denne forordning i medfør af stk. 10 eller relevante delegerede retsakter eller gennemførelsesretsakter, som vedrører den sektorspecifikke EU-harmoniseringslovgivning, der er opført i bilag 1, afsnit B, skal tage hensyn til de enkelte sektorers reguleringsmæssige forhold og eksisterende forvaltning, overensstemmelsesvurdering og håndhævelsesmekanismer og de deri fastsatte myndigheder.
12. Každá změna tohoto nařízení podle odstavce 10 nebo příslušných aktů v přenesené pravomoci nebo prováděcích aktů, které se týkají harmonizačních právních předpisů Unie uvedených v příloze I oddílu B, zohlední regulační specifika jednotlivých odvětví a stávající mechanismy řízení, posuzování shody a prosazování práva a orgány v něm zřízené.
13. Senest den 2. august 2031 foretager Kommissionen en evaluering af håndhævelsen af denne forordning og aflægger rapport herom til Europa-Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg under hensyntagen til denne forordnings første anvendelsesår. På grundlag af resultaterne ledsages rapporten, hvor det er relevant, af et forslag om ændring af denne forordning med hensyn til håndhævelsesstrukturen og behovet for, at et EU-agentur løser eventuelle konstaterede mangler.
13. Do dne 2. srpna 2031 Komise posoudí prosazování tohoto nařízení a podá o něm zprávu Evropskému parlamentu, Radě a Evropskému hospodářskému a sociálnímu výboru, přičemž zohlední první roky uplatňování tohoto nařízení. Na základě získaných zjištění připojí případně k této zprávě návrh na změnu tohoto nařízení, pokud jde o strukturu prosazování a o případnou potřebu, aby zjištěné nedostatky vyřešil některý subjekt Unie.
Artikel 113
Článek 113
Ikrafttræden og anvendelse
Vstup v platnost a použitelnost
Denne forordning træder i kraft på tyvendedagen efter offentliggørelsen i Den Europæiske Unions Tidende.
Toto nařízení vstupuje v platnost dvacátým dnem po vyhlášení v Úředním věstníku Evropské unie.
Den finder anvendelse fra den 2. august 2026.
Použije se ode dne 2. srpna 2026.
Dog finder:
Avšak:
a)
kapitel I og II anvendelse fra den 2. februar 2025
a)
kapitoly I a II se použijí ode dne 2. února 2025;
b)
kapitel III, afdeling 4, kapitel V, VII og XII og artikel 78 anvendelse fra den 2. august 2025, med undtagelse af artikel 101
b)
kapitola III oddíl 4, kapitola V, kapitola VII a kapitola XII a článek 78 se použijí ode dne 2. srpna 2025, s výjimkou článku 101;
c)
artikel 6, stk. 1, og de tilsvarende forpligtelser i denne forordning anvendelse fra den 2. august 2027.
c)
čl. 6 odst. 1 a odpovídající povinnosti stanovené v tomto nařízení se použijí ode dne 2. srpna 2027.
Denne forordning er bindende i alle enkeltheder og gælder umiddelbart i hver medlemsstat.
Toto nařízení je závazné v celém rozsahu a přímo použitelné ve všech členských státech.
Udfærdiget i Bruxelles, den 13. juni 2024.
V Bruselu dne 13. června 2024.
På Europa-Parlamentets vegne
Za Evropský parlament
Formand
předsedkyně
R. METSOLA
R. METSOLA
På Rådets vegne
Za Radu
Formand
předseda
M. MICHEL
M. MICHEL
(1) EUT C 517 af 22.12.2021, s. 56.
(1) Úř. věst. C 517, 22.12.2021, s. 56.
(2) EUT C 115 af 11.3.2022, s. 5.
(2) Úř. věst. C 115, 11.3.2022, s. 5.
(3) EUT C 97 af 28.2.2022, s. 60.
(3) Úř. věst. C 97, 28.2.2022, s. 60.
(4) Europa-Parlamentets holdning af 13. marts 2024 (endnu ikke offentliggjort i EUT) og Rådets afgørelse af 21. maj 2024.
(4) Postoj Evropského parlamentu ze dne 13. března 2024 (dosud nezveřejněný v Úředním věstníku) a rozhodnutí Rady ze dne 21. května 2024.
(5) Det Europæiske Råd, Ekstraordinært møde i Det Europæiske Råd (1. og 2. oktober 2020) – Konklusioner, EUCO 13/20, 2020, s. 6.
(5) Evropská rada, mimořádné zasedání Evropské rady (1. a 2. října 2020) – závěry, EUCO 13/20, 2020, s. 6.
(6) Europa-Parlamentets beslutning af 20. oktober 2020 med henstillinger til Kommissionen om en ramme for etiske aspekter af kunstig intelligens, robotteknologi og relaterede teknologier, 2020/2012(INL).
(6) Usnesení Evropského parlamentu ze dne 20. října 2020 obsahující doporučení Komisi k rámci pro etické aspekty umělé inteligence, robotiky a souvisejících technologií, 2020/2012(INL).
(7) Europa-Parlamentets og Rådets forordning (EF) nr. 765/2008 af 9. juli 2008 om kravene til akkreditering og om ophævelse af forordning (EØF) nr. 339/93 (EUT L 218 af 13.8.2008, s. 30).
(7) Nařízení Evropského parlamentu a Rady (ES) č. 765/2008 ze dne 9. července 2008, kterým se stanoví požadavky na akreditaci a kterým se zrušuje nařízení (EHS) č. 339/93 (Úř. věst. L 218, 13.8.2008, s. 30).
(8) Europa-Parlamentets og Rådets afgørelse nr. 768/2008/EF af 9. juli 2008 om fælles rammer for markedsføring af produkter og om ophævelse af Rådets afgørelse 93/465/EØF (EUT L 218 af 13.8.2008, s. 82).
(8) Rozhodnutí Evropského parlamentu a Rady č. 768/2008/ES ze dne 9. července 2008 o společném rámci pro uvádění výrobků na trh a o zrušení rozhodnutí Rady 93/465/EHS (Úř. věst. L 218, 13.8.2008, s. 82).
(9) Europa-Parlamentets og Rådets forordning (EU) 2019/1020 af 20. juni 2019 om markedsovervågning og produktoverensstemmelse og om ændring af direktiv 2004/42/EF og forordning (EF) nr. 765/2008 og (EU) nr. 305/2011 (EUT L 169 af 25.6.2019, s. 1).
(9) Nařízení Evropského parlamentu a Rady (EU) 2019/1020 ze dne 20. června 2019 o dozoru nad trhem a souladu výrobků s předpisy a o změně směrnice 2004/42/ES a nařízení (ES) č. 765/2008 a (EU) č. 305/2011 (Úř. věst. L 169, 25.6.2019, s. 1).
(10) Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller ved lov fastsatte bestemmelser om produktansvar (EFT L 210 af 7.8.1985, s. 29).
(10) Směrnice Rady 85/374/EHS ze dne 25. července 1985 o sbližování právních a správních předpisů členských států týkajících se odpovědnosti za vadné výrobky (Úř. věst. L 210, 7.8.1985, s. 29).
(11) Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne oplysninger og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse) (EUT L 119 af 4.5.2016, s. 1).
(11) Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů) (Úř. věst. L 119, 4.5.2016, s. 1).
(12) Europa-Parlamentets og Rådets forordning (EU) 2018/1725 af 23. oktober 2018 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger i Unionens institutioner, organer, kontorer og agenturer og om fri udveksling af sådanne oplysninger og om ophævelse af forordning (EF) nr. 45/2001 og afgørelse nr. 1247/2002/EF (EUT L 295 af 21.11.2018, s. 39).
(12) Nařízení Evropského parlamentu a Rady (EU) 2018/1725 ze dne 23. října 2018 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů orgány, institucemi a jinými subjekty Unie a o volném pohybu těchto údajů a o zrušení nařízení (ES) č. 45/2001 a rozhodnutí č. 1247/2002/ES (Úř. věst. L 295, 21.11.2018, s. 39).
(13) Europa-Parlamentets og Rådets direktiv (EU) 2016/680 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med kompetente myndigheders behandling af personoplysninger med henblik på at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner og om fri udveksling af sådanne oplysninger og om ophævelse af Rådets rammeafgørelse 2008/977/RIA (EUT L 119 af 4.5.2016, s. 89).
(13) Směrnice Evropského parlamentu a Rady (EU) 2016/680 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů příslušnými orgány za účelem prevence, vyšetřování, odhalování či stíhání trestných činů nebo výkonu trestů, o volném pohybu těchto údajů a o zrušení rámcového rozhodnutí Rady 2008/977/SVV (Úř. věst. L 119, 4.5.2016, s. 89).
(14) Europa-Parlamentets og Rådets direktiv 2002/58/EF af 12. juli 2002 om behandling af personoplysninger og beskyttelse af privatlivets fred i den elektroniske kommunikationssektor (direktiv om databeskyttelse inden for elektronisk kommunikation) (EFT L 201 af 31.7.2002, s. 37).
(14) Směrnice Evropského parlamentu a Rady 2002/58/ES ze dne 12. července 2002 o zpracování osobních údajů a ochraně soukromí v odvětví elektronických komunikací (směrnice o soukromí a elektronických komunikacích) (Úř. věst. L 201, 31.7.2002, s. 37).
(15) Europa-Parlamentets og Rådets forordning (EU) 2022/2065 af 19. oktober 2022 om et indre marked for digitale tjenester og om ændring af direktiv 2000/31/EF (forordning om digitale tjenester) (EUT L 277 af 27.10.2022, s. 1).
(15) Nařízení Evropského parlamentu a Rady (EU) 2022/2065 ze dne 19. října 2022 o jednotném trhu digitálních služeb a o změně směrnice 2000/31/ES (nařízení o digitálních službách) (Úř. věst. L 277, 27.10.2022, s. 1).
(16) Europa-Parlamentets og Rådets direktiv (EU) 2019/882 af 17. april 2019 om tilgængelighedskrav for produkter og tjenester (EUT L 151 af 7.6.2019, s. 70).
(16) Směrnice Evropského parlamentu a Rady (EU) 2019/882 ze dne 17. dubna 2019 o požadavcích na přístupnost u výrobků a služeb (Úř. věst. L 151, 7.6.2019, s. 70).
(17) Europa-Parlamentets og Rådets direktiv 2005/29/EF af 11. maj 2005 om virksomheders urimelige handelspraksis over for forbrugerne på det indre marked og om ændring af Rådets direktiv 84/450/EØF og Europa-Parlamentets og Rådets direktiv 97/7/EF, 98/27/EF og 2002/65/EF og Europa-Parlamentets og Rådets forordning (EF) nr. 2006/2004 (direktivet om urimelig handelspraksis) (EUT L 149 af 11.6.2005, s. 22).
(17) Směrnice Evropského parlamentu a Rady 2005/29/ES ze dne 11. května 2005 o nekalých obchodních praktikách vůči spotřebitelům na vnitřním trhu a o změně směrnice Rady 84/450/EHS, směrnic Evropského parlamentu a Rady 97/7/ES, 98/27/ES a 2002/65/ES a nařízení Evropského parlamentu a Rady (ES) č. 2006/2004 (směrnice o nekalých obchodních praktikách) (Úř. věst. L 149, 11.6.2005, s. 22).
(18) Rådets rammeafgørelse 2002/584/RIA af 13. juni 2002 om den europæiske arrestordre og om procedurerne for overgivelse mellem medlemsstaterne (EFT L 190 af 18.7.2002, s. 1).
(18) Rámcové rozhodnutí Rady 2002/584/SVV ze dne 13. června 2002 o evropském zatýkacím rozkazu a postupech předávání mezi členskými státy (Úř. věst. L 190, 18.7.2002, s. 1).
(19) Europa-Parlamentets og Rådets direktiv (EU) 2022/2557 af 14. december 2022 om kritiske enheders modstandsdygtighed og om ophævelse af Rådets direktiv 2008/114/EF (EUT L 333 af 27.12.2022, s. 164).
(19) Směrnice Evropského parlamentu a Rady (EU) 2022/2557 ze dne 14. prosince 2022 o odolnosti kritických subjektů a o zrušení směrnice Rady 2008/114/ES (Úř. věst. L 333, 27.12.2022, s. 164).
(20) EUT C 247 af 29.6.2022, s. 1.
(20) Úř. věst. C 247, 29.6.2022, s. 1.
(21) Europa-Parlamentets og Rådets forordning (EU) 2017/745 af 5. april 2017 om medicinsk udstyr, om ændring af direktiv 2001/83/EF, forordning (EF) nr. 178/2002 og forordning (EF) nr. 1223/2009 og om ophævelse af Rådets direktiv 90/385/EØF og 93/42/EØF (EUT L 117 af 5.5.2017, s. 1).
(21) Nařízení Evropského parlamentu a Rady (EU) 2017/745 ze dne 5. dubna 2017 o zdravotnických prostředcích, změně směrnice 2001/83/ES, nařízení (ES) č. 178/2002 a nařízení (ES) č. 1223/2009 a o zrušení směrnic Rady 90/385/EHS a 93/42/EHS (Úř. věst. L 117, 5.5.2017, s. 1).
(22) Europa-Parlamentets og Rådets forordning (EU) 2017/746 af 5. april 2017 om medicinsk udstyr til in vitro-diagnostik og om ophævelse af direktiv 98/79/EF og Kommissionens afgørelse 2010/227/EU (EUT L 117 af 5.5.2017, s. 176).
(22) Nařízení Evropského parlamentu a Rady (EU) 2017/746 ze dne 5. dubna 2017 o diagnostických zdravotnických prostředcích in vitro a o zrušení směrnice 98/79/ES a rozhodnutí Komise 2010/227/EU (Úř. věst. L 117, 5.5.2017, s. 176).
(23) Europa-Parlamentets og Rådets direktiv 2006/42/EF af 17. maj 2006 om maskiner og om ændring af direktiv 95/16/EF (EUT L 157 af 9.6.2006, s. 24).
(23) Směrnice Evropského parlamentu a Rady 2006/42/ES ze dne 17. května 2006 o strojních zařízeních a o změně směrnice 95/16/ES (Úř. věst. L 157, 9.6.2006, s. 24).
(24) Europa-Parlamentets og Rådets forordning (EF) nr. 300/2008 af 11. marts 2008 om fælles bestemmelser om sikkerhed (security) inden for civil luftfart og om ophævelse af forordning (EF) nr. 2320/2002 (EUT L 97 af 9.4.2008, s. 72).
(24) Nařízení Evropského parlamentu a Rady (ES) č. 300/2008 ze dne 11. března 2008 o společných pravidlech v oblasti ochrany civilního letectví před protiprávními činy a o zrušení nařízení (ES) č. 2320/2002 (Úř. věst. L 97, 9.4.2008, s. 72).
(25) Europa-Parlamentets og Rådets forordning (EU) nr. 167/2013 af 5. februar 2013 om godkendelse og markedsovervågning af landbrugs- og skovbrugstraktorer (EUT L 60 af 2.3.2013, s. 1).
(25) Nařízení Evropského parlamentu a Rady (EU) č. 167/2013 ze dne 5. února 2013 o schvalování zemědělských a lesnických vozidel a dozoru nad trhem s těmito vozidly (Úř. věst. L 60, 2.3.2013, s. 1).
(26) Europa-Parlamentets og Rådets forordning (EU) nr. 168/2013 af 15. januar 2013 om godkendelse og markedsovervågning af to- og trehjulede køretøjer samt quadricykler (EUT L 60 af 2.3.2013, s. 52).
(26) Nařízení Evropského parlamentu a Rady (EU) č. 168/2013 ze dne 15. ledna 2013 o schvalování dvoukolových nebo tříkolových vozidel a čtyřkolek a dozoru nad trhem s těmito vozidly (Úř. věst. L 60, 2.3.2013, s. 52).
(27) Europa-Parlamentets og Rådets direktiv 2014/90/EU af 23. juli 2014 om skibsudstyr og om ophævelse af Rådets direktiv 96/98/EF (EUT L 257 af 28.8.2014, s. 146).
(27) Směrnice Evropského parlamentu a Rady 2014/90/EU ze dne 23. července 2014 o lodní výstroji a o zrušení směrnice Rady 96/98/ES (Úř. věst. L 257, 28.8.2014, s. 146).
(28) Europa-Parlamentets og Rådets direktiv (EU) 2016/797 af 11. maj 2016 om interoperabilitet i jernbanesystemet i Den Europæiske Union (EUT L 138 af 26.5.2016, s. 44).
(28) Směrnice Evropského parlamentu a Rady (EU) 2016/797 ze dne 11. května 2016 o interoperabilitě železničního systému v Evropské unii (Úř. věst. L 138, 26.5.2016, s. 44).
(29) Europa-Parlamentets og Rådets forordning (EU) 2018/858 af 30. maj 2018 om godkendelse og markedsovervågning af motorkøretøjer og påhængskøretøjer dertil samt af systemer, komponenter og separate tekniske enheder til sådanne køretøjer, om ændring af forordning (EF) nr. 715/2007 og (EF) nr. 595/2009 og om ophævelse af direktiv 2007/46/EF (EUT L 151 af 14.6.2018, s. 1).
(29) Nařízení Evropského parlamentu a Rady (EU) 2018/858 ze dne 30. května 2018 o schvalování motorových vozidel a jejich přípojných vozidel, jakož i systémů, konstrukčních částí a samostatných technických celků určených pro tato vozidla a o dozoru nad trhem s nimi, o změně nařízení (ES) č. 715/2007 a č. 595/2009 a o zrušení směrnice 2007/46/ES (Úř. věst. L 151, 14.6.2018, s. 1).
(30) Europa-Parlamentets og Rådets forordning (EU) 2018/1139 af 4. juli 2018 om fælles regler for civil luftfart og oprettelse af Den Europæiske Unions Luftfartssikkerhedsagentur og om ændring af Europa-Parlamentets og Rådets forordning (EF) nr. 2111/2005, (EF) nr. 1008/2008, (EU) nr. 996/2010, (EU) nr. 376/2014 og direktiv 2014/30/EU og 2014/53/EU og om ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 552/2004 og (EF) nr. 216/2008 og Rådets forordning (EØF) nr. 3922/91 (EUT L 212 af 22.8.2018, s. 1).
(30) Nařízení Evropského parlamentu a Rady (EU) 2018/1139 ze dne 4. července 2018 o společných pravidlech v oblasti civilního letectví a o zřízení Agentury Evropské unie pro bezpečnost letectví, kterým se mění nařízení (ES) č. 2111/2005, (ES) č. 1008/2008, (EU) č. 996/2010, (EU) č. 376/2014 a směrnice Evropského parlamentu a Rady 2014/30/EU a 2014/53/EU a kterým se zrušuje nařízení Evropského parlamentu a Rady (ES) č. 552/2004 a (ES) č. 216/2008 a nařízení Rady (EHS) č. 3922/91 (Úř. věst. L 212, 22.8.2018, s. 1).
(31) Europa-Parlamentets og Rådets forordning (EU) 2019/2144 af 27. november 2019 om krav til typegodkendelse af motorkøretøjer og påhængskøretøjer dertil samt systemer, komponenter og separate tekniske enheder til sådanne køretøjer for så vidt angår deres generelle sikkerhed og beskyttelsen af køretøjspassagerer og bløde trafikanter og om ændring af Europa-Parlamentets og Rådets forordning (EU) 2018/858 og ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 78/2009, forordning (EF) nr. 79/2009 og forordning (EF) nr. 661/2009 og Kommissionens forordning (EF) nr. 631/2009, (EU) nr. 406/2010, (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU) nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr. 1009/2010, (EU) nr. 19/2011, (EU) nr. 109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012, (EU) nr. 347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 og (EU) 2015/166 (EUT L 325 af 16.12.2019, s. 1).
(31) Nařízení Evropského parlamentu a Rady (EU) 2019/2144 ze dne 27. listopadu 2019 o požadavcích pro schvalování typu motorových vozidel a jejich přípojných vozidel a systémů, konstrukčních částí a samostatných technických celků určených pro tato vozidla z hlediska obecné bezpečnosti a ochrany cestujících ve vozidle a zranitelných účastníků silničního provozu, o změně nařízení Evropského parlamentu a Rady (EU) 2018/858 a o zrušení nařízení Evropského parlamentu a Rady (ES) č. 78/2009, (ES) č. 79/2009 a (ES) č. 661/2009 a nařízení Komise (ES) č. 631/2009, (EU) č. 406/2010, (EU) č. 672/2010, (EU) č. 1003/2010, (EU) č. 1005/2010, (EU) č. 1008/2010, (EU) č. 1009/2010, (EU) č. 19/2011, (EU) č. 109/2011, (EU) č. 458/2011, (EU) č. 65/2012, (EU) č. 130/2012, (EU) č. 347/2012, (EU) č. 351/2012, (EU) č. 1230/2012 a (EU) 2015/166 (Úř. věst. L 325, 16.12.2019, s. 1).
(32) Europa-Parlamentets og Rådets forordning (EF) nr. 810/2009 af 13. juli 2009 om en fællesskabskodeks for visa (visumkodeks) (EUT L 243 af 15.9.2009, s. 1).
(32) Nařízení Evropského parlamentu a Rady (ES) č. 810/2009 ze dne 13. července 2009 o kodexu Společenství o vízech (vízový kodex) (Úř. věst. L 243, 15.9.2009, s. 1).
(33) Europa-Parlamentets og Rådets direktiv 2013/32/EU af 26. juni 2013 om fælles procedurer for tildeling og fratagelse af international beskyttelse (EUT L 180 af 29.6.2013, s. 60).
(33) Směrnice Evropského parlamentu a Rady 2013/32/EU ze dne 26. června 2013 o společných řízeních pro přiznávání a odnímání statusu mezinárodní ochrany (Úř. věst. L 180, 29.6.2013, s. 60).
(34) Europa-Parlamentets og Rådets forordning (EU) 2024/900 af 13. marts 2024 om gennemsigtighed og målretning i forbindelse med politisk reklame (EUT L, 2024/900, 20.3.2024, ELI: http://data.europa.eu/eli/reg/2024/900/oj).
(34) Nařízení Evropského parlamentu a Rady (EU) 2024/900 ze dne 13. března 2024 o transparentnosti a cílení politické reklamy (Úř. věst. L, 2024/900, 20.3.2024, ELI: http://data.europa.eu/eli/reg/2024/900/oj).
(35) Europa-Parlamentets og Rådets direktiv 2014/31/EU af 26. februar 2014 om harmonisering af medlemsstaternes lovgivning vedrørende tilgængeliggørelse på markedet af ikke-automatiske vægte (EUT L 96 af 29.3.2014, s. 107).
(35) Směrnice Evropského parlamentu a Rady 2014/31/EU ze dne 26. února 2014 o harmonizaci právních předpisů členských států týkajících se dodávání vah s neautomatickou činností na trh (Úř. věst. L 96, 29.3.2014, s. 107).
(36) Europa-Parlamentets og Rådets direktiv 2014/32/EU af 26. februar 2014 om harmonisering af medlemsstaternes love om tilgængeliggørelse på markedet af måleinstrumenter (EUT L 96 af 29.3.2014, s. 149).
(36) Směrnice Evropského parlamentu a Rady 2014/32/EU ze dne 26. února 2014 o harmonizaci právních předpisů členských států týkajících se dodávání měřidel na trh (Úř. věst. L 96, 29.3.2014, s. 149).
(37) Europa-Parlamentets og Rådets forordning (EU) 2019/881 af 17. april 2019 om ENISA (Den Europæiske Unions Agentur for Cybersikkerhed), om cybersikkerhedscertificering af informations- og kommunikationsteknologi og om ophævelse af forordning (EU) nr. 526/2013 (forordningen om cybersikkerhed) (EUT L 151 af 7.6.2019, s. 15).
(37) Nařízení Evropského parlamentu a Rady (EU) 2019/881 ze dne 17. dubna 2019 o agentuře ENISA („Agentuře Evropské unie pro kybernetickou bezpečnost“), o certifikaci kybernetické bezpečnosti informačních a komunikačních technologií a o zrušení nařízení (EU) č. 526/2013 („akt o kybernetické bezpečnosti“) (Úř. věst. L 151, 7.6.2019, s. 15).
(38) Europa-Parlamentets og Rådets direktiv (EU) 2016/2102 af 26. oktober 2016 om tilgængeligheden af offentlige organers websteder og mobilapplikationer (EUT L 327 af 2.12.2016, s. 1).
(38) Směrnice Evropského parlamentu a Rady (EU) 2016/2102 ze dne 26. října 2016 o přístupnosti internetových stránek a mobilních aplikací subjektů veřejného sektoru (Úř. věst L 327, 2.12.2016, s. 1).
(39) Europa-Parlamentets og Rådets direktiv2002/14/EF af 11. marts 2002 om indførelse af en generel ramme for information og høring af arbejdstagerne i Det Europæiske Fællesskab (EFT L 80 af 23.3.2002, s. 29).
(39) Směrnice Evropského parlamentu a Rady 2002/14/ES ze dne 11. března 2002, kterou se stanoví obecný rámec pro informování zaměstnanců a projednávání se zaměstnanci v Evropském společenství (Úř. věst. L 80, 23.3.2002, s. 29).
(40) Europa-Parlamentets og Rådets direktiv (EU) 2019/790 af 17. april 2019 om ophavsret og beslægtede rettigheder på det digitale indre marked og om ændring af direktiv 96/9/EF og 2001/29/EF (EUT L 130 af 17.5.2019, s. 92).
(40) Směrnice Evropského parlamentu a Rady (EU) 2019/790 ze dne 17. dubna 2019 o autorském právu a právech s ním souvisejících na jednotném digitálním trhu a o změně směrnic 96/9/ES a 2001/29/ES (Úř. věst. L 130, 17.5.2019, s. 92).
(41) Europa-Parlamentets og Rådets forordning (EU) nr. 1025/2012 af 25. oktober 2012 om europæisk standardisering, om ændring af Rådets direktiv 89/686/EØF og 93/15/EØF og Europa-Parlamentets og Rådets direktiv 94/9/EF, 94/25/EF, 95/16/EF, 97/23/EF, 98/34/EF, 2004/22/EF, 2007/23/EF, 2009/23/EF og 2009/105/EF og om ophævelse af Rådets beslutning 87/95/EØF og Europa-Parlamentets og Rådets afgørelse nr. 1673/2006/EF (EUT L 316 af 14.11.2012, s. 12).
(41) Nařízení Evropského parlamentu a Rady (EU) č. 1025/2012 ze dne 25. října 2012 o evropské normalizaci, změně směrnic Rady 89/686/EHS a 93/15/EHS a směrnic Evropského parlamentu a Rady 94/9/ES, 94/25/ES, 95/16/ES, 97/23/ES, 98/34/ES, 2004/22/ES, 2007/23/ES, 2009/23/ES a 2009/105/ES, a kterým se ruší rozhodnutí Rady 87/95/EHS a rozhodnutí Evropského parlamentu a Rady č. 1673/2006/ES (Úř. věst. L 316, 14.11.2012, s. 12).
(42) Europa-Parlamentets og Rådets forordning (EU) 2022/868 af 30. maj 2022 om europæisk datastyring og om ændring af forordning (EU) 2018/1724 (forordning om datastyring) (EUT L 152 af 3.6.2022, s. 1).
(42) Nařízení Evropského parlamentu a Rady (EU) 2022/868 ze dne 30. května 2022 o evropské správě dat a o změně nařízení (EU) 2018/1724 (akt o správě dat) (Úř. věst. L 152, 3.6.2022, s. 1).
(43) Europa-Parlamentets og Rådets forordning (EU) 2023/2854 af 13. december 2023 om harmoniserede regler om fair adgang til og anvendelse af data og om ændring af forordning (EU) 2017/2394 og direktiv (EU) 2020/1828 (dataforordningen) (EUT L, 2023/2854, 22.12.2023, ELI: http://data.europa.eu/eli/reg/2023/2854/oj).
(43) Nařízení Evropského parlamentu a Rady (EU) 2023/2854 ze dne 13. prosince 2023 o harmonizovaných pravidlech pro spravedlivý přístup k datům a jejich využívání a o změně nařízení (EU) 2017/2394 a směrnice (EU) 2020/1828 (akt o datech) (Úř. věst. L, 2023/2854, 22.12.2023, ELI: http://data.europa.eu/eli/reg/2023/2854/oj).
(44) Kommissionens henstilling 2003/361/EF af 6. maj 2003 om definitionen af mikrovirksomheder, små og mellemstore virksomheder (EUT L 124 af 20.5.2003, s. 36).
(44) Doporučení Komise ze dne 6. května 2003 o definici mikropodniků a malých a středních podniků (Úř. věst. L 124, 20.5.2003, s. 36).
(45) Kommissionens afgørelse af 24. januar 2024 om oprettelse af Det Europæiske Kontor for Kunstig Intelligens (C/2024/390).
(45) Rozhodnutí Komise ze dne 24.1.2024, kterým se zřizuje Evropský úřad pro umělou inteligenci C(2024) 390.
(46) Europa-Parlamentets og Rådets forordning (EU) nr. 575/2013 af 26. juni 2013 om tilsynsmæssige krav til kreditinstitutter og investeringsselskaber og om ændring af forordning (EU) nr. 648/2012 (EUT L 176 af 27.6.2013, s. 1).
(46) Nařízení Evropského parlamentu a Rady (EU) č. 575/2013 ze dne 26. června 2013 o obezřetnostních požadavcích na úvěrové instituce a investiční podniky a o změně nařízení (EU) č. 648/2012 (Úř. věst. L 176, 27.6.2013, s. 1).
(47) Europa-Parlamentets og Rådets direktiv 2008/48/EF af 23. april 2008 om forbrugerkreditaftaler og om ophævelse af Rådets direktiv 87/102/EØF (EUT L 133 af 22.5.2008, s. 66).
(47) Směrnice Evropského parlamentu a Rady 2008/48/ES ze dne 23. dubna 2008 o smlouvách o spotřebitelském úvěru a o zrušení směrnice Rady 87/102/EHS (Úř. věst. L 133, 22.5.2008, s. 66).
(48) Europa-Parlamentets og Rådets direktiv 2009/138/EF af 25. november 2009 om adgang til og udøvelse af forsikrings- og genforsikringsvirksomhed (Solvens II) (EUT L 335 af 17.12.2009, s. 1).
(48) Směrnice Evropského parlamentu a Rady 2009/138/ES ze dne 25. listopadu 2009 o přístupu k pojišťovací a zajišťovací činnosti a jejím výkonu (Solventnost II) (Úř. věst. L 335, 17.12.2009, s. 1).
(49) Europa-Parlamentets og Rådets direktiv 2013/36/EU af 26. juni 2013 om adgang til at udøve virksomhed som kreditinstitut og om tilsyn med kreditinstitutter, om ændring af direktiv 2002/87/EF og om ophævelse af direktiv 2006/48/EF og 2006/49/EF (EUT L 176 af 27.6.2013, s. 338).
(49) Směrnice Evropského parlamentu a Rady 2013/36/EU ze dne 26. června 2013 o přístupu k činnosti úvěrových institucí a o obezřetnostním dohledu nad úvěrovými institucemi a investičními podniky, o změně směrnice 2002/87/ES a zrušení směrnic 2006/48/ES a 2006/49/ES (Úř. věst. L 176, 27.6.2013, s. 338).
(50) Europa-Parlamentets og Rådets direktiv 2014/17/ЕU af 4. februar 2014 om forbrugerkreditaftaler i forbindelse med fast ejendom til beboelse og om ændring af direktiv 2008/48/EF og 2013/36/EU og forordning (EU) nr. 1093/2010 (EUT L 60 af 28.2.2014, s. 34).
(50) Směrnice Evropského parlamentu a Rady 2014/17/EU ze dne 4. února 2014 o smlouvách o spotřebitelském úvěru na nemovitosti určené k bydlení a o změně směrnic 2008/48/ES a 2013/36/EU a nařízení (EU) č. 1093/2010 (Úř. věst. L 60, 28.2.2014, s. 34).
(51) Europa-Parlamentets og Rådets direktiv (EU) 2016/97 af 20. januar 2016 om forsikringsdistribution (EUT L 26 af 2.2.2016, s. 19).
(51) Směrnice Evropského parlamentu a Rady (EU) 2016/97 ze dne 20. ledna 2016 o distribuci pojištění (Úř. věst. L 26, 2.2.2016, s. 19).
(52) Rådets forordning (EU) nr. 1024/2013 af 15. oktober 2013 om overdragelse af specifikke opgaver til Den Europæiske Centralbank i forbindelse med politikker vedrørende tilsyn med kreditinstitutter (EUT L 287 af 29.10.2013, s. 63).
(52) Nařízení Rady (EU) č. 1024/2013 ze dne 15. října 2013, kterým se Evropské centrální bance svěřují zvláštní úkoly týkající se politik, které se vztahují k obezřetnostnímu dohledu nad úvěrovými institucemi (Úř. věst. L 287, 29.10.2013, s. 63).
(53) Europa-Parlamentets og Rådets forordning (EU) 2023/988 af 10. maj 2023 om produktsikkerhed i almindelighed, om ændring af Europa-Parlamentets og Rådets forordning (EU) nr. 1025/2012 og Europa-Parlamentets og Rådets direktiv (EU) 2020/1828 og om ophævelse af Europa-Parlamentets og Rådets direktiv 2001/95/EF og Rådets direktiv 87/357/EØF (EUT L 135 af 23.5.2023, s. 1).
(53) Nařízení Evropského parlamentu a Rady (EU) 2023/988 ze dne 10. května 2023 o obecné bezpečnosti výrobků, o změně nařízení Evropského parlamentu a Rady (EU) č. 1025/2012 a směrnice Evropského parlamentu a Rady (EU) 2020/1828 a o zrušení směrnice Evropského parlamentu a Rady 2001/95/ES a směrnice Rady 87/357/EHS (Úř. věst. L 135, 23.5.2023, s. 1).
(54) Europa-Parlamentets og Rådets direktiv (EU) 2019/1937 af 23. oktober 2019 om beskyttelse af personer, der indberetter overtrædelser af EU-retten (EUT L 305 af 26.11.2019, s. 17).
(54) Směrnice Evropského parlamentu a Rady (EU) 2019/1937 ze dne 23. října 2019 o ochraně osob, které oznamují porušení práva Unie (Úř. věst. L 305, 26.11.2019, s. 17),
(55) EUT L 123 af 12.5.2016, s. 1.
(55) Úř. věst. L 123, 12.5.2016, s. 1.
(56) Europa-Parlamentets og Rådets forordning (EU) nr. 182/2011 af 16. februar 2011 om de generelle regler og principper for, hvordan medlemsstaterne skal kontrollere Kommissionens udøvelse af gennemførelsesbeføjelser (EUT L 55 af 28.2.2011, s. 13).
(56) Nařízení Evropského parlamentu a Rady (EU) č. 182/2011 ze dne 16. února 2011, kterým se stanoví pravidla a obecné zásady způsobu, jakým členské státy kontrolují Komisi při výkonu prováděcích pravomocí (Úř. věst. L 55, 28.2.2011, s. 13).
(57) Europa-Parlamentets og Rådets direktiv (EU) 2016/943 af 8. juni 2016 om beskyttelse af fortrolig knowhow og fortrolige forretningsoplysninger (forretningshemmeligheder) mod ulovlig erhvervelse, brug og videregivelse (EUT L 157 af 15.6.2016, s. 1).
(57) Směrnice Evropského parlamentu a Rady (EU) 2016/943 ze dne 8. června 2016 o ochraně nezveřejněného know-how a obchodních informací (obchodního tajemství) před jejich neoprávněným získáním, využitím a zpřístupněním (Úř. věst. L 157, 15.6.2016, s. 1).
(58) Europa-Parlamentets og Rådets direktiv (EU) 2020/1828 af 25. november 2020 om adgang til anlæggelse af gruppesøgsmål til beskyttelse af forbrugernes kollektive interesser og om ophævelse af direktiv 2009/22/EF (EUT L 409 af 4.12.2020, s. 1).
(58) Směrnice Evropského parlamentu a Rady (EU) 2020/1828 ze dne 25. listopadu 2020 o zástupných žalobách na ochranu kolektivních zájmů spotřebitelů a o zrušení směrnice 2009/22/ES (Úř. věst. L 409, 4.12.2020, s. 1).
BILAG I
PŘÍLOHA I
Liste over EU-harmoniseringslovgivning
Seznam harmonizačních právních předpisů Unie
Afsnit A. Liste over EU-harmoniseringslovgivning baseret på den nye lovgivningsmæssige ramme
Oddíl A – Seznam harmonizačních právních předpisů Unie vycházejících z nového legislativního rámce
1.
Europa-Parlamentets og Rådets direktiv 2006/42/EF af 17. maj 2006 om maskiner og om ændring af direktiv 95/16/EF (EUT L 157 af 9.6.2006, s. 24)
1.
Směrnice Evropského parlamentu a Rady 2006/42/ES ze dne 17. května 2006 o strojních zařízeních a o změně směrnice 95/16/ES (Úř. věst. L 157, 9.6.2006, s. 24)
2.
Europa-Parlamentets og Rådets direktiv 2009/48/EF af 18. juni 2009 om sikkerhedskrav til legetøj (EUT L 170 af 30.6.2009, s. 1)
2.
Směrnice Evropského parlamentu a Rady 2009/48/ES ze dne 18. června 2009 o bezpečnosti hraček (Úř. věst. L 170, 30.6.2009, s. 1)
3.
Europa-Parlamentets og Rådets direktiv 2013/53/EU af 20. november 2013 om fritidsfartøjer og personlige fartøjer og om ophævelse af direktiv 94/25/EF (EUT L 354 af 28.12.2013, s. 90)
3.
Směrnice Evropského parlamentu a Rady 2013/53/EU ze dne 20. listopadu 2013 o rekreačních plavidlech a vodních skútrech a o zrušení směrnice 94/25/ES (Úř. věst. L 354, 28.12.2013, s. 90)
4.
Europa-Parlamentets og Rådets direktiv 2014/33/EU af. 26. februar 2014 om harmonisering af medlemsstaternes love om elevatorer og sikkerhedskomponenter til elevatorer (EUT L 96 af 29.3.2014, s. 251)
4.
Směrnice Evropského parlamentu a Rady 2014/33/EU ze dne 26. února 2014 o harmonizaci právních předpisů členských států týkajících se výtahů a bezpečnostních komponent pro výtahy (Úř. věst. L 96, 29.3.2014, s. 251)
5.
Europa-Parlamentets og Rådets direktiv 2014/34/EU af 26. februar 2014 om harmonisering af medlemsstaternes love om materiel og sikringssystemer til anvendelse i en potentielt eksplosiv atmosfære (EUT L 96 af 29.3.2014, s. 309)
5.
Směrnice Evropského parlamentu a Rady 2014/34/EU ze dne 26. února 2014 o harmonizaci právních předpisů členských států týkajících se zařízení a ochranných systémů určených k použití v prostředí s nebezpečím výbuchu (Úř. věst. L 96, 29.3.2014, s. 309)
6.
Europa-Parlamentets og Rådets direktiv 2014/53/EU af 16. april 2014 om harmonisering af medlemsstaternes love om tilgængeliggørelse af radioudstyr på markedet og om ophævelse af direktiv 1999/5/EF (EUT L 153 af 22.5.2014, s. 62)
6.
Směrnice Evropského parlamentu a Rady 2014/53/EU ze dne 16. dubna 2014 o harmonizaci právních předpisů členských států týkajících se dodávání rádiových zařízení na trh a zrušení směrnice 1999/5/ES (Úř. věst. L 153, 22.5.2014, s. 62)
7.
Europa-Parlamentets og Rådets direktiv 2014/68/EU af 15. maj 2014 om harmonisering af medlemsstaternes lovgivning om tilgængeliggørelse på markedet af trykbærende udstyr (EUT L 189 af 27.6.2014, s. 164)
7.
Směrnice Evropského parlamentu a Rady 2014/68/EU ze dne 15. května 2014 o harmonizaci právních předpisů členských států týkajících se dodávání tlakových zařízení na trh (Úř. věst. L 189, 27.6.2014, s. 164)
8.
Europa-Parlamentets og Rådets forordning (EU) 2016/424 af 9. marts 2016 om tovbaneanlæg og om ophævelse af direktiv 2000/9/EF (EUT L 81 af 31.3.2016, s. 1)
8.
Nařízení Evropského parlamentu a Rady (EU) 2016/424 ze dne 9. března 2016 o lanových dráhách a o zrušení směrnice 2000/9/ES (Úř. věst. L 81, 31.3.2016, s. 1)
9.
Europa-Parlamentets og Rådets forordning (EU) 2016/425 af 9. marts 2016 om personlige værnemidler og om ophævelse af Rådets direktiv 89/686/EØF (EUT L 81 af 31.3.2016, s. 51)
9.
Nařízení Evropského parlamentu a Rady (EU) 2016/425 ze dne 9. března 2016 o osobních ochranných prostředcích a o zrušení směrnice Rady 89/686/EHS (Úř. věst. L 81, 31.3.2016, s. 51)
10.
Europa-Parlamentets og Rådets forordning (EU) 2016/426 af 9. marts 2016 om apparater, der forbrænder gasformigt brændstof, og om ophævelse af direktiv 2009/142/EF (EUT L 81 af 31.3.2016, s. 99)
10.
Nařízení Evropského parlamentu a Rady (EU) 2016/426 ze dne 9. března 2016 o spotřebičích plynných paliv a o zrušení směrnice 2009/142/ES (Úř. věst. L 81, 31.3.2016, s. 99)
11.
Europa-Parlamentets og Rådets forordning (EU) 2017/745 af 5. april 2017 om medicinsk udstyr, om ændring af direktiv 2001/83/EF, forordning (EF) nr. 178/2002 og forordning (EF) nr. 1223/2009 og om ophævelse af Rådets direktiv 90/385/EØF og 93/42/EØF (EUT L 117 af 5.5.2017, s. 1)
11.
Nařízení Evropského parlamentu a Rady (EU) 2017/745 ze dne 5. dubna 2017 o zdravotnických prostředcích, změně směrnice 2001/83/ES, nařízení (ES) č. 178/2002 a nařízení (ES) č. 1223/2009 a o zrušení směrnic Rady 90/385/EHS a 93/42/EHS (Úř. věst. L 117, 5.5.2017, s. 1)
12.
Europa-Parlamentets og Rådets forordning (EU) 2017/746 af 5. april 2017 om medicinsk udstyr til in vitro-diagnostik og om ophævelse af direktiv 98/79/EF og Kommissionens afgørelse 2010/227/EU (EUT L 117 af 5.5.2017, s. 176).
12.
Nařízení Evropského parlamentu a Rady (EU) 2017/746 ze dne 5. dubna 2017 o diagnostických zdravotnických prostředcích in vitro a o zrušení směrnice 98/79/ES a rozhodnutí Komise 2010/227/EU (Úř. věst. L 117, 5.5.2017, s. 176)
Afsnit B. Liste over anden EU-harmoniseringslovgivning
Oddíl B – Seznam jiných harmonizačních právních předpisů Unie
13.
Europa-Parlamentets og Rådets forordning (EF) nr. 300/2008 af 11. marts 2008 om fælles bestemmelser om sikkerhed inden for civil luftfart og om ophævelse af forordning (EF) nr. 2320/2002 (EUT L 97 af 9.4.2008, s. 72)
13.
Nařízení Evropského parlamentu a Rady (ES) č. 300/2008 ze dne 11. března 2008 o společných pravidlech v oblasti ochrany civilního letectví před protiprávními činy a o zrušení nařízení (ES) č. 2320/2002 (Úř. věst. L 97, 9.4.2008, s. 72)
14.
Europa-Parlamentets og Rådets forordning (EU) nr. 168/2013 af 15. januar 2013 om godkendelse og markedsovervågning af to- og trehjulede køretøjer samt quadricykler (EUT L 60 af 2.3.2013, s. 52)
14.
Nařízení Evropského parlamentu a Rady (EU) č. 168/2013 ze dne 15. ledna 2013 o schvalování dvoukolových nebo tříkolových vozidel a čtyřkolek a dozoru nad trhem s těmito vozidly (Úř. věst. L 60, 2.3.2013, s. 52)
15.
Europa-Parlamentets og Rådets forordning (EU) nr. 167/2013 af 5. februar 2013 om godkendelse og markedsovervågning af landbrugs- og skovbrugstraktorer (EUT L 60 af 2.3.2013, s. 1)
15.
Nařízení Evropského parlamentu a Rady (EU) č. 167/2013 ze dne 5. února 2013 o schvalování zemědělských a lesnických vozidel a dozoru nad trhem s těmito vozidly (Úř. věst. L 60, 2.3.2013, s. 1)
16.
Europa-Parlamentets og Rådets direktiv 2014/90/EU af 23. juli 2014 om skibsudstyr og om ophævelse af Rådets direktiv 96/98/EF (EUT L 257 af 28.8.2014, s. 146)
16.
Směrnice Evropského parlamentu a Rady 2014/90/EU ze dne 23. července 2014 o lodní výstroji a o zrušení směrnice Rady 96/98/ES (Úř. věst. L 257, 28.8.2014, s. 146)
17.
Europa-Parlamentets og Rådets direktiv (EU) 2016/797 af 11. maj 2016 om interoperabilitet i jernbanesystemet i Den Europæiske Union (EUT L 138 af 26.5.2016, s. 44)
17.
Směrnice Evropského parlamentu a Rady (EU) 2016/797 ze dne 11. května 2016 o interoperabilitě železničního systému v Evropské unii (Úř. věst. L 138, 26.5.2016, s. 44)
18.
Europa-Parlamentets og Rådets forordning (EU) 2018/858 af 30. maj 2018 om godkendelse og markedsovervågning af motorkøretøjer og påhængskøretøjer dertil samt af systemer, komponenter og separate tekniske enheder til sådanne køretøjer, om ændring af forordning (EF) nr. 715/2007 og (EF) nr. 595/2009 og om ophævelse af direktiv 2007/46/EF (EUT L 151 af 14.6.2018, s. 1)
18.
Nařízení Evropského parlamentu a Rady (EU) 2018/858 ze dne 30. května 2018 o schvalování motorových vozidel a jejich přípojných vozidel, jakož i systémů, konstrukčních částí a samostatných technických celků určených pro tato vozidla a o dozoru nad trhem s nimi, o změně nařízení (ES) č. 715/2007 a č. 595/2009 a o zrušení směrnice 2007/46/ES (Úř. věst. L 151, 14.6.2018, s. 1) 3.
19.
Europa-Parlamentets og Rådets forordning (EU) 2019/2144 af 27. november 2019 om krav til typegodkendelse af motorkøretøjer og påhængskøretøjer dertil samt systemer, komponenter og separate tekniske enheder til sådanne køretøjer for så vidt angår deres generelle sikkerhed og beskyttelsen af køretøjspassagerer og bløde trafikanter og om ændring af Europa-Parlamentets og Rådets forordning (EU) 2018/858 og ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 78/2009, forordning (EF) nr. 79/2009 og forordning (EF) nr. 661/2009 og Kommissionens forordning (EF) nr. 631/2009, (EU) nr. 406/2010, (EU) nr. 672/2010, (EU) nr. 1003/2010, (EU) nr. 1005/2010, (EU) nr. 1008/2010, (EU) nr. 1009/2010, (EU) nr. 19/2011, (EU) nr. 109/2011, (EU) nr. 458/2011, (EU) nr. 65/2012, (EU) nr. 130/2012, (EU) nr. 347/2012, (EU) nr. 351/2012, (EU) nr. 1230/2012 og (EU) 2015/166 (EUT L 325 af 16.12.2019, s. 1)
19.
Nařízení Evropského parlamentu a Rady (EU) 2019/2144 ze dne 27. listopadu 2019 o požadavcích pro schvalování typu motorových vozidel a jejich přípojných vozidel a systémů, konstrukčních částí a samostatných technických celků určených pro tato vozidla z hlediska obecné bezpečnosti a ochrany cestujících ve vozidle a zranitelných účastníků silničního provozu, o změně nařízení Evropského parlamentu a Rady (EU) 2018/858 a o zrušení nařízení Evropského parlamentu a Rady (ES) č. 78/2009, (ES) č. 79/2009 a (ES) č. 661/2009 a nařízení Komise (ES) č. 631/2009, (EU) č. 406/2010, (EU) č. 672/2010, (EU) č. 1003/2010, (EU) č. 1005/2010, (EU) č. 1008/2010, (EU) č. 1009/2010, (EU) č. 19/2011, (EU) č. 109/2011, (EU) č. 458/2011, (EU) č. 65/2012, (EU) č. 130/2012, (EU) č. 347/2012, (EU) č. 351/2012, (EU) č. 1230/2012 a (EU) 2015/166 (Úř. věst. L 325, 16.12.2019, s. 1)
20.
Europa-Parlamentets og Rådets forordning (EU) 2018/1139 af 4. juli 2018 om fælles regler for civil luftfart og oprettelse af Den Europæiske Unions Luftfartssikkerhedsagentur og om ændring af Europa-Parlamentets og Rådets forordning (EF) nr. 2111/2005, (EF) nr. 1008/2008, (EU) nr. 996/2010, (EU) nr. 376/2014 og direktiv 2014/30/EU og 2014/53/EU og om ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 552/2004 og (EF) nr. 216/2008 og Rådets forordning (EØF) nr. 3922/91 (EUT L 212 af 22.8.2018, s. 1) for så vidt angår konstruktion, fremstilling og omsætning af luftfartøjer, som er omhandlet i nævnte forordnings artikel 2, stk. 1, litra a) og b), hvis det drejer sig om ubemandede luftfartøjer og tilhørende motorer, propeller, dele og udstyr til fjernkontrol af disse luftfartøjer.
20.
Nařízení Evropského parlamentu a Rady (EU) 2018/1139 ze dne 4. července 2018 o společných pravidlech v oblasti civilního letectví a o zřízení Agentury Evropské unie pro bezpečnost letectví, kterým se mění nařízení (ES) č. 2111/2005, (ES) č. 1008/2008, (EU) č. 996/2010, (EU) č. 376/2014 a směrnice Evropského parlamentu a Rady 2014/30/EU a 2014/53/EU a kterým se zrušuje nařízení Evropského parlamentu a Rady (ES) č. 552/2004 a (ES) č. 216/2008 a nařízení Rady (EHS) č. 3922/91 (Úř. věst. L 212, 22.8.2018, s. 1), v rozsahu projektování, výroby a uvádění na trh letadel uvedených v jeho čl. 2 odst. 1 písm. a) a b), pokud jde o bezpilotní letadla a jde-li o jejich motory, vrtule, letadlové části a vybavení pro jejich řízení na dálku.
BILAG II
PŘÍLOHA II
Liste over strafbare handlinger omhandlet i artikel 5, stk. 1, første afsnit, litra h), nr. iii)
Seznam trestných činů uvedených v čl. 5 odst. 1 prvním pododstavci písm. h) bodě iii)
Strafbare handlinger omhandlet i artikel 5, stk. 1, første afsnit, litra h), nr. iii):
Trestné činy uvedené v čl. 5 odst. 1 prvním pododstavci písm. h) bodě iii):
terrorisme
terorismus,
menneskehandel
obchodování s lidmi,
seksuel udnyttelse af børn og børnepornografi
sexuální vykořisťování dětí a dětská pornografie,
ulovlig handel med narkotika eller psykotrope stoffer
nedovolený obchod s omamnými nebo psychotropními látkami,
ulovlig handel med våben, ammunition eller sprængstoffer
nedovolený obchod se zbraněmi, střelivem nebo výbušninami,
forsætligt manddrab og grov legemsbeskadigelse
vražda, těžké ublížení na zdraví,
ulovlig handel med menneskeorganer eller -væv
nedovolený obchod s lidskými orgány nebo tkáněmi,
ulovlig handel med nukleare eller radioaktive materialer
nedovolený obchod s jadernými nebo radioaktivními materiály,
bortførelse, frihedsberøvelse eller gidseltagning
únos, neoprávněné omezování osobní svobody nebo braní rukojmí,
forbrydelser, der er omfattet af Den Internationale Straffedomstols kompetence
trestné činy, jejichž stíhání a trestání je v pravomoci Mezinárodního trestního soudu,
skibs- eller flykapring
únos letadla nebo plavidla,
voldtægt
znásilnění,
miljøkriminalitet
trestné činy proti životnímu prostředí,
organiseret eller væbnet røveri
organizovaná nebo ozbrojená loupež,
sabotage
sabotáž,
deltagelse i en kriminel organisation, der er involveret i en eller flere af ovennævnte strafbare handlinger.
účast na zločinném spolčení zapojeném do jednoho nebo více z výše uvedených trestných činů.
BILAG III
PŘÍLOHA III
Højrisiko-AI-systemer omhandlet i artikel 6, stk. 2
Vysoce rizikové systémy AI uvedené v čl. 6 odst. 2
Højrisiko-AI-systemer i henhold til artikel 6, stk. 2, er de AI-systemer, der er opført under et af følgende områder:
Vysoce rizikovými systémy AI podle čl. 6 odst. 2 se rozumí systémy AI uvedené v kterékoli z těchto oblastí:
1.
Biometri, for så vidt som dets anvendelse er tilladt i henhold til relevant EU-ret eller national ret:
1.
Biometrika, pokud je její použití povoleno podle příslušného práva Unie nebo vnitrostátního práva:
a)
systemer til biometrisk fjernidentifikation.
a)
systémy biometrické identifikace na dálku.
Dette omfatter ikke AI-systemer, der er tilsigtet biometrisk verifikation, og hvis eneste formål er at bekræfte, at en bestemt fysisk person er den person, vedkommende hævder at være
Nejsou zahrnuty systémy AI určené k použití za účelem biometrického ověřování, jejichž jediným účelem je potvrdit, že konkrétní fyzická osoba je skutečně osobou, za niž se prohlašuje;
b)
AI-systemer, der er tilsigtet biometrisk kategorisering i henhold til følsomme eller beskyttede egenskaber eller karakteristika på grundlag af udledning af disse egenskaber eller karakteristika
b)
systémy AI určené k použití za účelem biometrické kategorizace podle citlivých nebo chráněných atributů nebo charakteristik na základě odvozování těchto atributů nebo charakteristik;
c)
AI-systemer, der er tilsigtet følelsesgenkendelse.
c)
systémy AI určené k použití za účelem rozpoznávání emocí.
2.
Kritisk infrastruktur: AI-systemer, der tilsigtes anvendt som sikkerhedskomponenter i forvaltningen og driften af kritisk digital infrastruktur, vejtrafik eller forsyning af vand, gas, varme og elektricitet.
2.
Kritická infrastruktura: systémy AI určené k použití jako bezpečnostní komponenty v rámci řízení a provozu kritické digitální infrastruktury, silniční dopravy nebo dodávek vody, plynu, topení či elektřiny.
3.
Uddannelse og erhvervsuddannelse:
3.
Vzdělávání a odborná příprava:
a)
AI-systemer, der tilsigtes anvendt til at bestemme fysiske personers adgang til eller optagelse eller deres fordeling på uddannelsesinstitutioner på alle niveauer
a)
systémy AI určené k použití za účelem určování přístupu fyzických osob ke vzdělávacím institucím nebo institucím odborné přípravy na všech úrovních nebo jejich přijetí či zařazení do těchto institucí;
b)
AI-systemer, der tilsigtes anvendt til at evaluere læringsresultater, herunder når disse resultater anvendes til at styre fysiske personers læringsproces på uddannelsesinstitutioner på alle niveauer
b)
systémy AI určené k použití za účelem hodnocení výsledků učení, včetně případů, kdy jsou tyto výsledky používány k usměrňování procesu učení fyzických osob v rámci vzdělávacích institucí nebo institucí odborné přípravy na všech úrovních;
c)
AI-systemer, der tilsigtes anvendt til at bedømme det nødvendige uddannelsesniveau, som den enkelte vil få eller vil kunne få adgang til, i forbindelse med eller inden for uddannelsesinstitutioner på alle niveauer
c)
systémy AI určené k použití za účelem posuzování vhodné úrovně vzdělání, kterou jednotlivec v rámci vzdělávacích institucí a institucí odborné přípravy získá nebo k níž bude mít přístup na všech úrovních;
d)
AI-systemer, der tilsigtes anvendt til at overvåge og opdage forbudt adfærd blandt studerende under prøver i forbindelse med eller inden for uddannelsesinstitutioner på alle niveauer.
d)
systémy AI určené k použití za účelem sledování a odhalování zakázaného chování studentů během testů v rámci nebo uvnitř vzdělávacích institucí a institucí odborné přípravy na všech úrovních.
4.
Beskæftigelse, forvaltning af arbejdstagere og adgang til selvstændig virksomhed:
4.
Zaměstnávání, řízení pracovníků a přístup k samostatné výdělečné činnosti:
a)
AI-systemer, der tilsigtes anvendt til rekruttering eller udvælgelse af fysiske personer, navnlig til at indrykke målrettede jobannoncer, analysere og filtrere jobansøgninger og evaluere kandidater
a)
systémy AI určené k použití za účelem náboru nebo výběru fyzických osob, zejména pokud jde o zveřejňování cílených nabídek zaměstnání, k analýze a třídění žádostí o zaměstnání a k hodnocení uchazečů;
b)
AI-systemer, der tilsigtes anvendt til at træffe beslutninger, der påvirker vilkårene for arbejdsrelaterede forhold, forfremmelse eller afskedigelse i arbejdsrelaterede kontraktforhold, til at fordele opgaver på grundlag af individuel adfærd eller personlighedstræk eller personlige egenskaber eller til at overvåge og evaluere personers præstationer og adfærd i sådanne forhold.
b)
systémy AI určené k použití za účelem rozhodování s dopadem na podmínky pracovněprávních vztahů, postup v zaměstnání nebo ukončení smluvních pracovněprávních vztahů, za účelem přidělování úkolů na základě individuálního chování, osobnostních rysů nebo charakteristik nebo za účelem sledování a hodnocení výkonnosti a chování osob v rámci těchto vztahů.
5.
Adgang til og benyttelse af væsentlige private tjenester og væsentlige offentlige tjenester og ydelser:
5.
Přístup k základním soukromým a základním veřejným službám a dávkám a jejich využívání:
a)
AI-systemer, der tilsigtes anvendt af offentlige myndigheder eller på vegne af offentlige myndigheder til at vurdere fysiske personers berettigelse til væsentlige offentlige bistandsydelser og -tjenester, herunder sundhedstjenester, samt til at tildele, nedsætte, tilbagekalde eller kræve tilbagebetaling af sådanne ydelser og tjenester
a)
systémy AI určené k použití veřejnými orgány nebo jejich jménem za účelem hodnocení nároků fyzických osob na základní dávky a služby veřejné podpory, včetně služeb v oblasti zdravotní péče, a za účelem udělení, snížení, zrušení nebo opětovného získání těchto dávek a služeb;
b)
AI-systemer, der tilsigtes anvendt til at evaluere fysiske personers kreditværdighed eller fastslå deres kreditvurdering, med undtagelse af AI-systemer, der anvendes til at afsløre økonomisk svig
b)
systémy AI určené k použití za účelem hodnocení úvěruschopnosti fyzických osob nebo jejich úvěrového bodování, s výjimkou systémů AI používaných za účelem odhalování finančních podvodů;
c)
AI-systemer, der tilsigtes anvendt til at foretage risikovurdering og prisfastsættelse for så vidt angår fysiske personer i forbindelse med livs- og sygeforsikring
c)
systémy AI určené k použití za účelem posuzování rizik a stanovování cen ve vztahu k fyzickým osobám v případě životního a zdravotního pojištění;
d)
AI-systemer, der er tilsigtet at evaluere og klassificere nødopkald fra fysiske personer eller til at blive anvendt til at sende beredskabstjenester i nødsituationer eller til at tildele prioriteter i forbindelse hermed, herunder udrykning af politi, brandslukning og lægehjælp samt patientsorteringssystemer for førstehjælp
d)
systémy AI určené k použití za účelem hodnocení a klasifikace tísňových volání fyzických osob nebo za účelem vysílání nebo stanovení priority při vyslání zásahových služeb první reakce, a to i policií, hasiči a lékařskou pomocí, a systémů třídění pacientů v krizových situacích.
6.
Retshåndhævelse, for så vidt som deres anvendelse er tilladt i henhold til relevant EU-ret eller national ret:
6.
Vymáhání práva, pokud je jejich použití povoleno podle příslušných právních předpisů Unie nebo vnitrostátních právních předpisů:
a)
AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder eller på deres vegne til at vurdere risikoen for, at en fysisk person bliver offer for strafbare handlinger
a)
systémy AI určené pro použití donucovacími orgány nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů nebo jejich jménem při posuzování rizika, že se určitá fyzická osoba stane obětí trestných činů;
b)
AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder som polygrafer eller lignende værktøjer
b)
systémy AI určené pro použití donucovacími orgány nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů jako polygrafy nebo obdobné nástroje;
c)
AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til at vurdere pålideligheden af bevismateriale i forbindelse med efterforskning eller retsforfølgning af strafbare handlinger
c)
systémy AI určené pro použití donucovacími orgány nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů za účelem hodnocení spolehlivosti důkazů v průběhu vyšetřování nebo stíhání trestných činů;
d)
AI-systemer, der tilsigtes anvendt af retshåndhævende myndigheder eller på deres vegne eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til at vurdere risikoen for, at en fysisk person begår eller på ny begår lovovertrædelser, der ikke udelukkende er baseret på profilering af fysiske personer som omhandlet i artikel 3, stk. 4, i direktiv (EU) 2016/680, eller til at vurdere fysiske personers eller gruppers personlighedstræk og personlige egenskaber eller tidligere kriminelle adfærd
d)
systémy AI určené pro použití donucovacími orgány nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů za účelem posuzování rizika, že se určitá fyzická osoba jednou nebo opakovaně dopustí protiprávního jednání, a to nikoli výlučně na základě profilování fyzických osob podle čl. 3 bodu 4 směrnice (EU) 2016/680, nebo za účelem posuzování povahových vlastností a osobnostních rysů nebo dřívější trestné činnosti fyzických osob nebo skupin;
e)
AI-systemer, der tilsigtes anvendt af eller på vegne af retshåndhævende myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til støtte for retshåndhævende myndigheder til profilering af fysiske personer som omhandlet i artikel 3, stk. 4, i direktiv (EU) 2016/680 i forbindelse med afsløring, efterforskning eller retsforfølgning af strafbare handlinger.
e)
systémy AI určené pro použití donucovacími orgány nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů za účelem profilování fyzických osob podle čl. 3 bodu 4 směrnice (EU) 2016/680 v průběhu odhalování, vyšetřování nebo stíhání trestných činů.
7.
Migrationsstyring, asylforvaltning og grænsekontrol, for så vidt som deres anvendelse er tilladt i henhold til relevant EU-ret eller national ret:
7.
Migrace, azyl a řízení ochrany hranic, pokud je jejich použití povoleno podle příslušného práva Unie nebo vnitrostátního práva:
a)
AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer som polygrafer eller lignende værktøjer
a)
systémy AI určené pro použití příslušnými orgány veřejné moci nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie jako polygrafy nebo obdobné nástroje;
b)
AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til at vurdere en risiko, herunder en sikkerhedsrisiko, en risiko for irregulær migration eller en sundhedsrisiko, som udgøres af en fysisk person, der har til hensigt at rejse ind i eller er indrejst i en medlemsstat
b)
systémy AI určené pro použití příslušnými orgány veřejné moci nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie za účelem posuzování určitého rizika, včetně bezpečnostního rizika, rizika nelegální migrace nebo zdravotního rizika, jež představuje fyzická osoba, která má v úmyslu vstoupit nebo již vstoupila na území některého členského státu;
c)
AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer til at bistå kompetente offentlige myndigheder i behandlingen af ansøgninger om asyl, visum eller opholdstilladelser og hertil relaterede klager med henblik på at fastslå, om de fysiske personer, der ansøger, er berettigede, herunder tilhørende vurdering af pålideligheden af bevismateriale
c)
systémy AI určené pro použití příslušnými orgány veřejné moci nebo jejich jménem či pro použití orgány, institucemi nebo jinými subjekty Unie s cílem pomoci příslušným veřejným orgánům při posuzování žádostí o azyl, vízum a povolení k pobytu a souvisejících stížností, pokud jde o způsobilost fyzických osob žádajících o určitý status, včetně souvisejících posouzení spolehlivosti důkazů;
d)
AI-systemer, der tilsigtes anvendt af eller på vegne af kompetente offentlige myndigheder eller af EU-institutioner, -organer, -kontorer eller -agenturer i forbindelse med migrationsstyring, asylforvaltning eller grænsekontrol med henblik på at opdage, genkende eller identificere fysiske personer, bortset fra kontrol af rejselegitimation.
d)
systémy AI určené pro použití příslušnými orgány veřejné moci nebo jejich jménem, nebo pro použití orgány, institucemi nebo jinými subjekty Unie, v souvislosti s problematikou migrace, azylu nebo řízení ochrany hranic za účelem odhalování, rozpoznávání nebo identifikace fyzických osob, s výjimkou ověřování cestovních dokladů.
8.
Retspleje og demokratiske processer:
8.
Správa soudnictví a demokratické procesy:
a)
AI-systemer, der tilsigtes anvendt af judicielle myndigheder eller på deres vegne til at bistå en judiciel myndighed med at undersøge og fortolke fakta og retten og anvende retten på konkrete sagsforhold eller til at blive anvendt på en lignende måde i forbindelse med alternativ tvistbilæggelse
a)
systémy AI určené pro použití soudním orgánem nebo jeho jménem na pomoc soudnímu orgánu při zkoumání a výkladu fakt a práva a při uplatňování práva na konkrétní soubor skutečností nebo pro použití obdobným způsobem při alternativním řešení sporů;
b)
AI-systemer, der tilsigtes anvendt til at påvirke resultatet af et valg eller en folkeafstemning eller fysiske personers stemmeadfærd i forbindelse med udøvelsen af deres stemme ved valg eller folkeafstemninger. Dette omfatter ikke AI-systemer, hvis output fysiske personer ikke er direkte eksponeret for, såsom værktøjer, der anvendes til at organisere, optimere eller strukturere politiske kampagner ud fra et administrativt eller logistisk synspunkt.
b)
systémy AI určené pro použití za účelem ovlivnění výsledku voleb nebo referenda nebo volebního chování fyzických osob při výkonu jejich hlasování ve volbách nebo referendech. To nezahrnuje systémy AI, jejichž výstupům nejsou fyzické osoby přímo vystaveny, jako jsou nástroje používané k organizaci, optimalizaci nebo strukturování politických kampaní z administrativního nebo logistického hlediska.
BILAG IV
PŘÍLOHA IV
Teknisk dokumentation omhandlet i artikel 11, stk. 1
Technická dokumentace podle čl. 11 odst. 1
Den tekniske dokumentation, der er omhandlet i artikel 11, stk. 1, skal som minimum indeholde følgende oplysninger, alt efter hvad der er relevant for det pågældende AI-system:
Technická dokumentace podle čl. 11 odst. 1 obsahuje AI alespoň tyto informace, jsou-li pro dotyčný systém AI relevantní:
1.
En generel beskrivelse af AI-systemet, herunder:
1.
Obecný popis systému AI zahrnující:
a)
det tilsigtede formål, udbyderens navn samt systemets dato og version, der afspejler sammenhængen med tidligere versioner
a)
jeho zamýšlený účel, název poskytovatele a verzi systému s ohledem na její vztah k verzím předchozím;
b)
hvis det er relevant, hvordan AI-systemet interagerer med eller kan bruges til at interagere med hardware eller software, herunder med andre AI-systemer, der ikke er en del af selve AI-systemet
b)
informace o tom, jak systém AI interaguje s hardwarem nebo softwarem, včetně dalších systémů AI, které nejsou součástí samotného systému AI, nebo jak může v relevantních případech být za účelem interakce s nimi použit;
c)
versionerne af relevant software eller firmware og eventuelle krav vedrørende opdateringer
c)
verze příslušného softwaru nebo firmwaru a veškeré požadavky týkající se aktualizací verze;
d)
en beskrivelse af alle de former, hvori AI-systemet bringes i omsætning eller ibrugtages, såsom softwarepakke indlejret i hardware, downloads eller API'er
d)
popis všech forem, ve kterých je systém AI uveden na trh nebo do provozu, jako jsou například softwarové balíčky, které jsou součástí hardwaru, stažené soubory nebo aplikační programovací rozhraní;
e)
en beskrivelse af den hardware, som AI-systemet tilsigtes at køre på
e)
popis hardwaru, na kterém má systém AI pracovat;
f)
hvis AI-systemet er komponent i produkter, fotografier eller illustrationer, der viser disse produkters eksterne karakteristika, mærkning og interne layout
f)
pokud je systém AI součástí produktů, fotografií nebo vyobrazení, které zobrazují vnější prvky, pak označení a vnitřní uspořádání těchto produktů;
g)
en grundlæggende beskrivelse af den brugergrænseflade, der stilles til rådighed for idriftsætteren
g)
základní popis uživatelského rozhraní poskytnutého zavádějícímu subjektu;
h)
brugsanvisning til idriftsætteren og en grundlæggende beskrivelse af den brugergrænseflade, der stilles til rådighed for idriftsætteren, hvis det er relevant.
h)
návod k použití pro zavádějící subjekt a případně základní popis uživatelského rozhraní poskytnutého zavádějícímu subjektu.
2.
En detaljeret beskrivelse af elementerne i AI-systemet og af processen for dets udvikling, herunder:
2.
Podrobný popis prvků systému AI a procesu jeho vývoje zahrnující:
a)
de metoder og trin, der er brugt i udviklingen af AI-systemet, herunder, hvis det er relevant, anvendelse af forhåndstrænede systemer eller værktøjer leveret af tredjeparter, og hvordan disse er blevet anvendt, integreret eller ændret af udbyderen
a)
metody a kroky provedené při vývoji systému AI, v příslušných případech včetně využití předtrénovaných systémů nebo nástrojů poskytnutých třetími stranami, a jak byly tyto systémy nebo nástroje použity, integrovány nebo upraveny poskytovatelem;
b)
systemets konstruktionsspecifikationer, dvs. AI-systemets og algoritmernes generelle logik, navnlig de vigtigste valg med hensyn til udformning, herunder begrundelser og antagelser, herunder med hensyn til personer eller grupper af personer, som systemet tilsigtes anvendt på, de overordnede klassificeringsvalg, hvad systemet er udformet til at optimere for og relevansen af de forskellige parametre, en beskrivelse af systemets forventede output og outputkvalitet samt beslutninger om eventuelle trade-offs i de tekniske løsninger, der er valgt for at overholde kravene i kapitel III, afdeling 2
b)
specifikace návrhu systému, zejména obecná logika systému AI a algoritmů; klíčové volby uplatněné v návrhu, včetně odůvodnění a učiněných předpokladů, a to i ve vztahu k osobám nebo skupinám osob, ohledně kterých má být systém používán; hlavní možnosti klasifikace; co má systém optimalizovat a význam jednotlivých parametrů; popis očekávaného výstupu a kvality výstupu systému; rozhodnutí týkající se všech případně učiněných kompromisů, pokud jde o technická řešení přijatá za účelem dodržení požadavků stanovených v kapitole III oddílu 2;
c)
en beskrivelse af systemarkitekturen, der forklarer, hvordan softwarekomponenterne bygger på eller føder ind i hinanden og integreres i den samlede anvendelse; de beregningskraftsressourcer, der anvendes til at udvikle, træne, afprøve og validere AI-systemet
c)
popis architektury systému vysvětlující, jak na sebe komponenty softwaru vzájemně navazují nebo jsou do sebe začleněny a integrovány do celkového zpracování; výpočetní prostředky použité za účelem vývoje, trénování, testování a validace systému AI;
d)
hvis det er relevant, datakravene i form af datablade, der beskriver de anvendte træningsmetoder og -teknikker og de anvendte træningsdatasæt, herunder en generel beskrivelse af disse datasæt, oplysninger om deres oprindelse, omfang og vigtigste karakteristika, hvordan dataene er indhentet og udvalgt, mærkningsprocedurer (f.eks. for læring med tilsyn) og datarensningsmetoder (f.eks. påvisning af outliere)
d)
v příslušných případech požadavky na data ve formě informativních přehledů popisujících metody a techniky trénování a použité soubory trénovacích dat, včetně obecného popisu těchto datových souborů, informací o jejich původu, rozsahu a hlavních vlastnostech; jakým způsobem byla data získána a vybrána; postupy označování (např. pro učení s učitelem), metody čištění dat (např. určování odlehlých hodnot);
e)
vurdering af de foranstaltninger til menneskeligt tilsyn, der er nødvendige i overensstemmelse med artikel 14, herunder en vurdering af de tekniske foranstaltninger, der er nødvendige for at lette idriftsætternes fortolkning af AI-systemets output, i overensstemmelse med artikel 13, stk. 3, litra d)
e)
posouzení opatření lidského dohledu potřebných v souladu s článkem 14, včetně posouzení technických opatření potřebných pro usnadnění interpretace výstupů systémů AI zavádějícími subjekty v souladu s čl. 13 odst. 3 písm. d);
f)
hvis det er relevant, en detaljeret beskrivelse af på forhånd fastlagte ændringer af AI-systemet og dets ydeevne sammen med alle relevante oplysninger vedrørende de tekniske løsninger, der er valgt for at sikre, at AI-systemet til stadighed overholder de relevante krav i kapitel III, afdeling 2
f)
v relevantních případech podrobný popis předem stanovených změn systému AI a jeho výkonnosti, spolu se všemi příslušnými informacemi, které se týkají technických řešení přijatých k zajištění trvalého souladu systému AI s příslušnými požadavky stanovenými v kapitole III oddílu 2;
g)
de anvendte validerings- og afprøvningsprocedurer, herunder oplysninger om de anvendte validerings- og afprøvningsdata og deres vigtigste karakteristika, parametre til måling af nøjagtighed, robusthed og overholdelse af andre relevante krav i kapitel III, afdeling 2, samt potentielt forskelsbehandlende virkninger samt afprøvningslogfiler og alle afprøvningsrapporter, der er dateret og underskrevet af de ansvarlige personer, herunder med hensyn til forudbestemte ændringer som omhandlet i litra f)
g)
použité validační a testovací postupy, včetně informací o použitých validačních a testovacích datech a jejich hlavních charakteristikách; metriky použité k měření přesnosti, spolehlivosti a dodržení jiných příslušných požadavků stanovených v kapitole III oddílu 2, jakož i jejich potenciálně diskriminační dopady; testovací protokoly a všechny zprávy o testování, datované a podepsané odpovědnými osobami, a to i v souvislosti s předem stanovenými změnami uvedenými v písmeně f);
h)
indførte cybersikkerhedsforanstaltninger.
h)
zavedená opatření v oblasti kybernetické bezpečnosti.
3.
Detaljerede oplysninger om overvågningen af AI-systemet, dets funktion og kontrollen hermed, navnlig med hensyn til dets kapacitet og begrænsninger i ydeevne, herunder nøjagtighedsgraden for specifikke personer eller grupper af personer, som systemet tilsigtes anvendt på, og det samlede forventede nøjagtighedsniveau i forhold til det tilsigtede formål, de forventede utilsigtede resultater og kilder til risici for sundhed og sikkerhed, grundlæggende rettigheder og forskelsbehandling i lyset af AI-systemets tilsigtede formål, foranstaltningerne til menneskeligt tilsyn i overensstemmelse med artikel 14, herunder de tekniske foranstaltninger, der er indført for at lette idriftsætternes fortolkning af AI-systemets output, samt specifikationer for inputdata, alt efter hvad der er relevant.
3.
Podrobné informace o monitorování, fungování a kontrole systému AI, zejména pokud jde o: jeho schopnosti a omezení v oblasti výkonnosti, včetně stupňů přesnosti z hlediska konkrétních osob nebo skupin osob, ve vztahu k nimž má být systém používán, a celková očekávaná úroveň přesnosti ve vztahu k zamýšlenému účelu použití; předvídatelné nezamýšlené výsledky a zdroje rizik pro zdraví a bezpečnost, základní práva a diskriminaci s ohledem na zamýšlený účel použití systému AI; opatření lidského dohledu potřebná v souladu s článkem 14, včetně technických opatření zavedených za účelem usnadnění interpretace výstupů systémů AI zavádějícími subjekty; případně specifikace vstupních dat.
4.
En beskrivelse af ydeevneparametrenes egnethed til det specifikke AI-system.
4.
Popis vhodnosti metriky výkonnosti pro konkrétní systém AI.
5.
En detaljeret beskrivelse af risikostyringssystemet i overensstemmelse med artikel 9.
5.
Podrobný popis systému řízení rizik v souladu s článkem 9.
6.
En beskrivelse af relevante ændringer, som udbyderen foretager af systemet i løbet af dets livscyklus.
6.
Popis relevantních změn systému provedených poskytovatelem v průběhu životního cyklu tohoto systému.
7.
En liste over de helt eller delvis anvendte harmoniserede standarder, hvis referencer er offentliggjort i Den Europæiske Unions Tidende, samt, hvis disse harmoniserede standarder ikke er blevet anvendt, en detaljeret beskrivelse af de løsninger, der er anvendt for at opfylde kravene i kapitel III, afdeling 2, herunder en liste over andre relevante tekniske specifikationer, som er anvendt.
7.
Seznam harmonizovaných norem použitých v plném rozsahu nebo zčásti, na něž byly zveřejněny odkazy v Úředním věstníku Evropské unie; pokud žádné takové harmonizované normy nebyly použity, podrobný popis řešení přijatých za účelem splnění požadavků stanovených v kapitole III oddílu 2, včetně seznamu jiných příslušných norem a technických specifikací, které byly použity.
8.
En kopi af den i artikel 47 omhandlede EU-overensstemmelseserklæring.
8.
Kopii EU prohlášení o shodě uvedeného v článku 47.
9.
En detaljeret beskrivelse af det system, der er indført til evaluering af AI-systemets ydeevne, efter at systemet er bragt i omsætning, i overensstemmelse med artikel 72, herunder planen for overvågning efter omsætningen, der er omhandlet i artikel 72, stk. 3.
9.
Podrobný popis systému zavedeného za účelem hodnocení výkonnosti systému AI po uvedení na trh v souladu s článkem 72, včetně plánu monitorování po uvedení na trh podle čl. 72 odst. 3.
BILAG V
PŘÍLOHA V
EU-overensstemmelseserklæring
EU prohlášení o shodě
EU-overensstemmelseserklæringen, der er omhandlet i artikel 47, skal indeholde følgende oplysninger:
EU prohlášení o shodě podle článku 47 obsahuje všechny tyto informace:
1.
AI-systemets navn, type og enhver yderligere entydig reference, der gør det muligt at identificere og spore AI-systemet
1.
název a typ systému AI a veškeré další jednoznačné referenční informace, jež umožňují identifikaci a sledovatelnost systému AI;
2.
udbyderens navn og adresse eller, hvis det er relevant, den bemyndigede repræsentants navn og adresse
2.
v relevantních případech jméno nebo název a adresu poskytovatele nebo jeho zplnomocněného zástupce;
3.
en erklæring om, at den i artikel 47 omhandlede EU-overensstemmelseserklæring udstedes på udbyderens ansvar
3.
uvedení skutečnosti, že EU prohlášení o shodě uvedené v článku 47 se vydává výlučně na odpovědnost poskytovatele;
4.
en erklæring om, at AI-systemet er i overensstemmelse med denne forordning og eventuelt med al anden relevant EU-ret, der fastsætter bestemmelser om udstedelse af den i artikel 47 omhandlede EU-overensstemmelseserklæring
4.
uvedení skutečnosti, že systém AI je ve shodě s tímto nařízením a případně s veškerým jiným příslušným právem Unie, v němž je vydávání EU prohlášení o shodě uvedené v článku 47upraveno;
5.
hvis et AI-system indbefatter behandling af personoplysninger, en erklæring om, at AI-systemet overholder forordning (EU) 2016/679 og (EU) 2018/1725 samt direktiv (EU) 2016/680
5.
pokud systém AI zahrnuje zpracování osobních údajů, prohlášení, že je tento systém AI v souladu s nařízeními (EU) 2016/679 a (EU) 2018/1725 a se směrnicí (EU) 2016/680;
6.
referencer til de relevante anvendte harmoniserede standarder eller referencer til anden fælles specifikation, som der erklæres overensstemmelse med
6.
odkazy na veškeré příslušné harmonizované normy, které byly použity, nebo na veškeré další společné specifikace, v souvislosti s nimiž se shoda prohlašuje;
7.
hvis det er relevant, navnet og identifikationsnummeret på det bemyndigede organ, en beskrivelse af den gennemførte overensstemmelsesvurderingsprocedure og identifikation af den udstedte attest
7.
v relevantních případech název a identifikační číslo oznámeného subjektu, popis postupu posuzování shody a identifikace vydaného certifikátu;
8.
udstedelsessted og -dato for erklæringen, navn og stilling på den person, der har underskrevet den, samt en angivelse af, for hvem eller på hvis vegne vedkommende har underskrevet, og underskrift.
8.
místo a datum vydání prohlášení, jméno a funkce osoby, která je podepsala, a údaj o tom, pro koho nebo jménem koho je tato osoba podepsala, podpis.
BILAG VI
PŘÍLOHA VI
Procedurer for overensstemmelsesvurdering baseret på intern kontrol
Postup posuzování shody založený na interní kontrole
1.
1.
Proceduren for overensstemmelsesvurdering baseret på intern kontrol er overensstemmelsesvurderingsproceduren baseret på punkt 2, 3 og 4.
Postupem posuzování shody založeným na interní kontrole se rozumí postup posuzování shody založený na bodech 2, 3 a 4.
2.
2.
Udbyderen verificerer, at det etablerede kvalitetsstyringssystem overholder kravene i artikel 17.
Poskytovatel ověří, že zavedený systém řízení kvality je v souladu s požadavky článku 17.
3.
3.
Udbyderen undersøger oplysningerne i den tekniske dokumentation med henblik på at vurdere, hvorvidt AI-systemet overholder de relevante væsentlige krav i kapitel III, afdeling 2.
Poskytovatel přezkoumá informace obsažené v technické dokumentaci za účelem posouzení souladu systému AI s příslušnými základními požadavky stanovenými v kapitole III oddílu 2.
4.
4.
Udbyderen verificerer også, at udformnings- og udviklingsprocessen for AI-systemet og dets overvågning efter omsætningen som omhandlet i artikel 72 er i overensstemmelse med den tekniske dokumentation.
Poskytovatel rovněž ověří, že proces návrhu a vývoje systému AI a jeho monitorování po uvedení na trh podle článku 72 odpovídá technické dokumentaci.
BILAG VII
PŘÍLOHA VII
Overensstemmelse baseret på en vurdering af kvalitetsstyringssystemet og en vurdering af den tekniske dokumentation
Shoda založená na posouzení systému řízení kvality a na posouzení technické dokumentace
1. Indledning
1. Úvod
Overensstemmelse baseret på en vurdering af kvalitetsstyringssystemet og en vurdering af den tekniske dokumentation er overensstemmelsesvurderingsproceduren baseret på punkt 2-5.
Shodou založenou na posouzení systému řízení kvality a na posouzení technické dokumentace se rozumí postup posuzování shody založený na bodech 2 až 5.
2. Oversigt
2. Přehled
Det godkendte kvalitetsstyringssystem for udformning, udvikling og afprøvning af AI-systemer i henhold til artikel 17 undersøges i overensstemmelse med punkt 3 og er underlagt den i punkt 5 omhandlede overvågning. AI-systemets tekniske dokumentation undersøges i overensstemmelse med punkt 4.
Schválený systém řízení kvality pro návrh, vývoj a testování systémů AI podle článku 17 se zkoumá v souladu s bodem 3 a podléhá dozoru stanovenému v bodě 5. Technická dokumentace systému AI se přezkoumá v souladu s bodem 4.
3. Kvalitetsstyringssystem
3. Systém řízení kvality
3.1.
Udbyderens ansøgning skal omfatte:
3.1
Žádost poskytovatele obsahuje:
a)
udbyderens navn og adresse samt navn og adresse på udbyderens bemyndigede repræsentant, hvis ansøgningen indgives af denne
a)
jméno nebo název a adresu poskytovatele, a pokud žádost podává zplnomocněný zástupce, také jeho jméno nebo název a adresu;
b)
listen over AI-systemer, der er omfattet af det samme kvalitetsstyringssystem
b)
seznam systémů AI, na něž se vztahuje tentýž systém řízení kvality;
c)
den tekniske dokumentation for hvert AI-system, der er omfattet af det samme kvalitetsstyringssystem
c)
technickou dokumentaci pro každý ze systémů AI, na nějž se vztahuje tentýž systém řízení kvality;
d)
dokumentationen vedrørende kvalitetsstyringssystemet, som skal omfatte alle de aspekter, der er anført i artikel 17
d)
dokumentaci týkající se systému řízení kvality, jež zahrnuje všechny prvky uvedené v článku 17;
e)
en beskrivelse af de procedurer, der er indført for at sikre, at kvalitetsstyringssystemet fortsat er fyldestgørende og effektivt
e)
popis postupů zavedených s cílem zajistit, aby systém řízení kvality zůstal v přiměřeném a účinném stavu;
f)
en skriftlig erklæring om, at samme ansøgning ikke er blevet indgivet til et andet bemyndiget organ.
f)
písemné prohlášení, že stejná žádost nebyla podána u jiného oznámeného subjektu.
3.2.
Det bemyndigede organ vurderer kvalitetsstyringssystemet for at afgøre, om det opfylder kravene omhandlet i artikel 17.
3.2
Systém řízení kvality posuzuje oznámený subjekt, který určí, zda systém vyhovuje požadavkům podle článku 17.
Afgørelsen meddeles udbyderen eller dennes bemyndigede repræsentant.
Rozhodnutí se oznámí poskytovateli nebo jeho zplnomocněnému zástupci.
Meddelelsen skal indeholde konklusionerne af vurderingen af kvalitetsstyringssystemet og en begrundelse for afgørelsen.
Oznámení obsahuje závěry posouzení systému řízení kvality a odůvodněné rozhodnutí o posouzení.
3.3.
Det godkendte kvalitetsstyringssystem skal fortsat gennemføres og vedligeholdes af udbyderen, således at det forbliver hensigtsmæssigt og effektivt.
3.3
Schválený systém řízení kvality je poskytovatelem i nadále uplatňován a udržován tak, aby zůstal v přiměřeném a účinném stavu.
3.4.
Enhver tilsigtet ændring af det godkendte kvalitetsstyringssystem eller listen over AI-systemer, der er omfattet af dette, skal af udbyderen meddeles det bemyndigede organ.
3.4
Poskytovatel informuje oznámený subjekt o každé zamýšlené změně schváleného systému řízení kvality nebo seznamu systémů AI, na něž se tento systém řízení kvality vztahuje.
Det bemyndigede organ vurderer de foreslåede ændringer og afgør, om det ændrede kvalitetsstyringssystem stadig opfylder de i punkt 3.2 omhandlede krav, eller om en fornyet vurdering er nødvendig.
Oznámený subjekt navrhované změny přezkoumá a rozhodne, zda změněný systém řízení kvality i nadále splňuje požadavky podle bodu 3.2, nebo zda je nutné nové posouzení.
Det bemyndigede organ meddeler udbyderen sin afgørelse. Meddelelsen skal indeholde konklusionerne af undersøgelsen af de foreslåede ændringer og en begrundelse for afgørelsen.
Oznámený subjekt oznámí své rozhodnutí poskytovateli. Oznámení obsahuje závěry přezkoumání změn a odůvodněné rozhodnutí o posouzení.
4. Kontrol af den tekniske dokumentation
4. Kontrola technické dokumentace
4.1.
Ud over den i punkt 3 omhandlede ansøgning, skal udbyderen til det bemyndigede organ indsende en ansøgning om vurdering af den tekniske dokumentation vedrørende det AI-system, som denne agter at bringe i omsætning eller ibrugtage, og som er omfattet af det kvalitetsstyringssystem, der er omhandlet i punkt 3.
4.1
Kromě žádosti uvedené v bodě 3 poskytovatel podá oznámenému subjektu dle vlastní volby žádost o posouzení technické dokumentace týkající se systému AI, jejž poskytovatel zamýšlí uvést na trh nebo do provozu a na nějž se vztahuje systém řízení kvality uvedený v bodě 3.
4.2.
Ansøgningen skal indeholde:
4.2
Žádost mimo jiné obsahuje:
a)
udbyderens navn og adresse
a)
jméno nebo název a adresu poskytovatele;
b)
en skriftlig erklæring om, at samme ansøgning ikke er blevet indgivet til et andet bemyndiget organ
b)
písemné prohlášení, že stejná žádost nebyla podána u jiného oznámeného subjektu;
c)
den i bilag IV omhandlede tekniske dokumentation.
c)
technickou dokumentaci uvedenou v příloze IV.
4.3.
Den tekniske dokumentation vurderes af det bemyndigede organ. Hvis det er relevant og begrænset til, hvad der er nødvendigt for, at det bemyndigede organ kan udføre sine opgaver, gives det fuld adgang til de anvendte trænings-, validerings- og afprøvningsdatasæt, herunder, hvis det er relevant, og med forbehold af sikkerhedsforanstaltninger, via API'er eller andre relevante tekniske midler og værktøjer, der muliggør fjernadgang.
4.3
Oznámený subjekt technickou dokumentaci přezkoumá. V relevantních případech a v rozsahu omezeném na to, co je nezbytné pro plnění jeho úkolů, je oznámenému subjektu udělen plný přístup k používaným souborům trénovacích, validačních a testovacích dat, a to v příslušných případech a s výhradou bezpečnostních záruk i prostřednictvím aplikačních programovacích rozhraní (API) nebo jiných relevantních technických prostředků a nástrojů umožňujících dálkový přístup.
4.4.
I forbindelse med vurderingen af den tekniske dokumentation kan det bemyndigede organ kræve, at udbyderen fremlægger yderligere dokumentation eller udfører yderligere afprøvninger for at muliggøre en korrekt vurdering af AI-systemets overensstemmelse med kravene i kapitel III, afdeling 2. Hvis det bemyndigede organ ikke er tilfreds med de afprøvninger, som udbyderen har foretaget, skal det bemyndigede organ selv foretage de nødvendige afprøvninger direkte, alt efter hvad der er relevant.
4.4
Při přezkoumávání technické dokumentace může oznámený subjekt požadovat, aby poskytovatel dodal další důkazy nebo provedl další testy s cílem umožnit náležité posouzení shody systému AI s požadavky stanovenými v kapitole III oddílu 2. Není-li oznámený subjekt s testy provedenými poskytovatelem spokojen, provede odpovídající testy případně přímo sám oznámený subjekt.
4.5.
Hvis det er nødvendigt for at vurdere, om højrisiko-AI-systemet er i overensstemmelse med kravene i kapitel III, afdeling 2, skal det bemyndigede organ, efter at alle andre rimelige metoder til at verificere overensstemmelsen er udtømt eller har vist sig utilstrækkelige, og efter begrundet anmodning gives adgang til AI-systemets træningsmodeller og trænede modeller, herunder dets relevante parametre. En sådan adgang er omfattet af gældende EU-ret om beskyttelse af intellektuel ejendom og forretningshemmeligheder.
4.5
Je-li to nezbytné k posouzení shody vysoce rizikového systému AI s požadavky stanovenými v kapitole III oddílu 2, je poté, co byly vyčerpány a ukázaly se jako nedostatečné všechny ostatní přiměřené způsoby ověřování shody, a na základě odůvodněné žádosti poskytnut oznámenému subjektu přístup také k tréninkovým a trénovaným modelům systému AI, včetně jeho příslušných parametrů. Tento přístup podléhá stávajícímu právu Unie v oblasti duševního vlastnictví a obchodních tajemství.
4.6.
Det bemyndigede organs afgørelse meddeles udbyderen eller dennes bemyndigede repræsentant. Meddelelsen skal indeholde konklusionerne af vurderingen af den tekniske dokumentation og en begrundelse for afgørelsen.
4.6
Rozhodnutí oznámeného subjektu se oznámí poskytovateli nebo jeho zplnomocněnému zástupci. Oznámení obsahuje závěry posouzení technické dokumentace a odůvodněné rozhodnutí o posouzení.
Hvis AI-systemet er i overensstemmelse med kravene i kapitel III, afdeling 2, udsteder det bemyndigede organ en EU-vurderingsattest for teknisk dokumentation. Attesten skal indeholde udbyderens navn og adresse, undersøgelseskonklusionerne, eventuelle betingelser for dets gyldighed og de nødvendige data til identifikation af AI-systemet.
Pokud je systém AI ve shodě s požadavky stanovenými v kapitole III oddílu 2, oznámený subjekt vydá certifikát Unie posouzení technické dokumentace. Certifikát obsahuje jméno nebo název a adresu poskytovatele, závěry přezkoumání, podmínky platnosti certifikátu (existují-li) a údaje nezbytné k identifikaci systému AI.
Attesten og bilagene hertil skal indeholde alle relevante oplysninger, der gør det muligt at vurdere AI-systemets overensstemmelse med kravene, herunder, hvis det er relevant, kontrol under brug.
Certifikát a jeho přílohy obsahuje všechny příslušné informace, jež umožňují vyhodnotit shodu systému AI a v relevantních případech zkontrolovat systém AI při používání.
Hvis AI-systemet ikke er i overensstemmelse med kravene i kapitel III, afdeling 2, afviser det bemyndigede organ at udstede en EU-vurderingsattest for teknisk dokumentation og oplyser ansøgeren herom og giver en detaljeret begrundelse for afslaget.
Pokud systém AI není ve shodě s požadavky stanovenými v kapitole III oddílu 2, oznámený subjekt odmítne certifikát Unie posouzení technické dokumentace vydat a informuje o této skutečnosti žadatele s uvedením podrobných důvodů svého odmítnutí.
Hvis AI-systemet ikke opfylder kravet vedrørende de data, der anvendes til at træne det, skal AI-systemet gentrænes, inden der ansøges om en ny overensstemmelsesvurdering. I dette tilfælde skal det bemyndigede organs begrundede afgørelse om afslag på udstedelse af en EU-vurderingsattest for teknisk dokumentation indeholde specifikke betragtninger om kvaliteten af de data, der er anvendt til at træne AI-systemet, navnlig om årsagerne til manglende overholdelse.
Pokud systém AI nesplňuje požadavek týkající se dat použitých za účelem jeho trénování, před podáním žádosti o nové posouzení shody bude třeba opětovné trénování. V tomto případě odůvodněné rozhodnutí o posouzení, ve kterém oznámený subjekt odmítl vydat certifikát Unie posouzení technické dokumentace, obsahuje konkrétní vyjádření ke kvalitě dat použitých za účelem trénování systému AI, a zejména o důvodech neshody.
4.7.
Enhver ændring af AI-systemet, der kan påvirke AI-systemets overholdelse af kravene eller systemets tilsigtede formål, skal vurderes af det bemyndigede organ, der har udstedt EU-vurderingsattesten for teknisk dokumentation. Udbyderen skal underrette det bemyndigede organ om sin hensigt om at indføre nogen af ovennævnte ændringer, eller hvis denne på anden måde bliver opmærksom på forekomsten af sådanne ændringer. Det bemyndigede organ vurderer de tilsigtede ændringer og afgør, om disse ændringer kræver en ny overensstemmelsesvurdering i overensstemmelse med artikel 43, stk. 4, eller om de kan behandles ved hjælp af et tillæg til EU-vurderingsattesten for teknisk dokumentation. I sidstnævnte tilfælde vurderer det bemyndigede organ ændringerne, meddeler udbyderen sin afgørelse og udsteder, såfremt ændringerne godkendes, et tillæg til EU-vurderingsattesten for teknisk dokumentation til udbyderen.
4.7
Veškeré změny systému AI, jež by mohly ovlivnit shodu systému AI s požadavky nebo se zamýšleným účelem jeho použití, posoudí oznámený subjekt, který vydal certifikát Unie posouzení technické dokumentace. Poskytovatel tento oznámený subjekt informuje o svém záměru zavést jakékoli z výše uvedených změn nebo o skutečnosti, že se o výskytu těchto změn dozvěděl jiným způsobem. Oznámený subjekt zamýšlené změny posoudí a rozhodne, zda uvedené změny vyžadují nové posouzení shody v souladu s čl. 43 odst. 4, nebo zda je lze vyřešit dodatkem k certifikátu Unie posouzení technické dokumentace. Ve druhém z výše uvedených případů oznámený subjekt dané změny posoudí, informuje poskytovatele o svém rozhodnutí a v případě schválení změn mu vydá dodatek k certifikátu Unie posouzení technické dokumentace.
5. Overvågning af det godkendte kvalitetsstyringssystem
5. Dozor nad schváleným systémem řízení kvality
5.1.
Formålet med den overvågning, der udføres af det bemyndigede organ, der er omhandlet i punkt 3, er at sikre, at udbyderen behørigt overholder vilkårene og betingelserne i det godkendte kvalitetsstyringssystem.
5.1
Účelem dozoru prováděného oznámeným subjektem uvedeným v bodě 3 je ujistit se, že poskytovatel řádně splňuje podmínky schváleného systému řízení kvality.
5.2.
Med henblik på vurdering skal udbyderen give det bemyndigede organ adgang til de lokaler, hvor udformningen, udviklingen eller afprøvningen af AI-systemerne finder sted. Udbyderen skal yderligere give det bemyndigede organ alle nødvendige oplysninger.
5.2
Pro účely posouzení poskytovatel oznámenému subjektu umožní přístup do prostor, kde se uskutečňuje návrh, vývoj a testování systémů AI. Poskytovatel dále s oznámeným subjektem sdílí veškeré potřebné informace.
5.3.
Det bemyndigede organ aflægger jævnligt kontrolbesøg for at sikre, at udbyderen vedligeholder og anvender kvalitetsstyringssystemet, og det udsteder en revisionsrapport til udbyderen. I forbindelse med disse kontrolbesøg kan det bemyndigede organ foretage yderligere afprøvninger af de AI-systemer, for hvilke der er udstedt en EU-vurderingsattest for teknisk dokumentation.
5.3
Oznámený subjekt pravidelně provádí audity, aby se ujistil, že poskytovatel systém řízení jakosti udržuje a používá, a předkládá poskytovateli zprávu o auditu. V souvislosti s těmito audity může oznámený subjekt provést další testy systémů AI, pro něž byl vydán certifikát Unie posouzení technické dokumentace.
BILAG VIII
PŘÍLOHA VIII
Oplysninger, der skal indsendes ved registrering af højrisiko-AI-systemer i overensstemmelse med artikel 49
Informace předkládané při registraci vysoce rizikových systémů AI v souladu s článkem 49
Afsnit A — Oplysninger, der skal indsendes af udbydere af højrisiko-AI-systemer i overensstemmelse med artikel 49, stk. 1
Oddíl A – Informace, které předkládají poskytovatelé vysoce rizikových systémů AI v souladu s čl. 49 odst. 1
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til højrisiko-AI-systemer, der skal registreres i overensstemmelse med artikel 49, stk. 1:
V souvislosti s vysoce rizikovými systémy AI, jež mají být registrovány v souladu s čl. 49 odst. 1, jsou poskytnuty a poté průběžně aktualizovány tyto informace:
1.
udbyderens navn, adresse og kontaktoplysninger
1.
jméno, adresa a další kontaktní údaje poskytovatele;
2.
hvis oplysninger forelægges af en anden person på vegne af udbyderen, denne persons navn, adresse og kontaktoplysninger
2.
pokud informace předkládá jiná osoba jménem poskytovatele, jméno nebo název, adresa a další kontaktní údaje této osoby;
3.
den bemyndigede repræsentants navn, adresse og kontaktoplysninger, hvis det er relevant
3.
v relevantních případech jméno nebo název, adresa a kontaktní údaje zplnomocněného zástupce;
4.
AI-systemets handelsnavn og enhver yderligere entydig reference, der gør det muligt at identificere og spore AI-systemet
4.
obchodní název systému AI a veškeré další jednoznačné referenční informace, jež umožňují identifikaci a sledovatelnost systému AI;
5.
en beskrivelse af det tilsigtede formål med AI-systemet og af de komponenter og funktioner, der understøttes af dette AI-system
5.
popis zamýšleného účelu systému AI a součástí a funkcí podporovaných tímto systémem AI;
6.
en grundlæggende og kortfattet beskrivelse af de oplysninger, der anvendes af systemet (data, input), og dets driftslogik
6.
základní a stručný popis informací používaných systémem (data, vstupy) a způsobu jeho fungování;
7.
AI-systemets status (i omsætning eller i drift, ikke længere i omsætning/i drift, tilbagekaldt)
7.
status systému AI (na trhu nebo v provozu; již ne na trhu nebo v provozu, stažen z oběhu);
8.
type, nummer og udløbsdato for den attest, der er udstedt af det bemyndigede organ, samt navn eller identifikationsnummer på det pågældende bemyndigede organ, hvis det er relevant
8.
typ, číslo a datum použitelnosti certifikátu vydaného oznámeným subjektem a případně název nebo identifikační číslo tohoto oznámeného subjektu;
9.
en scannet kopi af den i punkt 8 omhandlede attest, hvis det er relevant
9.
případně naskenovaná kopie certifikátu uvedeného v bodě 8;
10.
enhver medlemsstat, hvor AI-systemet har været bragt i omsætning, ibrugtaget eller gjort tilgængeligt i Unionen
10.
všechny členské státy, v nichž byl systém AI uveden na trh, uveden do provozu nebo zpřístupněn v Unii;
11.
en kopi af den i artikel 47 omhandlede EU-overensstemmelseserklæring
11.
kopie EU prohlášení o shodě podle článku 47;
12.
brugsanvisning i elektronisk form, dog gives disse oplysninger ikke for højrisiko-AI-systemer inden for retshåndhævelse og migrationsstyring, asylforvaltning og grænsekontrol, der er omhandlet i bilag III, punkt 1, 6 og 7
12.
elektronický návod k použití; tyto informace nelze uvádět u vysoce rizikových systémů AI v oblastech vymáhání práva nebo migrace, azylu a řízení správy hranic uvedených v příloze III bodech 1, 6 a 7;
13.
en URL for yderligere oplysninger (valgfrit).
13.
internetová adresa pro doplňující informace (nepovinné);
Afsnit B — Oplysninger, der skal indsendes af udbydere af højrisiko-AI-systemer i overensstemmelse med artikel 49, stk. 2
Oddíl B – Informace, které předkládají poskytovatelé vysoce rizikových systémů AI v souladu s čl. 49 odst. 2
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til højrisiko-AI-systemer, der registreres i overensstemmelse med artikel 49, stk. 2:
V souvislosti s vysoce rizikovými systémy AI, jež mají být registrovány v souladu s čl. 49 odst. 2, jsou poskytnuty a poté průběžně aktualizovány tyto informace:
1.
udbyderens navn, adresse og kontaktoplysninger
1.
jméno, adresa a další kontaktní údaje poskytovatele;
2.
hvis oplysninger forelægges af en anden person på vegne af udbyderen, denne persons navn, adresse og kontaktoplysninger
2.
pokud informace předkládá jiná osoba jménem poskytovatele, jméno, adresa a další kontaktní údaje této osoby;
3.
den bemyndigede repræsentants navn, adresse og kontaktoplysninger, hvis det er relevant
3.
v relevantních případech jméno, adresa a kontaktní údaje zplnomocněného zástupce;
4.
AI-systemets handelsnavn og enhver yderligere entydig reference, der gør det muligt at identificere og spore AI-systemet
4.
obchodní název systému AI a veškeré další jednoznačné referenční informace, jež umožňují identifikaci a sledovatelnost systému AI;
5.
en beskrivelse af det tilsigtede formål med AI-systemet
5.
popis zamýšleného účelu použití systému AI;
6.
den eller de betingelser i medfør af artikel 6, stk. 3, på grundlag af hvilke(n) AI-systemet ikke betragtes som højrisiko
6.
podmínky nebo podmínky podle čl. 6 odst. 3, na jejichž základě není systém AI považován za vysoce rizikový;
7.
en kort sammenfatning af grundene at, AI-systemet ikke betragtes som højrisiko i forbindelse med anvendelse af proceduren i artikel 6, stk. 3
7.
stručné shrnutí důvodů, na jejichž základě není systém AI při uplatnění postupu podle čl. 6 odst. 3 považován za vysoce rizikový;
8.
AI-systemets status (i omsætning eller i drift, ikke længere i omsætning/i drift, tilbagekaldt)
8.
status systému AI (na trhu nebo v provozu; již ne na trhu nebo v provozu, stažen z oběhu);
9.
enhver medlemsstat, hvor AI-systemet har været bragt i omsætning, ibrugtaget eller gjort tilgængeligt i Unionen.
9.
všechny členské státy, v nichž byl systém AI uveden na trh, uveden do provozu nebo zpřístupněn v Unii.
Afsnit C — Oplysninger, der skal indsendes af idriftsættere af højrisiko-AI-systemer i overensstemmelse med artikel 49, stk. 3
Oddíl C – Informace, které předkládají subjekty zavádějící vysoce rizikové systémy AI v souladu s čl. 49 odst. 3
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til højrisiko-AI-systemer, der registreres i overensstemmelse med artikel 49, stk. 3:
V souvislosti s vysoce rizikovými systémy AI, jež mají být registrovány v souladu s čl. 49 odst. 3, jsou poskytnuty a poté průběžně aktualizovány tyto informace:
1.
idriftsætterens navn, adresse og kontaktoplysninger
1.
jméno, adresa a další kontaktní údaje zavádějícího subjektu;
2.
navn, adresse og kontaktoplysninger på enhver person, der indsender oplysninger på vegne af idriftsætteren
2.
jméno, adresa a další kontaktní údaje osoby předkládající informace jménem zavádějícího subjektu;
3.
URL'en for indlæsningen af AI-systemet i EU-databasen for udbyderen af AI-systemet
3.
internetová adresa záznamu systému AI v databázi EU ze strany jeho poskytovatele;
4.
et sammendrag af resultaterne af den konsekvensanalyse vedrørende grundlæggende rettigheder, der er foretaget i overensstemmelse med artikel 27
4.
shrnutí zjištění posouzení dopadů na základní práva provedeného v souladu s článkem 27;
5.
et sammendrag af konsekvensanalysen vedrørende databeskyttelse foretaget i overensstemmelse med artikel 35 i forordning (EU) 2016/679 eller artikel 27 i direktiv (EU) 2016/680 som specificeret i nærværende forordnings artikel 26, stk. 8, hvis det er relevant.
5.
shrnutí posouzení vlivu na ochranu osobních údajů provedeného v souladu s článkem 35 nařízení (EU) 2016/679 nebo článkem 27 směrnice (EU) 2016/680, jak je uvedeno v čl. 26 odst. 8 tohoto nařízení, je-li to relevantní.
BILAG IX
PŘÍLOHA IX
Oplysninger, der skal indsendes ved registrering af højrisiko-AI-systemer anført i bilag III i forbindelse med afprøvning under faktiske forhold i overensstemmelse med artikel 60
Informace předkládané při registraci vysoce rizikových systémů AI uvedených v příloze III týkající se testování v reálných podmínkách v souladu s článkem 60
Følgende oplysninger skal forelægges og derefter holdes ajourført med hensyn til afprøvning under faktiske forhold, der registreres i overensstemmelse med artikel 60:
V souvislosti s testováním v reálných podmínkách, jež má být registrováno v souladu s článkem 60, se poskytují a poté průběžně aktualizují tyto informace:
1.
et EU-dækkende unikt individuelt identifikationsnummer for afprøvningen under faktiske forhold
1.
celounijní jedinečné identifikační číslo testování v reálných podmínkách;
2.
navn og kontaktoplysninger på udbyderen eller den potentielle udbyder og på de idriftsættere, der er involveret i afprøvningen under faktiske forhold
2.
jméno nebo název a kontaktní údaje poskytovatele nebo potenciálního poskytovatele a zavádějících subjektů zapojených do testování v reálných podmínkách;
3.
en kort beskrivelse af AI-systemet, dets tilsigtede formål og andre oplysninger, der er nødvendige for at identificere systemet
3.
stručný popis systému AI, jeho zamýšlený účel a další informace nezbytné pro identifikaci systému;
4.
et sammendrag af de vigtigste karakteristika ved planen for afprøvning under faktiske forhold
4.
souhrn hlavních charakteristik plánu testování v reálných podmínkách;
5.
oplysninger om suspendering eller afslutning af afprøvningen under faktiske forhold.
5.
informace týkající se pozastavení nebo ukončení testování v reálných podmínkách.
BILAG X
PŘÍLOHA X
Lovgivningsmæssige EU-retsakter om store IT-systemer inden for området med frihed, sikkerhed og retfærdighed
Právní předpisy Unie o rozsáhlých informačních systémech v prostoru svobody, bezpečnosti a práva
1. Schengeninformationssystemet
1. Schengenský informační systém
a)
Europa-Parlamentets og Rådets forordning (EU) 2018/1860 af 28. november 2018 om brug af Schengeninformationssystemet i forbindelse med tilbagesendelse af tredjelandsstatsborgere med ulovligt ophold (EUT L 312 af 7.12.2018, s. 1)
a)
Nařízení Evropského parlamentu a Rady (EU) 2018/1860 ze dne 28. listopadu 2018 o využívání Schengenského informačního systému při navracení neoprávněně pobývajících státních příslušníků třetích zemí (Úř. věst. L 312, 7.12.2018, s. 1)
b)
Europa-Parlamentets og Rådets forordning (EU) 2018/1861 af 28. november 2018 om oprettelse, drift og brug af Schengeninformationssystemet (SIS) på området ind- og udrejsekontrol, om ændring af konventionen om gennemførelse af Schengenaftalen og om ændring og ophævelse af forordning (EF) nr. 1987/2006 (EUT L 312 af 7.12.2018, s. 14)
b)
Nařízení Evropského parlamentu a Rady (EU) 2018/1861 ze dne 28. listopadu 2018 o zřízení, provozu a využívání Schengenského informačního systému (SIS) v oblasti hraničních kontrol, o změně Úmluvy k provedení Schengenské dohody a o změně a zrušení nařízení (ES) č. 1987/2006 (Úř. věst. L 312, 7.12.2018, s. 14)
c)
Europa-Parlamentets og Rådets forordning (EU) 2018/1862 af 28. november 2018 om oprettelse, drift og brug af Schengeninformationssystemet (SIS) på området politisamarbejde og strafferetligt samarbejde, om ændring og ophævelse af Rådets afgørelse 2007/533/RIA og om ophævelse af Europa-Parlamentets og Rådets forordning (EF) nr. 1986/2006 og Kommissionens afgørelse 2010/261/EU (EUT L 312 af 7.12.2018, s. 56).
c)
Nařízení Evropského parlamentu a Rady (EU) 2018/1862 ze dne 28. listopadu 2018 o zřízení, provozu a využívání Schengenského informačního systému (SIS) v oblasti policejní spolupráce a justiční spolupráce v trestních věcech, o změně a o zrušení rozhodnutí Rady 2007/533/SVV a o zrušení nařízení Evropského parlamentu a Rady (ES) č. 1986/2006 a rozhodnutí Komise 2010/261/EU (Úř. věst. L 312, 7.12.2018, s. 56)
2. Visuminformationssystemet
2. Vízový informační systém
a)
Europa-Parlamentets og Rådets forordning (EU) 2021/1133 af 7. juli 2021 om ændring af forordning (EU) nr. 603/2013, (EU) 2016/794, (EU) 2018/1862, (EU) 2019/816 og (EU) 2019/818 for så vidt angår fastsættelse af betingelserne for adgang til andre EU-informationssystemer med henblik på visuminformationssystemet (EUT L 248 af 13.7.2021, s. 1)
a)
Nařízení Evropského parlamentu a Rady (EU) 2021/1133 ze dne 7. července 2021, kterým se mění nařízení (EU) č. 603/2013, (EU) 2016/794, (EU) 2018/1862, (EU) 2019/816 a (EU) 2019/818, pokud jde o stanovení podmínek pro přístup k jiným informačním systémům EU pro účely Vízového informačního systému (Úř. věst. L 248, 13.7.2021, s. 1)
b)
Europa-Parlamentets og Rådets forordning (EU) 2021/1134 af 7. juli 2021 om ændring af Europa-Parlamentets og Rådets forordning (EF) nr. 767/2008, (EF) nr. 810/2009, (EU) 2016/399, (EU) 2017/2226, (EU) 2018/1240, (EU) 2018/1860, (EU) 2018/1861, (EU) 2019/817 og (EU) 2019/1896 og om ophævelse af Rådets beslutning 2004/512/EF og Rådets afgørelse 2008/633/RIA, med henblik på reform af visuminformationssystemet (EUT L 248 af 13.7.2021, s. 11).
b)
Nařízení Evropského parlamentu a Rady (EU) 2021/1134 ze dne 7. července 2021, kterým se mění nařízení Evropského parlamentu a Rady (ES) č. 767/2008, (ES) č. 810/2009, (EU) 2016/399, (EU) 2017/2226, (EU) 2018/1240, (EU) 2018/1860, (EU) 2018/1861, (EU) 2019/817 a (EU) 2019/1896 a kterým se zrušují rozhodnutí Rady 2004/512/ES a 2008/633/SVV za účelem reformy Vízového informačního systému (Úř. věst. L 248, 13.7.2021, s. 11)
3. Eurodac
3. Systém Eurodac
Europa-Parlamentets og Rådets forordning (EU) 2024/1358 af 14. maj 2024 om oprettelse af »Eurodac« til sammenligning af biometriske oplysninger med henblik på effektiv anvendelse af Europa-Parlamentets og Rådets forordning (EU) 2024/1315 og (EU) 2024/1350 og Rådets direktiv 2001/55/EF og på identificering af tredjelandsstatsborgere og statsløse med ulovligt ophold og om medlemsstaternes retshåndhævende myndigheders og Europols adgang til at indgive anmodning om sammenligning med Eurodacoplysninger med henblik på retshåndhævelse, om ændring af Europa-Parlamentets og Rådets forordning (EU) 2018/1240 og (EU) 2019/818 og om ophævelse af Europa-Parlamentets og Rådets forordning (EU) nr. 603/2013 (EUT L, 2024/1358, 22.5.2024, ELI: http://data.europa.eu/eli/reg/2024/1358/oj).
Nařízení Evropského parlamentu a Rady (EU) 2024/1358 ze dne 14. května 2024 o zřízení systému „Eurodac“ pro porovnávání biometrických údajů za účelem účinného uplatňování nařízení Evropského parlamentu a Rady (EU) 2024/1315 a (EU) 2024/1350 a směrnice Rady 2001/55/ES a za účelem identifikace neoprávněně pobývajících státních příslušníků třetí země a osob bez státní příslušnosti, o podávání žádostí donucovacích orgánů členských států a Europolu o porovnání údajů s údaji systému Eurodac pro účely vymáhání práva, o změně nařízení Evropského parlamentu a Rady (EU) 2018/1240 a (EU) 2019/818 a zrušení nařízení Evropského parlamentu a Rady (EU) č. 603/2013 (Úř. věst. L, 2024/1358, 22.5.2024, ELI: http://data.europa.eu/eli/reg/2024/1358/oj).
4. Ind- og udrejsesystemet
4. Systém vstupu/výstupu
Europa-Parlamentets og Rådets forordning (EU) 2017/2226 af 30. november 2017 om oprettelse af et ind- og udrejsesystem til registrering af ind- og udrejseoplysninger og oplysninger om nægtelse af indrejse vedrørende tredjelandsstatsborgere, der passerer medlemsstaternes ydre grænser, om fastlæggelse af betingelserne for adgang til ind- og udrejsesystemet til retshåndhævelsesformål og om ændring af konventionen om gennemførelse af Schengenaftalen og forordning (EF) nr. 767/2008 og (EU) nr. 1077/2011 (EUT L 327 af 9.12.2017, s. 20).
Nařízení Evropského parlamentu a Rady (EU) 2017/2226 ze dne 30. listopadu 2017, kterým se zřizuje Systém vstupu/výstupu (EES) pro registraci údajů o vstupu a výstupu a údajů o odepření vstupu, pokud jde o státní příslušníky třetích zemí překračující vnější hranice členských států, kterým se stanoví podmínky přístupu do systému EES pro účely vymáhání práva a kterým se mění Úmluva k provedení Schengenské dohody a nařízení (ES) č. 767/2008 a (EU) č. 1077/2011 (Úř. věst. L 327, 9.12.2017, s. 20)
5. Det europæiske system vedrørende rejseinformation og rejsetilladelse
5. Evropský systém pro cestovní informace a povolení
a)
Europa-Parlamentets og Rådets forordning (EU) 2018/1240 af 12. september 2018 om oprettelse af et europæisk system vedrørende rejseinformation og rejsetilladelse (ETIAS) og om ændring af forordning (EU) nr. 1077/2011, (EU) nr. 515/2014, (EU) 2016/399, (EU) 2016/1624 og (EU) 2017/2226 (EUT L 236 af 19.9.2018, s. 1)
a)
Nařízení Evropského parlamentu a Rady (EU) 2018/1240 ze dne 12. září 2018, kterým se zřizuje Evropský systém pro cestovní informace a povolení (ETIAS) a kterým se mění nařízení (EU) č. 1077/2011, (EU) č. 515/2014, (EU) 2016/399, (EU) 2016/1624 a (EU) 2017/2226 (Úř. věst. L 236, 19.9.2018, s. 1)
b)
Europa-Parlamentets og Rådets forordning (EU) 2018/1241 af 12. september 2018 om ændring af forordning (EU) 2016/794 med henblik på oprettelse af et europæisk system vedrørende rejseinformation og rejsetilladelse (ETIAS) (EUT L 236 af 19.9.2018, s. 72).
b)
Nařízení Evropského parlamentu a Rady (EU) 2018/1241 ze dne 12. září 2018, kterým se mění nařízení (EU) 2016/794 za účelem zřízení Evropského systému pro cestovní informace a povolení (ETIAS) (Úř. věst. L 236, 19.9.2018, s. 72)
6. Det europæiske informationssystem vedrørende strafferegistre for statsborgere i tredjelande og statsløse
6. Evropský informační systém rejstříků trestů státních příslušníků třetích zemí a osob bez státní příslušnosti
Europa-Parlamentets og Rådets forordning (EU) 2019/816 af 17. april 2019 om oprettelse af et centralt system til bestemmelse af, hvilke medlemsstater der ligger inde med oplysninger om straffedomme afsagt over tredjelandsstatsborgere og statsløse personer (ECRIS-TCN) for at supplere det europæiske informationssystem vedrørende strafferegistre, og om ændring af forordning (EU) 2018/1726 (EUT L 135 af 22.5.2019, s. 1).
Nařízení Evropského parlamentu a Rady (EU) 2019/816 ze dne 17. dubna 2019, kterým se zřizuje centralizovaný systém pro identifikaci členských států, jež mají informace o odsouzeních státních příslušníků třetích zemí a osob bez státní příslušnosti (ECRIS-TCN), na doplnění Evropského informačního systému rejstříků trestů, a kterým se mění nařízení (EU) 2018/1726 (Úř. věst. L 135, 22.5.2019, s. 1)
7. Interoperabilitet
7. Interoperabilita
a)
Europa-Parlamentets og Rådets forordning (EU) 2019/817 af 20. maj 2019 om fastsættelse af en ramme for interoperabilitet mellem EU-informationssystemer vedrørende grænser og visum og om ændring af Europa-Parlamentets og Rådets forordning (EF) nr. 767/2008, (EU) 2016/399, (EU) 2017/2226, (EU) 2018/1240, (EU) 2018/1726 og (EU) 2018/1861, Rådets beslutning 2004/512/EF og Rådets afgørelse 2008/633/RIA (EUT L 135 af 22.5.2019, s. 27)
a)
Nařízení Evropského parlamentu a Rady (EU) 2019/817 ze dne 20. května 2019, kterým se zřizuje rámec pro interoperabilitu mezi informačními systémy EU v oblasti hranic a víz a mění nařízení Evropského parlamentu a Rady (ES) č. 767/2008, (EU) 2016/399, (EU) 2017/2226, (EU) 2018/1240, (EU) 2018/1726 a (EU) 2018/1861 a rozhodnutí Rady 2004/512/ES a 2008/633/SVV (Úř. věst. L 135, 22.5.2019, s. 27)
b)
Europa-Parlamentets og Rådets forordning (EU) 2019/818 af 20. maj 2019 om fastsættelse af en ramme for interoperabilitet mellem EU-informationssystemer vedrørende politisamarbejde og retligt samarbejde, asyl og migration og om ændring af forordning (EU) 2018/1726, (EU) 2018/1862 og (EU) 2019/816 (EUT L 135 af 22.5.2019, s. 85).
b)
Nařízení Evropského parlamentu a Rady (EU) 2019/818 ze dne 20. května 2019, kterým se zřizuje rámec pro interoperabilitu mezi informačními systémy EU v oblasti policejní a justiční spolupráce, azylu a migrace a kterým se mění nařízení (EU) 2018/1726, (EU) 2018/1862 a (EU) 2019/816 (Úř. věst. L 135, 22.5.2019, s. 85).
BILAG XI
PŘÍLOHA XI
Teknisk dokumentation omhandlet i artikel 53, stk. 1, litra a) — teknisk dokumentation for udbydere af AI-modeller til almen brug
Technická dokumentace podle čl. 53 odst. 1 písm. a) – technická dokumentace pro poskytovatele obecných modelů AI
Afsnit 1
Oddíl 1
Oplysninger, der skal forelægges af alle udbydere af AI-modeller til almen brug
Informace, které poskytují všichni poskytovatelé obecných modelů AI
Den tekniske dokumentation omhandlet i artikel 53, stk. 1, litra a), skal som minimum indeholde følgende oplysninger, alt efter hvad der er relevant for modellens størrelse og risikoprofil:
Technická dokumentace podle čl. 53 odst. 1 písm. a) obsahuje v závislosti na velikosti a rizikovém profilu daného modelu alespoň tyto informace:
1.
En generel beskrivelse af AI-modellen til almen brug, herunder:
1.
Obecný popis obecného modelu AI zahrnující:
a)
de opgaver, som modellen tilsigtes at udføre, og typen og arten af AI-systemer, som den kan integreres i
a)
úkoly, které má model plnit, a druh a povahu systémů AI, do nichž může být začleněn;
b)
gældende acceptable anvendelsespolitikker
b)
použitelná pravidla přijatelného způsobu užívání;
c)
frigivelsesdato og distributionsmetoder
c)
datum zpřístupnění a způsoby distribuce;
d)
parametrenes arkitektur og antal
d)
architekturu a počet parametrů;
e)
modalitet (f.eks. tekst, billede) og format af input og output
e)
modalitu (např. text, obrázek) a formát vstupů a výstupů;
f)
licensen.
f)
licenci.
2.
En detaljeret beskrivelse af elementerne i den model, der er omhandlet i punkt 1, og relevante oplysninger om udviklingsprocessen, herunder følgende elementer:
2.
Podrobný popis prvků modelu podle bodu 1 a relevantní informace o procesu vývoje, včetně těchto prvků:
a)
de tekniske midler (f.eks. brugsanvisning, infrastruktur, værktøjer), der er nødvendige for, at AI-modellen til almen brug kan integreres i AI-systemer
a)
technické prostředky (např. návod k použití, infrastruktura, nástroje) nezbytné pro začlenění obecného modelu AI do systémů AI;
b)
modellens konstruktionsspecifikationer og træningsprocessen, herunder træningsmetoder og -teknikker, de vigtigste valg med hensyn til udformning, herunder begrundelser og antagelser, hvad modellen er udformet til at optimere for og relevansen af de forskellige parametre, alt efter hvad der er relevant
b)
specifikace návrhu modelu a postup trénování, včetně metodik a technik trénování, klíčové volby uplatněné v návrhu, včetně odůvodnění a výchozích předpokladů; co má model optimalizovat a případně relevantnost jednotlivých parametrů;
c)
oplysninger om de data, der anvendes til træning, afprøvning og validering, hvis det er relevant, herunder dataenes type og oprindelse og kurateringsmetoder (f.eks. rensning, filtrering osv.), antallet af datapunkter, deres omfang og vigtigste karakteristika, hvordan dataene er indhentet og udvalgt, samt alle andre foranstaltninger til at opdage uegnede datakilder og metoder til at opdage identificerbare bias, hvor det er relevant
c)
informace o datech použitých pro trénování, testování a případně validaci, včetně druhu a původu dat a metodik kurátorství dat (např. čištění, filtrování atd.), počtu datových bodů, jejich rozsahu a hlavních charakteristik; jak byla data získána a vybrána, jakož i veškerá další opatření ke zjištění nevhodnosti zdrojů dat a metod pro odhalování identifikovatelných zkreslení, je-li to relevantní;
d)
de beregningskraftsressourcer, der anvendes til at træne modellen (f.eks. antal flydende kommatalsberegninger), træningstid og andre relevante detaljer vedrørende træningen
d)
výpočetní zdroje použité k trénování modelu (např. počet operací s pohyblivou řádovou čárkou), doba trénování a další relevantní podrobnosti týkající se trénování;
e)
modellens kendte eller anslåede energiforbrug.
e)
známá nebo odhadovaná spotřeba energie u daného modelu.
For så vidt angår litra e) kan energiforbruget, hvis modellens energiforbrug er ukendt, baseres på oplysninger om anvendte beregningskraftsressourcer.
Pokud jde o písmeno e), pokud není spotřeba energie u daného modelu známa, mohou být údaje o ní založeny na informacích o použitých výpočetních zdrojích.
Afsnit 2
Oddíl 2
Yderligere oplysninger, der skal forelægges af udbydere af AI-modeller til almen brug med systemisk risiko
Dodatečné informace, jež poskytují poskytovatelé obecných modelů AI se systémovým rizikem
1.
En detaljeret beskrivelse af evalueringsstrategierne, herunder evalueringsresultater, på grundlag af tilgængelige offentlige evalueringsprotokoller og -værktøjer eller på anden måde af andre evalueringsmetoder. Evalueringsstrategierne skal omfatte evalueringskriterier, parametre og metoder til identifikation af begrænsninger.
1.
Podrobný popis hodnotících strategií, včetně výsledků hodnocení, na základě dostupných veřejných hodnotících protokolů a nástrojů či jiných metodik hodnocení. Hodnotící strategie zahrnují hodnotící kritéria, metriky a metodiku pro identifikaci omezení.
2.
Hvis det er relevant, en detaljeret beskrivelse af de foranstaltninger, der er truffet med henblik på at gennemføre intern og/eller ekstern kontradiktorisk afprøvning (f.eks. red teaming), modeltilpasninger, herunder tilpasning og finjustering.
2.
Případně podrobný popis opatření zavedených za účelem provedení interního nebo externího kontradiktorního testování (např. červené týmy), úprav modelů, včetně sladění a doladění.
3.
Hvis det er relevant, en detaljeret beskrivelse af systemarkitekturen, der forklarer, hvordan softwarekomponenterne bygger på eller føder ind i hinanden og integreres i den samlede anvendelse.
3.
Případně podrobný popis architektury systému vysvětlující, jak na sebe komponenty softwaru vzájemně navazují nebo jak se navzájem doplňují a jak jsou integrovány do celkového zpracování.
BILAG XII
PŘÍLOHA XII
Gennemsigtighedsoplysninger omhandlet i artikel 53, stk. 1, litra b) — teknisk dokumentation for udbydere af AI-modeller til almen brug til downstreamudbydere, der integrerer modellen i deres AI-system
Informace pro zajištění transparentnosti podle čl. 53 odst. 1 písm. b) – technická dokumentace pro poskytovatele obecných modelů AI poskytovaná navazujícím poskytovatelům, kteří model začleňují do svého systému AI
Oplysningerne omhandlet i artikel 53, stk. 1, litra b), skal som minimum omfatte følgende:
Informace uvedené v čl. 53 odst. 1 písm. b) obsahují alespoň tyto údaje:
1.
En generel beskrivelse af AI-modellen til almen brug, herunder:
1.
Obecný popis obecného modelu AI zahrnující:
a)
de opgaver, som modellen tilsigtes at udføre, og typen og arten af AI-systemer, som den kan integreres i
a)
úkoly, které má model plnit, a druh a povahu systémů AI, do nichž může být začleněn;
b)
gældende acceptable anvendelsespolitikker
b)
použitelná pravidla přijatelného způsobu užívání;
c)
frigivelsesdato og distributionsmetoder
c)
datum zpřístupnění a způsoby distribuce;
d)
hvis det er relevant, hvordan modellen interagerer eller kan bruges til at interagere med hardware eller software, der ikke er en del af selve modellen
d)
informace o tom, jak model interaguje s hardwarem nebo softwarem, který není součástí samotného modelu, nebo jak může v relevantních případech být za účelem interakce s nimi použit;
e)
versioner af relevant software vedrørende anvendelsen af AI-modellen til almen brug, hvis det er relevant
e)
případně verze relevantního softwaru související s používáním obecného modelu AI;
f)
parametrenes arkitektur og antal
f)
architekturu a počet parametrů;
g)
modalitet (f.eks. tekst, billede) og format af input og output
g)
modalitu (např. text, obrázek) a formát vstupů a výstupů;
h)
licensen til modellen.
h)
licenci pro daný model.
2.
En beskrivelse af elementerne i modellen og af processen for dens udvikling, herunder:
2.
Popis prvků modelu a procesu jeho vývoje zahrnující:
a)
de tekniske midler (f.eks. brugsanvisning, infrastruktur, værktøjer), der er nødvendige for, at AI-modellen til almen brug kan integreres i AI-systemer
a)
technické prostředky (např. návod k použití, infrastruktura, nástroje) nezbytné pro začlenění obecného modelu AI do systémů AI;
b)
modalitet (f.eks. tekst, billede osv.) og format af input og output og deres maksimale størrelse (f.eks. kontekstvinduesstørrelse osv.)
b)
modalitu (např. text, obrázek atd.) a formát vstupů a výstupů a jejich maximální velikost (např. délka kontextového okna atd.);
c)
oplysninger om de data, der anvendes til træning, afprøvning og validering, hvis det er relevant, herunder dataenes type og oprindelse og kurateringsmetoder.
c)
informace o datech použitých pro trénování, testování a validaci, je-li to relevantní, včetně druhu a původu dat a metodik kurátorství.
BILAG XIII
PŘÍLOHA XIII
Kriterier for udpegelse af AI-modeller til almen brug med systemisk risiko, jf. artikel 51
Kritéria pro určování obecných modelů AI se systémovým rizikem podle článku 51
Med henblik på at fastslå, at en AI-model til almen brug har kapaciteter eller virkninger, der svarer til dem, der er fastsat i artikel 51, stk. 1, litra a), tager Kommissionen hensyn til følgende kriterier:
Aby určila, zda má obecný model AI schopnosti nebo dopad rovnocenný těm, které jsou stanoveny v čl. 51 odst. 1 písm. a), zohlední Komise tato kritéria:
a)
antal parametre i modellen
a)
počet parametrů modelu;
b)
datasættets kvalitet eller størrelse, f.eks. målt ved hjælp af tokens
b)
kvalita nebo velikost datového souboru, měřená například prostřednictvím tokenů;
c)
den mængde beregningskraft, der anvendes til træning af modellen, målt i flydende kommatalsberegninger eller angivet ved en kombination af andre variabler såsom anslåede træningsomkostninger, anslået tid til træningen eller anslået energiforbrug til træningen
c)
množství výpočetních operací použitých pro trénování modelu, měřená ve operacích s pohyblivou řádovou čárkou nebo uvedená jako kombinace jiných proměnných, jako jsou odhadované náklady na trénování, odhadovaná doba potřebná pro trénování nebo odhadovaná spotřeba energie pro účely trénování;
d)
modellens input- og outputmetoder, f.eks. tekst til tekst (store sprogmodeller), tekst til billede, multimodalitet og de nyeste tærskler til bestemmelse af kapaciteter med stor virkning for hver modalitet, samt den specifikke type input og output (f.eks. biologiske sekvenser)
d)
modality vstupů a výstupů modelu, jako je „z textu na text“ (velké jazykové modely), „z textu na obrázek“, multimodalita a nejmodernější prahové hodnoty pro určení schopností s velkým dopadem pro jednotlivé modality a konkrétní druh vstupů a výstupů (např. biologické sekvence);
e)
benchmarks og evalueringer af modellens kapaciteter, herunder hensyntagen til antal opgaver uden yderligere træning, tilpasningsevne til at lære nye, særskilte opgaver, dens grad af autonomi og skalerbarhed og de værktøjer, den har adgang til
e)
referenční hodnoty a hodnocení schopností modelu, včetně zohlednění počtu úkolů bez dodatečného trénování, schopnosti učit se novým, odlišným úkolům, míry jeho autonomie a škálovatelnosti a nástrojů, k nimž má přístup;
f)
om den har stor indvirkning på det indre marked på grund af dens omfang, hvilket formodes at være tilfældet, når den er blevet gjort tilgængelig for mindst 10 000 registrerede erhvervsbrugere etableret i Unionen
f)
zda má z důvodu svého dosahu velký dopad na vnitřní trh, což se předpokládá, pokud je zpřístupněn alespoň 10 000 registrovaných podnikatelských uživatelů usazených v Unii;
g)
antal registrerede slutbrugere.
g)
počet registrovaných koncových uživatelů.
ELI: http://data.europa.eu/eli/reg/2024/1689/oj
ELI: http://data.europa.eu/eli/reg/2024/1689/oj
ISSN 1977-0634 (electronic edition)
ISSN 1977-0626 (electronic edition)