Jornal Oficial
da União Europeia
PT
Úřední věstník
Evropské unie
CS
REGULAMENTO (UE) 2024/1689 DO PARLAMENTO EUROPEU E DO CONSELHO
NAŘÍZENÍ EVROPSKÉHO PARLAMENTU A RADY (EU) 2024/1689
que cria regras harmonizadas em matéria de inteligência artificial e que altera os Regulamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial)
kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění nařízení (ES) č. 300/2008, (EU) č. 167/2013, (EU) č. 168/2013, (EU) 2018/858, (EU) 2018/1139 a (EU) 2019/2144 a směrnice 2014/90/EU, (EU) 2016/797 a (EU) 2020/1828 (akt o umělé inteligenci)
(Texto relevante para efeitos do EEE)
(Text s významem pro EHP)
O PARLAMENTO EUROPEU E O CONSELHO DA UNIÃO EUROPEIA,
EVROPSKÝ PARLAMENT A RADA EVROPSKÉ UNIE,
Tendo em conta o Tratado sobre o Funcionamento da União Europeia, nomeadamente os artigos 16.o e 114.o,
s ohledem na Smlouvu o fungování Evropské unie, a zejména na články 16 a 114 této smlouvy,
Tendo em conta a proposta da Comissão Europeia,
s ohledem na návrh Evropské komise,
Após transmissão do projeto de ato legislativo aos parlamentos nacionais,
po postoupení návrhu legislativního aktu vnitrostátním parlamentům,
Tendo em conta o parecer do Comité Económico e Social Europeu (1),
s ohledem na stanovisko Evropského hospodářského a sociálního výboru (1),
Tendo em conta o parecer do Banco Central Europeu (2),
s ohledem na stanovisko Evropské centrální banky (2),
Tendo em conta o parecer do Comité das Regiões (3),
s ohledem na stanovisko Výboru regionů (3),
Deliberando de acordo com o processo legislativo ordinário (4),
v souladu s řádným legislativním postupem (4),
vzhledem k těmto důvodům:
(1)
O presente regulamento tem por objetivo a melhoria do funcionamento do mercado interno mediante a previsão de um regime jurídico uniforme, em particular para o desenvolvimento, a colocação no mercado, a colocação em serviço e a utilização de sistemas de inteligência artificial (sistemas de IA) na União, em conformidade com os valores da União, a fim de promover a adoção de uma inteligência artificial (IA) centrada no ser humano e de confiança, assegurando simultaneamente um elevado nível de proteção da saúde, da segurança, dos direitos fundamentais consagrados na Carta dos Direitos Fundamentais da União Europeia («Carta»), nomeadamente a democracia, o Estado de direito e a proteção do ambiente, a proteção contra os efeitos nocivos dos sistemas de IA na União, e de apoiar a inovação. O presente regulamento assegura a livre circulação transfronteiriça de produtos e serviços baseados em IA, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de IA, salvo se explicitamente autorizado pelo presente regulamento.
(1)
Účelem tohoto nařízení je zlepšit fungování vnitřního trhu stanovením jednotného právního rámce, zejména pro vývoj, uvádění na trh, uvádění do provozu a používání systémů umělé inteligence (dále jen „systémy AI“) v Unii v souladu s hodnotami Unie, podporovat zavádění důvěryhodné umělé inteligence (dále jen „AI“) zaměřené na člověka a zároveň zajistit vysokou úroveň ochrany zdraví, bezpečnosti a základních práv zakotvených v Listině základních práv Evropské unie (dále jen „Listina“), včetně demokracie, právního státu a ochrany životního prostředí, chránit před škodlivými účinky systémů AI v Unii, jakož i podporovat inovace. Toto nařízení zajišťuje volný přeshraniční pohyb zboží a služeb založených na AI, čímž brání členským státům ukládat omezení vývoje, uvádění na trh a používání systémů AI, pokud to není tímto nařízením výslovně povoleno.
(2)
O presente regulamento deverá ser aplicado em conformidade com os valores da União consagrados na Carta, facilitando a proteção das pessoas singulares, das empresas, da democracia, do Estado de direito e proteção ambiental, promovendo simultaneamente a inovação e o emprego e colocando a União na liderança em matéria de adoção de uma IA de confiança.
(2)
Toto nařízení by mělo být uplatňováno v souladu s hodnotami Unie zakotvenými v Listině, usnadňovat ochranu fyzických osob, podniků, demokracie, právního státu a životního prostředí a zároveň podporovat inovace a zaměstnanost a zajistit Unii vedoucí postavení při zavádění důvěryhodné AI.
(3)
Os sistemas de IA podem ser facilmente implantados numa grande variedade de setores da economia e em muitos quadrantes da sociedade, inclusive além fronteiras, e podem circular facilmente por toda a União. Certos Estados-Membros já ponderaram a adoção de regras nacionais para assegurar que a IA seja de confiança e segura e seja desenvolvida e utilizada em conformidade com as obrigações em matéria de direitos fundamentais. As diferenças entre regras nacionais podem conduzir à fragmentação do mercado interno e reduzir a segurança jurídica para os operadores que desenvolvem, importam ou utilizam sistemas de IA. Como tal, é necessário assegurar um nível de proteção elevado e coerente em toda a União, com vista a alcançar uma IA de confiança, e evitar divergências que prejudiquem a livre circulação, a inovação, a implantação e a adoção dos sistemas de IA e dos produtos e serviços conexos no mercado interno, mediante o estabelecimento de obrigações uniformes para os operadores e a garantia da proteção uniforme das razões imperativas de reconhecido interesse público e dos direitos das pessoas em todo o mercado interno, com base no artigo 114.o do Tratado sobre o Funcionamento da União Europeia (TFUE). Visto que o presente regulamento contém regras específicas aplicáveis à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais, nomeadamente restrições à utilização de sistemas de IA para a identificação biométrica à distância para efeitos de aplicação da lei, à utilização de sistemas de IA para a avaliação de risco em relação a pessoas singulares para efeitos de aplicação da lei e à utilização de sistemas de IA para categorização biométrica para efeitos de aplicação da lei, é apropriado basear este regulamento no artigo 16.o do TFUE, no respeitante a essas regras específicas. Face a essas regras específicas e ao recurso ao artigo 16.o do TFUE, é apropriado consultar o Comité Europeu para a Proteção de Dados.
(3)
Systémy AI mohou být snadno zaváděny v celé řadě hospodářských odvětví a složek společnosti, a to i napříč hranicemi, a mohou být snadno v oběhu v celé Unii. Některé členské státy již zkoumají možnost přijetí vnitrostátních pravidel, která by zajišťovala, že AI bude důvěryhodná a bezpečná a že bude vyvíjena a používána v souladu s povinnostmi v oblasti základních práv. Rozdílné vnitrostátní předpisy mohou vést k roztříštěnosti vnitřního trhu a mohou snížit právní jistotu pro provozovatele, kteří systémy AI vyvíjejí, dovážejí nebo používají. Proto je třeba zajistit jednotnou a vysokou úroveň ochrany v celé Unii s cílem dosáhnout důvěryhodnosti AI a zároveň zabránit rozdílům, které jsou překážkou volného oběhu, inovací, zavádění a využívání systémů AI a souvisejících produktů a služeb na vnitřním trhu, a stanovit za tímto účelem jednotné povinnosti provozovatelů a zaručit jednotnou ochranu naléhavých důvodů obecného zájmu a práv osob na celém vnitřním trhu na základě článku 114 Smlouvy o fungování Evropské unie (dále jen „Smlouva o fungování EU“). V rozsahu, v němž toto nařízení obsahuje zvláštní pravidla ochrany fyzických osob v souvislosti se zpracováním osobních údajů, která se týkají omezení, pokud jde o používání systémů AI pro biometrickou identifikaci na dálku pro účely vymáhání práva, používání systémů AI k posouzení rizik fyzických osob pro účely vymáhání práva a používání systémů AI pro biometrickou kategorizaci pro účely vymáhání práva, je vhodné, aby se toto nařízení ve vztahu k těmto zvláštním pravidlům zakládalo na článku 16 Smlouvy o fungování EU. S ohledem na tato zvláštní pravidla a na použití článku 16 Smlouvy o fungování EU je vhodné provést konzultace s Evropským sborem pro ochranu osobních údajů.
(4)
A IA é uma família de tecnologias em rápida evolução que contribui para um vasto conjunto de benefícios económicos, ambientais e sociais em todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da IA pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, nos cuidados de saúde, na agricultura, na segurança alimentar, na educação e na formação, nos meios de comunicação social, no desporto, na cultura, na gestão das infraestruturas, na energia, nos transportes e na logística, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos, na monitorização ambiental, na preservação e recuperação da biodiversidade e dos ecossistemas e na atenuação das alterações climáticas e adaptação às mesmas.
(4)
AI je rychle se vyvíjející skupina technologií, které se podílejí na široké škále hospodářských, environmentálních a společenských přínosů v celém spektru průmyslových odvětví a sociálních aktivit. Díky zlepšení predikcí, optimalizaci provozu, přidělování zdrojů a personalizaci digitálních řešení dostupných pro jednotlivce a organizace může používání AI poskytnout podnikům klíčové konkurenční výhody a podpořit sociálně a environmentálně prospěšné výsledky, například v oblasti zdravotnictví, zemědělství, bezpečnosti potravin, vzdělávání a odborné přípravy, sdělovacích prostředků, sportu, kultury, správy infrastruktury, energetiky, dopravy a logistiky, veřejných služeb, bezpečnosti, spravedlnosti, účinného využívání zdrojů a energetické účinnosti, monitorování životního prostředí, ochrany a obnovy biologické rozmanitosti a ekosystémů a zmírňování změny klimatu a přizpůsobování se této změně.
(5)
Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação, utilização e nível de evolução tecnológica específicos, a IA pode criar riscos e prejudicar interesses públicos e direitos fundamentais protegidos pela legislação da União. Esses prejuízos podem ser materiais ou imateriais, incluindo danos físicos, psicológicos, sociais ou económicos.
(5)
AI může zároveň v závislosti na okolnostech týkajících se jejího konkrétního uplatňování, používání a úrovně technologického rozvoje vytvářet rizika a působit újmu veřejným zájmům a základním právům, které jsou chráněny právem Unie. Tato újma může být hmotná nebo nehmotná, včetně újmy fyzické, psychické, společenské nebo ekonomické.
(6)
Tendo em conta o grande impacto que a IA pode ter na sociedade e a necessidade de criar confiança, é fundamental que a IA e o respetivo regime regulamentar sejam desenvolvidos em conformidade com os valores da União consagrados no artigo 2.o do Tratado da União Europeia (TUE), com os direitos e liberdades fundamentais consagrados nos Tratados e, nos termos do artigo 6.o do TUE, com a Carta. Como condição prévia, a IA deverá ser uma tecnologia centrada no ser humano. Deverá servir de instrumento para as pessoas, com o objetivo último de aumentar o bem-estar humano.
(6)
Vzhledem k velkému dopadu, který může mít AI na společnost, a jelikož je třeba budovat důvěru, je nezbytné, aby AI i její regulační rámec byly rozvíjeny v souladu s hodnotami Unie zakotvenými v článku 2 Smlouvy o Evropské unii (dále jen „Smlouva o EU“), základními právy a svobodami zakotvenými ve Smlouvách a v souladu s článkem 6 Smlouvy o EU v Listině. Základním předpokladem je, aby byla AI technologií zaměřenou na člověka. Měla by být nástrojem pro lidi, jehož konečným cílem je zvýšit kvalitu života lidí.
(7)
A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança e dos direitos fundamentais, deverão ser estabelecidas regras comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas deverão ser coerentes com a Carta, não discriminatórias e estar em consonância com os compromissos comerciais internacionais da União. Deverão também ter em conta a Declaração Europeia sobre os Direitos e Princípios Digitais para a Década Digital e as Orientações Éticas para uma IA de Confiança do Grupo de Peritos de Alto Nível em IA (AI HLEG, do inglês High-Level Expert Group on Artificial Intelligence).
(7)
V zájmu zajištění jednotné a vysoké úrovně ochrany veřejných zájmů, pokud jde o zdraví, bezpečnost a základní práva, by měla být pro vysoce rizikové systémy AI stanovena společná pravidla. Tato pravidla by měla být v souladu s Listinou, nediskriminační a v souladu se závazky Unie v oblasti mezinárodního obchodu. Měla by rovněž zohlednit evropské prohlášení o digitálních právech a zásadách pro digitální dekádu a Etické pokyny pro zajištění důvěryhodnosti UI vydané Expertní skupinou na vysoké úrovni pro umělou inteligenci (AI HLEG).
(8)
Como tal, é necessário adotar um regime jurídico da União que estabeleça regras harmonizadas em matéria de IA para promover o desenvolvimento, a utilização e a adoção da IA no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança e a defesa dos direitos fundamentais, incluindo a democracia, o Estado de direito e a proteção do ambiente, conforme reconhecido e protegido pelo direito da União. Para alcançar esse objetivo, torna-se necessário estabelecer regras que regulem a colocação no mercado, a colocação em serviço e a utilização de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Tais regras deverão ser claras e sólidas na defesa dos direitos fundamentais, apoiando novas soluções inovadoras e permitindo um ecossistema europeu de intervenientes públicos e privados que criem sistemas de IA em consonância com os valores da União e que explorem o potencial da transformação digital em todas as regiões da União. Ao estabelecer essas regras, bem como as medidas de apoio à inovação, com especial destaque para as pequenas e médias empresas (PME), incluindo as empresas em fase de arranque, o presente regulamento apoia o objetivo de promover a abordagem europeia da IA centrada no ser humano, assim como o de estar na vanguarda mundial do desenvolvimento de uma IA segura, ética e de confiança, conforme declarado pelo Conselho Europeu (5), e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu (6).
(8)
Je proto nezbytné zavést právní rámec Unie, kterým se stanoví harmonizovaná pravidla pro AI, s cílem podpořit vývoj, používání a zavádění AI na vnitřním trhu, který by zároveň splňoval vysokou úroveň ochrany veřejných zájmů, jako je například zdraví a bezpečnost a ochrana základních práv, včetně demokracie, právního státu a ochrany životního prostředí, která jsou uznávána a chráněna právem Unie. K dosažení tohoto cíle by měla být stanovena pravidla, která budou regulovat uvádění určitých systémů AI na trh a do provozu, jakož i jejich používání, a tím zajišťovat bezproblémové fungování vnitřního trhu a umožňovat, aby tyto systémy měly prospěch ze zásady volného pohybu zboží a služeb. Uvedená pravidla by měla být jasná a spolehlivá, pokud jde o ochranu základních práv, měla by podporovat nová inovativní řešení a umožňovat evropský ekosystém veřejných a soukromých subjektů vytvářejících systémy AI v souladu s hodnotami Unie, jakož i využívat potenciál digitální transformace ve všech regionech Unie. Stanovením těchto pravidel, jakož i opatření na podporu inovací se zvláštním zaměřením na malé a střední podniky, včetně podniků začínajících, podporuje toto nařízení cíl, kterým je prosazování evropského přístupu k AI zaměřeného na člověka a čelná pozice Unie v celosvětovém kontextu, pokud jde o rozvoj bezpečné, důvěryhodné a etické AI, jak stanovila Evropská rada (5), a zajišťuje ochranu etických zásad, jak výslovně požadoval Evropský parlament (6).
(9)
Deverão ser previstas regras harmonizadas aplicáveis à colocação no mercado, à colocação em serviço e à utilização de sistemas de IA de risco elevado coerentes com o Regulamento (CE) n.o 765/2008 do Parlamento Europeu e do Conselho (7), a Decisão n.o 768/2008/CE do Parlamento Europeu e do Conselho (8) e o Regulamento (UE) 2019/1020 do Parlamento Europeu e do Conselho (9) (novo regime jurídico). As regras harmonizadas estabelecidas no presente regulamento deverão aplicar-se em todos os setores e, em consonância com a abordagem do novo regime jurídico, não deverão prejudicar a legislação da União em vigor, nomeadamente em matéria de proteção de dados, defesa dos consumidores, direitos fundamentais, emprego, proteção dos trabalhadores e segurança dos produtos, que o presente regulamento vem complementar. Consequentemente, permanecem inalterados e plenamente aplicáveis todos os direitos e vias de recurso concedidos nessa legislação da União aos consumidores e a outras pessoas em relação às quais os sistemas de IA possam ter um impacto negativo, nomeadamente no que diz respeito à indemnização por eventuais danos nos termos da Diretiva 85/374/CEE do Conselho (10). Além disso, no contexto do emprego e da proteção dos trabalhadores, o presente regulamento não deverá, por conseguinte, afetar o direito da União em matéria de política social nem a legislação laboral nacional, que seja conforme com o direito da União, no que diz respeito ao emprego e às condições de trabalho, incluindo a saúde e a segurança no trabalho e a relação entre empregadores e trabalhadores. O presente regulamento também não deverá prejudicar o exercício dos direitos fundamentais reconhecidos pelos Estados-Membros e a nível da União, incluindo o direito ou a liberdade de fazer greve ou a liberdade de realizar outras ações abrangidas pelos sistemas específicos de relações laborais dos Estados-Membros, os direitos de negociação, de celebração e execução de convenções coletivas, ou de realização de ações coletivas de acordo com o direito nacional. O presente regulamento não deverá afetar as disposições destinadas a melhorar as condições de trabalho nas plataformas digitais estabelecidas numa Diretiva do Parlamento Europeu e do Conselho relativa à melhoria das condições de trabalho nas plataformas digitais. Além disso, presente regulamento visa ainda reforçar a eficácia desses direitos e vias de recurso existentes, estabelecendo requisitos e obrigações específicos, nomeadamente no que diz respeito à transparência, à documentação técnica e à manutenção de registos dos sistemas de IA. Além disso, as obrigações impostas aos vários operadores envolvidos na cadeia de valor da IA nos termos do presente regulamento deverão aplicar-se sem prejuízo da legislação nacional, que seja conforme com o direito da União, com o efeito de limitar a utilização de determinados sistemas de IA sempre que essa legislação não seja abrangida pelo âmbito de aplicação do presente regulamento ou prossiga objetivos legítimos de interesse público que não os prosseguidos pelo presente regulamento. Por exemplo, a legislação laboral nacional e a legislação em matéria de proteção de menores, nomeadamente pessoas com menos de 18 anos, tendo em conta o Comentário Geral n.o 25 (2021) das Nações Unidas sobre os direitos das crianças em ambiente digital, na medida em que não sejam específicos dos sistemas de IA e prossigam outros objetivos legítimos de interesse público, não deverão ser afetados pelo presente regulamento.
(9)
Harmonizační pravidla Unie použitelná pro uvádění na trh, uvádění do provozu a používání vysoce rizikových systémů AI by měla být stanovena v souladu s nařízením Evropského parlamentu a Rady (ES) č. 765/2008 (7), rozhodnutím Evropského parlamentu a Rady č. 768/2008/ES (8) a nařízením Evropského parlamentu a Rady (EU) 2019/1020 (9) („nový legislativní rámec pro uvádění výrobků na trh“). Harmonizovaná pravidla stanovená v tomto nařízení by se měla vztahovat na všechna odvětví a v souladu s přístupem nového legislativního rámce by jimi nemělo být dotčeno stávající právo Unie, zejména v oblasti ochrany údajů, ochrany spotřebitele, základních práv, zaměstnanosti, ochrany pracovníků a bezpečnosti výrobků, které toto nařízení doplňuje. V důsledku toho zůstávají všechna práva a ochrana, které toto právo Unie stanoví pro spotřebitele a další osoby, na něž mohou mít systémy AI nepříznivý dopad, a to i pokud jde o náhradu možné škody podle směrnice Rady 85/374/EHS (10), nadále nedotčeny a plně použitelné. Kromě toho by tudíž v souvislosti se zaměstnaností a ochranou pracovníků nemělo být tímto nařízením dotčeno právo Unie v oblasti sociální politiky a vnitrostátní pracovní právo, a to v souladu s právem Unie, pokud jde o podmínky zaměstnávání a pracovní podmínky, včetně bezpečnosti a ochrany zdraví při práci a vztahu mezi zaměstnavateli a pracovníky. Tímto nařízením by rovněž neměl být dotčen výkon základních práv uznávaných členskými státy a na úrovni Unie, včetně práva na stávku nebo práva přijmout jiná opatření na základě zvláštních systémů členských států v oblasti pracovněprávních vztahů, jakož i právo sjednávat, uzavírat a vymáhat kolektivní smlouvy nebo vést kolektivní akce v souladu s vnitrostátním právem. Tímto nařízením by neměla být dotčena ustanovení, jejichž účelem je zlepšit pracovní podmínky při práci prostřednictvím platforem, stanovená ve směrnici Evropského parlamentu a Rady o zlepšení pracovních podmínek při práci prostřednictvím platforem. Kromě toho je cílem tohoto nařízení posílit účinnost těchto stávajících práv a ochrany, že stanoví zvláštní požadavky a povinnosti, mimo jiné pokud jde o transparentnost, technickou dokumentaci a vedení záznamů o systémech AI. Povinnosti uložené různým provozovatelům zapojeným do hodnotového řetězce AI podle tohoto nařízení by se navíc měly uplatňovat, aniž by bylo dotčeno vnitrostátní právo v souladu s právem Unie, jehož účinkem je omezení používání určitých systémů AI, pokud toto právo nespadá do oblasti působnosti tohoto nařízení nebo sleduje jiné legitimní cíle veřejného zájmu než ty, které sleduje toto nařízení. Tímto nařízením by například neměly být dotčeny vnitrostátní pracovní právo a právní předpisy na ochranu nezletilých osob, tedy osob mladších 18 let, s ohledem na obecnou připomínku UNCRC č. 25 (2021) o právech dětí v souvislosti s digitálním prostředím, pokud se netýkají konkrétně systémů AI a sledují jiné legitimní cíle veřejného zájmu.
(10)
O direito fundamental à proteção de dados pessoais está salvaguardado em especial pelos Regulamentos (UE) 2016/679 (11) e (UE) 2018/1725 (12) do Parlamento Europeu e do Conselho e pela Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho (13). Além disso, a Diretiva 2002/58/CE do Parlamento Europeu e do Conselho (14) protege a vida privada e a confidencialidade das comunicações, nomeadamente através de condições colocadas ao armazenamento de dados pessoais e não pessoais em equipamentos terminais e a qualquer acesso a partir dos mesmos. Esses atos jurídicos da União constituem a base para um tratamento de dados sustentável e responsável, nomeadamente quando os conjuntos de dados incluem uma combinação de dados pessoais e não pessoais. O presente regulamento não visa afetar a aplicação do direito da União já em vigor que rege o tratamento de dados pessoais, incluindo as funções e as competências das autoridades de supervisão independentes responsáveis pelo controlo do cumprimento desses instrumentos. Da mesma forma, não afeta as obrigações dos prestadores nem dos responsáveis pela implantação de sistemas de IA, enquanto responsáveis pelo tratamento de dados ou subcontratantes, decorrentes do direito da União ou do direito nacional em matéria de proteção de dados pessoais, na medida em que a conceção, o desenvolvimento ou a utilização de sistemas de IA envolva o tratamento de dados pessoais. É igualmente conveniente clarificar que os titulares de dados continuam a usufruir de todos os direitos e garantias que lhes são conferidos por esse direito da União, incluindo os direitos relacionados com as decisões individuais exclusivamente automatizadas, nomeadamente a definição de perfis. As regras harmonizadas para a colocação no mercado, a colocação em serviço e a utilização de sistemas de IA estabelecidas no presente regulamento deverão facilitar a aplicação efetiva e permitir o exercício dos direitos dos titulares de dados e de outras vias de recurso garantidas pelo direito da União em matéria de proteção de dados pessoais e de outros direitos fundamentais.
(10)
Základní právo na ochranu osobních údajů je chráněno zejména nařízeními Evropského parlamentu a Rady (EU) 2016/679 (11) a (EU) 2018/1725 (12) a směrnicí Evropského parlamentu a Rady (EU) 2016/680 (13). Směrnice Evropského parlamentu a Rady 2002/58/ES (14) navíc chrání soukromý život a důvěrný charakter sdělení, mimo jiné stanovením podmínek pro uchovávání jakýchkoli osobních a neosobních údajů v koncových zařízeních a přístup k těmto údajům z takových zařízení. Uvedené právní akty Unie poskytují základ pro udržitelné a odpovědné zpracování údajů, včetně případů, kdy datové soubory zahrnují kombinaci osobních a neosobních údajů. Tímto nařízením není dotčeno uplatňování stávajícího práva Unie upravujícího zpracování osobních údajů, včetně úkolů a pravomocí nezávislých dozorových orgánů příslušných pro sledování dodržování těchto nástrojů. Tímto nařízením nejsou dotčeny povinnosti poskytovatelů systémů AI a zavádějících subjektů v jejich úloze správců nebo zpracovatelů údajů vyplývající z práva Unie nebo vnitrostátního práva o ochraně osobních údajů, pokud návrh, vývoj nebo používání systémů AI zahrnuje zpracování osobních údajů. Je rovněž vhodné vyjasnit, že subjekty údajů nadále požívají všech práv a záruk, které jim tyto právní předpisy Unie přiznávají, včetně práv souvisejících s výhradně automatizovaným individuálním rozhodováním, včetně profilování. Harmonizovaná pravidla pro uvádění na trh, uvádění do provozu a používání systémů AI stanovená v rámci tohoto nařízení by měla usnadnit účinné provádění a umožnit výkon práv subjektů údajů a dalších prostředků ochrany zaručených právními předpisy Unie v oblasti ochrany osobních údajů a dalších základních práv.
(11)
O presente regulamento não prejudica as disposições em matéria de responsabilidade dos prestadores de serviços intermediários conforme prevista no Regulamento (UE) 2022/2065 do Parlamento Europeu e do Conselho (15).
(11)
Tímto nařízením by neměla být dotčena ustanovení týkající se odpovědnosti poskytovatelů zprostředkovatelských služeb stanovená v nařízení Evropského parlamentu a Rady (EU) 2022/2065 (15).
(12)
O conceito de «sistema de IA» constante do presente regulamento deverá ser definido de forma inequívoca e estar estreitamente alinhado com o trabalho das organizações internacionais ativas no domínio da IA, a fim de assegurar a segurança jurídica, facilitar a convergência internacional e a ampla aceitação, concedendo em simultâneo a flexibilidade suficiente para se adaptar a rápidas evoluções tecnológicas neste domínio. Além disso, a definição deverá basear-se nas principais características dos sistemas de IA que o distinguem de sistemas de software ou abordagens de programação tradicionais mais simples e não deverá abranger sistemas baseados nas regras definidas exclusivamente por pessoas singulares para executarem operações automaticamente. Uma característica principal dos sistemas de IA é a sua capacidade de fazer inferências. Esta capacidade de fazer inferências refere-se ao processo de obtenção dos resultados, tais como previsões, conteúdos, recomendações ou decisões, que possam influenciar ambientes físicos e virtuais, e à capacidade dos sistemas de IA para obter modelos ou algoritmos, ou ambos, a partir de entradas ou dados. As técnicas que permitem fazer inferências durante a construção de um sistema de IA incluem abordagens de aprendizagem automática que aprendem com os dados a forma de alcançarem determinados objetivos, e abordagens baseadas na lógica e no conhecimento que fazem inferências a partir do conhecimento codificado ou da representação simbólica da tarefa a resolver. A capacidade de um sistema de IA fazer inferências vai além do tratamento básico de dados, permitindo a aprendizagem, o raciocínio ou a modelização. O termo «baseado em máquinas» refere-se ao facto de os sistemas de IA funcionarem em máquinas. A referência a objetivos explícitos ou implícitos visa sublinhar que os sistemas de IA podem funcionar de acordo com objetivos explícitos definidos ou com objetivos implícitos. Os objetivos do sistema de IA podem ser diferentes da finalidade prevista para o sistema de IA num contexto específico. Para efeitos do presente regulamento, deverá entender-se por «ambientes» os contextos em que os sistemas de IA operam, ao passo que os resultados gerados pelo sistema de IA refletem diferentes funções desempenhadas pelos sistemas de IA e incluem previsões, conteúdos, recomendações ou decisões. Os sistemas de IA são concebidos para operar com diferentes níveis de autonomia, o que significa que têm um certo grau de independência das ações efetuadas por intervenção humana e de capacidade para funcionarem sem intervenção humana. A capacidade de adaptação que um sistema de IA poderá apresentar após a implantação refere-se a capacidades de autoaprendizagem, permitindo que o sistema mude enquanto estiver a ser utilizado. Os sistemas de IA podem ser utilizados autonomamente ou como componentes de um produto, independentemente de o sistema estar fisicamente incorporado no produto (integrado) ou servir a funcionalidade do produto sem estar incorporado nele (não integrado).
(12)
Pojem „systém AI“ v tomto nařízení by měl být jasně definován a úzce sladěn s činností mezinárodních organizací zabývajících se AI, aby byla zajištěna právní jistota, aby bylo usnadněno sbližování pravidel na mezinárodní úrovni a široké přijetí a současně aby byla poskytnuta flexibilita umožňující přizpůsobit se rychlému technologickému vývoji v této oblasti. Tato definice by kromě toho měla být založena na klíčových vlastnostech systémů AI, které je odlišují od jednodušších tradičních softwarových systémů nebo programovacích přístupů, a neměla by se vztahovat na systémy, které jsou založeny na pravidlech vymezených výhradně fyzickými osobami k automatickému provádění operací. Jednou z klíčových vlastností systémů AI je jejich schopnost odvozování. Schopností odvozování se rozumí proces získávání výstupů, jako jsou predikce, obsah, doporučení nebo rozhodnutí, které mohou ovlivnit fyzické a virtuální prostředí, a schopnost systémů AI derivovat modely nebo algoritmy, nebo oboje, ze vstupů nebo dat. Mezi techniky, které umožňují odvozování při současném budování systému AI, patří přístupy strojového učení, které se učí z dat, jak dosáhnout určitých cílů, a přístupy založené na logice a poznatcích, které ze zakódovaných poznatků nebo symbolického znázornění odvozují úkol, který má být vyřešen. Schopnost odvozování systému AI přesahuje rámec základního zpracování údajů tím, že umožňuje učení, uvažování nebo modelování. Pojem „strojové“ odkazuje na skutečnost, že systémy AI fungují prostřednictvím strojů. Odkaz na explicitní nebo implicitní cíle zdůrazňuje, že systémy AI mohou fungovat na základě explicitně definovaných cílů nebo cílů implicitních. Cíle systému AI se mohou v konkrétním kontextu lišit od zamýšleného účelu systému AI. Pro účely tohoto nařízení by se prostředím měl rozumět kontext, v němž systémy AI fungují, zatímco výstupy generované systémem AI odrážejí různé funkce vykonávané systémy AI a zahrnují predikci, obsah, doporučení nebo rozhodnutí. Systémy AI jsou navrženy tak, aby fungovaly s různou úrovní samostatnosti, což znamená, že jejich činnost je alespoň do určité míry nezávislá na zapojení člověka a jsou při ní schopny alespoň do určité míry fungovat bez lidského zásahu. Přizpůsobivostí, kterou by systém AI mohl vykazovat po zavedení, se rozumí schopnost samoučení, která umožňuje, aby se systém během používání měnil. Systémy AI lze používat samostatně nebo jako komponent určitého produktu bez ohledu na to, zda je systém do tohoto produktu fyzicky zabudován (vestavěný systém), nebo zda napomáhá funkčnosti tohoto produktu, aniž by do něho byl zabudován (nevestavěný systém).
(13)
O conceito de «responsável pela implantação» a que se refere o presente regulamento deverá ser interpretado como qualquer pessoa singular ou coletiva, incluindo uma autoridade pública, agência ou outro organismo, que utilize um sistema de IA sob a sua autoridade, salvo se o sistema de IA for utilizado no âmbito da sua atividade pessoal não profissional. Dependendo do tipo de sistema de IA, a utilização do sistema pode afetar outras pessoas além do responsável pela implantação.
(13)
Pojem „zavádějící subjekt“ uvedený v tomto nařízení by měl být vykládán jako jakákoli fyzická nebo právnická osoba, včetně veřejného orgánu, agentury nebo jiného subjektu, která v rámci své pravomoci používá systém AI, s výjimkou případů, kdy je tento systém AI používán při osobní neprofesionální činnosti. V závislosti na typu systému AI může používání systému ovlivňovat jiné osoby než zavádějící subjekt.
(14)
O conceito de «dados biométricos» utilizado no presente regulamento deverá ser interpretado à luz do conceito de dados biométricos na aceção do artigo 4.o, ponto 14, do Regulamento (UE) 2016/679, do artigo 3.o, ponto 18, do Regulamento (UE) 2018/1725 e do artigo 3.o, ponto 13, da Diretiva (UE) 2016/680. Os dados biométricos podem permitir a autenticação, identificação ou categorização de pessoas singulares e o reconhecimento de emoções de pessoas singulares.
(14)
Pojem „biometrické údaje“ používaný v tomto nařízení by měl být vykládán s ohledem na pojem „biometrické údaje“ vymezený v čl. 4 bodu 14 nařízení (EU) 2016/679, čl. 3 bodu 18 nařízení (EU) 2018/1725 a čl. 3 bodu 13 směrnice (EU) 2016/680. Biometrické údaje mohou umožnit autentizaci, identifikaci či kategorizaci fyzických osob a rozpoznávání jejich emocí.
(15)
O conceito de «identificação biométrica» a que se refere o presente regulamento deverá ser definido como o reconhecimento automatizado de características humanas físicas, fisiológicas e comportamentais, tais como o rosto, o movimento dos olhos, a forma do corpo, a voz, a pronúncia, a marcha, a postura, a frequência cardíaca, a pressão arterial, o odor, as características da digitação, com o objetivo de verificar a identidade de uma pessoa comparando os dados biométricos dessa pessoa com dados biométricos de pessoas armazenados numa base de dados de referência, independentemente de a pessoa ter ou não dado consentimento prévio. Estão excluídos os sistemas de IA concebidos para serem utilizados na verificação biométrica, que inclui a autenticação, cujo único objetivo seja confirmar que uma pessoa singular específica é quem afirma ser, e confirmar a identidade de uma pessoa singular com o único objetivo de ter acesso a um serviço, desbloquear um dispositivo ou ter acesso de segurança a um local.
(15)
Pojem „biometrická identifikace“ uvedený v tomto nařízení by měl být vymezen jako automatizované rozpoznání fyzických, fyziologických a behaviorálních lidských rysů, jako jsou obličej, pohyb očí, tvar těla, hlas, řeč, chůze, držení těla, srdeční frekvence, krevní tlak, zápach, stisk kláves, pro účely zjištění totožnosti jednotlivce porovnáním biometrických údajů dané osoby s uloženými biometrickými údaji jednotlivců v referenční databázi, a to bez ohledu na to, zda daný jedinec poskytl svůj souhlas, či nikoli. To nezahrnuje systémy AI určené k biometrickému ověřování, včetně autentizace, jejichž jediným účelem je potvrdit, zda je konkrétní fyzická osoba osobou, za niž se prohlašuje, a potvrdit totožnost fyzické osoby za jediným účelem, kterým je získání přístupu ke službě, odblokování zařízení nebo získání bezpečnostního přístupu k prostorám.
(16)
O conceito de «sistema de categorização biométrica» a que se refere o presente regulamento deverá ser definido como a atribuição de pessoas singulares a categorias específicas com base nos seus dados biométricos. Essas categorias específicas podem dizer respeito a aspetos como sexo, idade, cor do cabelo, cor dos olhos, tatuagens, traços comportamentais ou de personalidade, língua, religião, pertença a uma minoria nacional, orientação sexual ou política. Tal não inclui os sistemas de categorização biométrica que sejam um elemento meramente acessório intrinsecamente ligado a outro serviço comercial, o que significa que o elemento não pode, por razões técnicas objetivas, ser utilizado sem o serviço principal e a integração desse elemento ou funcionalidade não constitui um meio para contornar a aplicabilidade das regras do presente regulamento. Por exemplo, os filtros que categorizam as características faciais ou corporais utilizadas nos mercados em linha poderão constituir um desses elementos acessórios, uma vez que só podem ser utilizados associados ao serviço principal que consiste em vender um produto, ao darem ao consumidor a possibilidade de se pré-visualizar a usar o produto e ajudando-o a tomar uma decisão de compra. Os filtros utilizados nos serviços de redes sociais em linha que categorizam características faciais ou corporais para permitir que os utilizadores acrescentem ou alterem imagens ou vídeos também poderão ser considerados elementos acessórios, uma vez que esses filtros não podem ser utilizados sem o serviço principal dos serviços da rede social, que consiste na partilha de conteúdos em linha.
(16)
Pojmem „biometrická kategorizace“ uvedeným v tomto nařízení by se mělo rozumět zařazení fyzických osob do zvláštních kategorií na základě jejich biometrických údajů. Tyto zvláštní kategorie se mohou týkat aspektů, jako je pohlaví, věk, barva vlasů, barva očí, tetování, behaviorální nebo osobnostní rysy, jazyk, náboženské vyznání, příslušnost k národnostní menšině, sexuální nebo politická orientace. To nezahrnuje systémy biometrické kategorizace, které jsou čistě vedlejším prvkem neoddělitelně spjatým s jinou obchodní službou, což znamená, že tento prvek nelze z objektivních technických důvodů použít bez hlavní služby a začlenění tohoto prvku nebo funkce není prostředkem k obcházení použitelnosti pravidel stanovených v tomto nařízení. Takovým vedlejším prvkem by mohly být například filtry kategorizující rysy obličeje nebo těla používané na on-line tržištích, neboť je lze použít pouze ve vztahu k hlavní službě, která spočívá v prodeji výrobku, přičemž spotřebiteli umožní zobrazit si náhled na výrobek na sobě samém a pomůže mu rozhodnout se o nákupu. Filtry používané v rámci služeb online sociálních sítí, které kategorizují rysy obličeje nebo těla tak, aby uživatelé mohli doplňovat nebo upravovat obrázky nebo videa, by rovněž mohly být považovány za vedlejší prvek, neboť takový filtr nelze použít bez hlavní služby sociální sítě spočívající ve sdílení obsahu online.
(17)
O conceito de «sistema de identificação biométrica à distância» a que se refere o presente regulamento deverá ser definido, de modo funcional, como um sistema de IA que se destina à identificação de pessoas singulares sem a sua participação ativa, normalmente à distância, por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência, independentemente da tecnologia, dos processos ou dos tipos de dados biométricos específicos utilizados. Tais sistemas de identificação biométrica à distância são geralmente utilizados para detetar várias pessoas ou o seu comportamento em simultâneo, a fim de facilitar significativamente a identificação de pessoas singulares sem a sua participação ativa. Estão excluídos os sistemas de IA concebidos para serem utilizados na verificação biométrica, que inclui a autenticação, cujo único objetivo seja confirmar que uma pessoa singular específica é quem afirma ser e confirmar a identidade de uma pessoa singular com o único objetivo de lhe conceder acesso a um serviço, desbloquear um dispositivo ou ter acesso de segurança a um local. Essa exclusão justifica-se pelo facto de esses sistemas serem suscetíveis de ter um impacto ligeiro nos direitos fundamentais das pessoas singulares em comparação com os sistemas de identificação biométrica à distância que podem ser utilizados para o tratamento de dados biométricos de um grande número de pessoas sem a sua participação ativa. No caso dos sistemas «em tempo real», a recolha dos dados biométricos, a comparação e a identificação ocorrem de forma instantânea, quase instantânea ou, em todo o caso, sem um desfasamento significativo. Não deverá haver, a este respeito, margem para contornar as regras do presente regulamento sobre a utilização «em tempo real» dos sistemas de IA em causa prevendo ligeiros desfasamentos no sistema. Os sistemas «em tempo real» implicam a utilização «ao vivo» ou «quase ao vivo» de materiais, como imagens vídeo, gerados por uma câmara ou outro dispositivo com uma funcionalidade semelhante. No caso dos sistemas «em diferido», ao invés, os dados biométricos já foram recolhidos e a comparação e a identificação ocorrem com um desfasamento significativo. Estes sistemas utilizam materiais, tais como imagens ou vídeos, gerados por câmaras de televisão em circuito fechado ou dispositivos privados antes de o sistema ser utilizado relativamente às pessoas singulares em causa.
(17)
Pojem „systém biometrické identifikace na dálku“ uvedený v tomto nařízení by měl být definován funkčně jako systém AI určený k identifikaci fyzických osob, a to obvykle na dálku, bez jejich aktivního zapojení prostřednictvím porovnání biometrických údajů dané osoby s biometrickými údaji obsaženými v referenční databázi, bez ohledu na konkrétní technologii, procesy nebo typy použitých biometrických údajů. Tyto systémy biometrické identifikace na dálku se obvykle používají ke snímání vícero osob nebo jejich chování současně, s cílem významně usnadnit identifikaci osob bez jejich aktivního zapojení. To nezahrnuje systémy AI určené k biometrickému ověřování, včetně autentizace, jejichž jediným účelem je potvrdit, zda je konkrétní fyzická osoba osobou, za niž se prohlašuje, a potvrdit totožnost fyzické osoby za jediným účelem, kterým je získání přístupu ke službě, odblokování zařízení nebo získání bezpečnostního přístupu k prostorám. Uvedené vyloučení je odůvodněno skutečností, že tyto systémy budou mít ve srovnání se systémy biometrické identifikace na dálku, které mohou být použity ke zpracování biometrických údajů velkého počtu osob bez jejich aktivního zapojení, pravděpodobně menší dopad na základní práva fyzických osob. V případě systémů provádějících identifikaci v reálném čase probíhá jak zaznamenání biometrických údajů, tak porovnání a identifikace okamžitě, téměř okamžitě nebo v každém případě bez významného zpoždění. V tomto ohledu by neměl existovat žádný prostor pro obcházení pravidel tohoto nařízení o používání dotčených systémů AI v reálném čase stanovením menších zpoždění. Systémy fungující v reálném čase zahrnují použití materiálu „živě“ nebo jen s malým časovým posunem, jako jsou například videozáznamy generované kamerou nebo jiným zařízením s podobnými funkcemi. Naproti tomu v případě systémů, ve kterých identifikace probíhá „následně,“ dochází k porovnání a identifikaci zachycených údajů až se značným zpožděním. Jedná se o materiály, jako jsou například fotografie nebo videozáznamy generované kamerami s uzavřeným televizním okruhem nebo soukromými zařízeními, které byly vytvořeny před použitím tohoto systému ve vztahu k dotčeným fyzickým osobám.
(18)
O conceito de «sistema de reconhecimento de emoções» a que se refere o presente regulamento deverá ser definido como um sistema de IA concebido para identificar ou inferir emoções ou intenções de pessoas singulares com base nos seus dados biométricos. O conceito refere-se a emoções ou intenções como a felicidade, a tristeza, a raiva, a surpresa, a repugnância, o embaraço, o entusiasmo, a vergonha, o desprezo, a satisfação e o divertimento. Não inclui estados físicos, como dor ou fadiga, incluindo, por exemplo, sistemas utilizados para detetar o estado de fadiga dos pilotos ou motoristas profissionais para efeitos de prevenção de acidentes. Também não inclui a mera deteção de expressões, gestos ou movimentos rapidamente visíveis, a menos que sejam utilizados para identificar ou inferir emoções. Essas expressões podem ser expressões faciais básicas, tais como franzir a testa ou sorrir, ou gestos como o movimento das mãos, dos braços ou da cabeça, ou características da voz de uma pessoa, como levantar a voz ou sussurrar.
(18)
Pojem „systém rozpoznávání emocí“ uvedený v tomto nařízení by měl být vymezen jako systém AI pro účely zjišťování nebo odvozování emocí nebo záměrů fyzických osob na základě jejich biometrických údajů. Tento pojem odkazuje na emoce nebo záměry, jako je štěstí, smutek, hněv, překvapení, znechucení, pocit trapnosti, rozrušení, stud, opovržení, spokojenost a pobavenost. Nezahrnuje fyzické stavy, jako je bolest nebo únava, včetně například systémů používaných při zjišťování stavu únavy profesionálních pilotů nebo řidičů za účelem předcházení nehodám. Nezahrnuje ani pouhé zjištění snadno viditelných výrazů, gest nebo pohybů, pokud neslouží k zjišťování nebo odvozování emocí. Uvedenými výrazy mohou být základní výrazy obličeje, jako je mračení se nebo úsměv, nebo gesta, jako je pohyb rukou, paží nebo hlavy, nebo charakteristiky hlasu daného člověka, jako je zvýšený hlas nebo šepot.
(19)
Para efeitos do presente regulamento, deverá entender-se por «espaço acessível ao público» qualquer espaço físico que seja acessível a um número indeterminado de pessoas singulares e independentemente de o espaço em questão ser detido por uma entidade privada ou pública, independentemente da atividade para a qual o espaço possa ser utilizado — por exemplo, para o comércio (por exemplo, lojas, restaurantes, cafés), para a prestação de serviços (por exemplo, bancos, atividades profissionais, hotelaria), para o desporto (por exemplo, piscinas, ginásios, estádios), para os transportes (designadamente estações de autocarros, metropolitanos e ferroviárias, aeroportos, meios de transporte), para o entretenimento (por exemplo, cinemas, teatros, museus, salas de concertos e salas de conferências), ou para o lazer ou outros (por exemplo, estradas, praças, parques, florestas ou parques infantis públicos). Um espaço também deverá ser classificado como acessível ao público se, independentemente das eventuais restrições de capacidade ou de segurança, o acesso estiver sujeito a certas condições predeterminadas, que podem ser preenchidas por um número indeterminado de pessoas, tais como a compra de um bilhete ou título de transporte, a inscrição prévia ou uma determinada idade. Em contrapartida, um espaço não deverá ser considerado acessível ao público se o acesso for limitado a pessoas singulares específicas e definidas, seja nos termos do direito da União ou do direito nacional diretamente relacionado com a segurança pública ou por manifestação clara da vontade da pessoa que exerça a autoridade pertinente no espaço. A possibilidade factual de acesso por si só, (como uma porta destrancada ou um portão aberto numa vedação) não implica que o espaço seja acessível ao público na presença de indicações ou circunstâncias que sugiram o contrário, como sinais que proíbam ou restrinjam o acesso. As instalações de empresas e fábricas, bem como os escritórios e os locais de trabalho a que se pretende que apenas os trabalhadores e prestadores de serviços pertinentes tenham acesso, são espaços que não são acessíveis ao público. Os espaços acessíveis ao público não deverão incluir prisões nem zonas de controlo fronteiriço. Alguns outros espaços são compostos tanto por espaços não acessíveis ao público como e por espaços acessíveis ao público, tais como um corredor de um edifício residencial privado necessário para aceder a um gabinete médico ou a um aeroporto. Os espaços em linha também não são abrangidos, uma vez que não são espaços físicos. Para determinar se um espaço é acessível ao público deverá recorrer-se a uma análise casuística, tendo em conta as especificidades da situação em apreço.
(19)
Pro účely tohoto nařízení by se pod pojmem „veřejně přístupný prostor“ měl rozumět jakýkoli fyzický prostor, který je přístupný neurčenému počtu fyzických osob, bez ohledu na to, zda je daný prostor v soukromém, nebo veřejném vlastnictví, bez ohledu na činnost, pro kterou může být prostor využíván, jako je obchodní činnost, například obchody, restaurace, kavárny; služby, například banky, profesní činnosti, pohostinství; sport, například plavecké bazény, tělocvičny, stadiony; doprava, například zastávky autobusu a metra a železniční nádraží, letiště, dopravní prostředky; zábava, například kina, divadla, muzea, koncertní a konferenční haly nebo volný čas či jiné, například veřejné komunikace a náměstí, parky, lesy, hřiště. Prostor by měl být klasifikován jako veřejně přístupný i v případě, že přístup podléhá bez ohledu na potenciální kapacitu nebo bezpečnostní omezení určitým předem stanoveným podmínkám, které mohou být splněny neurčeným počtem osob, jako je nákup jízdenky nebo přepravního dokladu, předchozí registrace nebo dosažení určitého věku. Prostor by naopak neměl být považován za veřejně přístupný, pokud je přístup omezen na konkrétní a vymezené fyzické osoby buď prostřednictvím práva Unie, nebo vnitrostátního práva přímo souvisejícího s veřejnou ochranou a bezpečností, nebo prostřednictvím jasného projevu vůle osobou, která má v daném prostoru příslušnou pravomoc. Samotná faktická možnost přístupu (jako jsou odemčené dveře nebo otevřená brána v plotu) neznamená, že prostor je veřejně přístupný, existují-li indikace nebo okolnosti naznačující opak, jako jsou značky zakazující nebo omezující přístup. Prostory společností a továren, jakož i kanceláře a pracoviště, do nichž mají mít přístup pouze příslušní zaměstnanci a poskytovatelé služeb, jsou prostory, které nejsou veřejně přístupné. Veřejně přístupné prostory by neměly zahrnovat věznice ani stanoviště hraniční kontroly. Některé další prostory mohou zahrnovat jak veřejně nepřístupné, tak veřejně přístupné prostory, jako je hala soukromé obytné budovy, která je nezbytná pro přístup do lékařské ordinace, anebo letiště. Tento pojem nezahrnuje ani on-line prostory, protože se nejedná o prostory fyzické. To, zda je daný prostor přístupný veřejnosti, by však mělo být určováno případ od případu s ohledem na zvláštnosti dané konkrétní situace.
(20)
A fim de obter os maiores benefícios dos sistemas de IA, protegendo simultaneamente os direitos fundamentais, a saúde e a segurança e permitir o controlo democrático, a literacia no domínio da IA deverá dotar os prestadores, os responsáveis pela implantação e as pessoas afetadas das noções necessárias para tomarem decisões informadas sobre os sistemas de IA. Essas noções podem variar em função do contexto pertinente e podem incluir a compreensão da correta aplicação dos elementos técnicos durante a fase de desenvolvimento do sistema de IA, as medidas a aplicar durante a sua utilização, as formas adequadas de interpretar o resultado do sistema de IA e, no caso das pessoas afetadas, os conhecimentos necessários para compreender de que forma as decisões tomadas com a assistência da IA as afetarão. No contexto da aplicação do presente regulamento, a literacia no domínio da IA deverá proporcionar a todos os intervenientes pertinentes da cadeia de valor da IA os conhecimentos necessários para assegurar o cumprimento adequado e a sua correta execução. Além disso, a ampla aplicação de medidas de literacia no domínio da IA e a introdução de medidas de acompanhamento adequadas poderão contribuir para melhorar as condições de trabalho e, em última análise, apoiar a consolidação e a trajetória da inovação de uma IA de confiança na União. O Comité Europeu para a Inteligência Artificial («Comité») deverá apoiar a Comissão na promoção de ferramentas de literacia no domínio da IA, da sensibilização do público e da compreensão das vantagens, riscos, garantias, direitos e obrigações relacionados com a utilização de sistemas de IA. Em cooperação com as partes interessadas pertinentes, a Comissão e os Estados-Membros deverão facilitar a elaboração de códigos de conduta voluntários para promover a literacia no domínio da IA entre as pessoas que lidam com o desenvolvimento, o funcionamento e a utilização da IA.
(20)
Aby bylo možné dosáhnout co největších přínosů systémů AI a zároveň chránit základní práva, zdraví a bezpečnost a umožnit demokratickou kontrolu, měli by poskytovatelé, zavádějící subjekty a dotčené osoby získat v tomto ohledu prostřednictvím gramotnosti v oblasti AI nezbytné povědomí, které jim umožní činit ohledně systémů AI informovaná rozhodnutí. Povědomí o těchto otázkách se může lišit s ohledem na příslušný kontext a může obnášet pochopení správného uplatňování technických prvků během fáze vývoje systému AI, opatření, která mají být uplatňována během jeho používání, vhodné způsoby výkladu výstupů systému AI a v případě dotčených osob poznatky nezbytné k pochopení toho, jak na ně budou mít rozhodnutí přijatá s pomocí AI dopad. V souvislosti s uplatňováním tohoto nařízení by prostřednictvím gramotnosti v oblasti AI měli mít všichni příslušní aktéři v hodnotovém řetězci AI poznatky potřebné k zajištění náležitého dodržování ustanovení tohoto nařízení a jeho řádného prosazování. Kromě toho by široké provádění opatření týkajících se gramotnosti v oblasti AI a zavedení vhodných následných opatření mohlo přispět ke zlepšení pracovních podmínek a v konečném důsledku podpořit konsolidaci a inovaci v oblasti důvěryhodné AI v Unii. Evropská rada pro umělou inteligenci (dále jen „rada“) by měla podpořit Komisi s cílem prosazovat nástroje gramotnosti v oblasti AI, informovanost veřejnosti a pochopení přínosů, rizik, záruk, práv a povinností, jež s používáním systémů AI souvisejí. Ve spolupráci s příslušnými zúčastněnými stranami by Komise a členské státy měly usnadnit vypracování dobrovolných kodexů chování pro zvýšení gramotnosti v oblasti AI, pokud jde o osoby, které se zabývají vývojem, provozem a používáním AI.
(21)
Para assegurar condições de concorrência equitativas e uma proteção eficaz dos direitos e das liberdades das pessoas em toda a União, as regras estabelecidas no presente regulamento deverão aplicar-se aos prestadores de sistemas de IA de uma forma não discriminatória, independentemente de estarem estabelecidos na União ou num país terceiro, e aos responsáveis pela implantação de sistemas de IA estabelecidos na União.
(21)
V zájmu zajištění rovných podmínek a účinné ochrany práv a svobod jednotlivců v celé Unii by se pravidla stanovená tímto nařízením měla vztahovat na poskytovatele systémů AI nediskriminačním způsobem bez ohledu na to, zda jsou usazeni v Unii, nebo ve třetí zemi, a na subjekty zavádějící systémy AI usazené v Unii.
(22)
Atendendo à sua natureza digital, determinados sistemas de IA deverão ser abrangidos pelo âmbito do presente regulamento, mesmo não sendo colocados no mercado, colocados em serviço nem utilizados na União. Tal aplica-se, por exemplo, quando um operador estabelecido na União contrata determinados serviços a um operador estabelecido num país terceiro relativamente a uma atividade a realizar por um sistema de IA que seja considerado de risco elevado. Nessas circunstâncias, o sistema de IA utilizado num país terceiro pelo operador poderá tratar dados recolhidos e transferidos licitamente da União e facultar ao operador contratante na União os resultados desse sistema de IA decorrentes do tratamento desses dados, sem que o sistema de IA em causa seja colocado no mercado, colocado em serviço ou utilizado na União. Para evitar que o presente regulamento seja contornado e para assegurar uma proteção eficaz das pessoas singulares localizadas na União, o presente regulamento deverá ser igualmente aplicável a prestadores e a responsáveis pela implantação de sistemas de IA que estejam estabelecidos num país terceiro, na medida em que esteja prevista a utilização na União dos resultados produzidos por esses sistemas. No entanto, para ter em conta os mecanismos existentes e as necessidades especiais da cooperação futura com os parceiros estrangeiros com quem são trocadas informações e dados, o presente regulamento não deverá ser aplicável às autoridades públicas de um país terceiro nem às organizações internacionais quando estas atuam no âmbito da cooperação ou de acordos internacionais celebrados a nível da União ou ao nível nacional para efeitos de cooperação policial e judiciária com a União ou os Estados-Membros, desde que o país terceiro ou organização internacional em causa apresente garantias adequadas em matéria de proteção dos direitos e liberdades fundamentais das pessoas. Se for caso disso, tal pode abranger as atividades das entidades às quais os países terceiros confiam a funções específicas de apoio a essa cooperação policial e judiciária. Tais regimes de cooperação ou acordos têm sido estabelecidos bilateralmente entre Estados-Membros e países terceiros, ou entre a União Europeia, a Europol e outras agências da União e países terceiros e organizações internacionais. As autoridades competentes para a supervisão das autoridades responsáveis pela aplicação da lei e judiciárias ao abrigo do presente regulamento deverão avaliar se esses regimes de cooperação ou acordos internacionais preveem garantias adequadas no que diz respeito à proteção dos direitos e liberdades fundamentais das pessoas. As autoridades nacionais destinatárias e as instituições, órgãos e organismos destinatários da União que utilizam esses resultados na União continuam a ser responsáveis por assegurar que a sua utilização é conforme com o direito da União. Se esses acordos internacionais forem revistos ou se forem celebrados novos acordos no futuro, as partes contratantes deverão envidar todos os esforços para alinhar esses acordos com os requisitos do presente regulamento.
(22)
Určité systémy AI by s ohledem na svou digitální povahu měly spadat do oblasti působnosti tohoto nařízení i tehdy, pokud nejsou uvedeny na trh nebo do provozu v Unii nebo pokud nejsou používány v Unii. Jedná se například o případ, kdy provozovatel usazený v Unii smluvně zadává určité služby provozovateli usazenému ve třetí zemi v souvislosti s činností, kterou má provádět systém AI, jejž by bylo možno kvalifikovat jako vysoce rizikový. Za těchto okolností by systém AI, který provozovatel používá ve třetí zemi, mohl zpracovávat údaje zákonně shromážděné v Unii a přesunuté z Unie a poskytovat zadávajícímu provozovateli v Unii výstup z tohoto systému AI vyplývající z uvedeného zpracování, aniž by byl tento systém AI uveden na trh nebo do provozu v Unii nebo v ní byl používán. Aby se předešlo obcházení tohoto nařízení a aby byla zajištěna účinná ochrana fyzických osob nacházejících se v Unii, mělo by se toto nařízení vztahovat také na poskytovatele a subjekty zavádějící systémy AI, kteří jsou usazeni ve třetí zemi, pokud jsou výstupy vytvořené těmito systémy zamýšleny k používání v Unii. S ohledem na již existující ujednání a na zvláštní potřeby budoucí spolupráce se zahraničními partnery, s nimiž probíhá výměna informací a důkazů, by se však toto nařízení nemělo vztahovat na veřejné orgány třetí země a na mezinárodní organizace, pokud jednají v rámci spolupráce nebo mezinárodních dohod uzavřených na unijní nebo vnitrostátní úrovni za účelem spolupráce v oblasti vymáhání práva a justiční spolupráce s Unií nebo členskými státy, pokud daná třetí země či mezinárodní organizace poskytne přiměřené záruky, pokud jde o ochranu základních práv a svobod fyzických osob. V příslušných případech se může jednat o činnosti subjektů pověřených třetími zeměmi prováděním zvláštních úkolů na podporu této spolupráce v oblasti vymáhání práva a justiční spolupráce. Tyto rámce pro spolupráci či dohody byly uzavřeny dvoustranně mezi členskými státy a třetími zeměmi nebo mezi Evropskou unií, Europolem a dalšími agenturami Unie a třetími zeměmi a mezinárodními organizacemi. Orgány příslušné pro dohled nad donucovacími a justičními orgány podle tohoto nařízení by měly posoudit, zda tyto rámce pro spolupráci nebo mezinárodní dohody obsahují přiměřené záruky, pokud jde o ochranu základních práv a svobod fyzických osob. Přijímající vnitrostátní orgány a orgány, instituce a jiné subjekty Unie, které tyto výstupy v Unii využívají, jsou i nadále odpovědné za zajištění toho, aby jejich používání bylo v souladu s právem Unie. Při revizi těchto mezinárodních dohod nebo při uzavírání nových dohod v budoucnu by smluvní strany měly vyvinout maximální úsilí, aby tyto dohody uvedly do souladu s požadavky tohoto nařízení.
(23)
O presente regulamento deverá ser também aplicável a instituições, órgãos e organismos da União quando atuam como prestador ou responsável pela implantação de um sistema de IA.
(23)
Toto nařízení by se mělo vztahovat také na orgány, instituce a jiné subjekty Unie, pokud jednají jako poskytovatel systému AI nebo subjekt zavádějící tento systém.
(24)
Se, e na medida em que, os sistemas de IA forem colocados no mercado, colocados em serviço ou utilizados com ou sem modificação desses sistemas para fins militares, de defesa ou de segurança nacional, tais sistemas deverão ser excluídos do âmbito de aplicação do presente regulamento, independentemente do tipo de entidade que realiza essas atividades, seja ela designadamente uma entidade pública ou privada. No que diz respeito aos fins militares e de defesa, essa exclusão é justificada tanto pelo artigo 4.o, n.o 2, do TUE como pelas especificidades da política de defesa dos Estados—Membros e da União abrangidas pelo título V, capítulo 2, do TUE, que estão sujeitas ao direito internacional público, que é, por conseguinte, o regime jurídico mais adequado para a regulamentação dos sistemas de IA no contexto da utilização da força letal e de outros sistemas de IA no contexto de atividades militares e de defesa. No que diz respeito aos fins de segurança nacional, a exclusão justifica-se tanto pelo facto de a segurança nacional continuar a ser da exclusiva responsabilidade dos Estados—Membros, em conformidade com o artigo 4.o, n.o 2, do TUE, como pela natureza específica e pelas necessidades operacionais específicas das atividades de segurança nacional e pelas regras nacionais específicas aplicáveis a essas atividades. No entanto, se um sistema de IA desenvolvido, colocado no mercado, colocado em serviço ou utilizado para fins militares, de defesa ou de segurança nacional for utilizado, temporária ou permanentemente, para outros fins, como por exemplo, para fins civis ou humanitários, de aplicação da lei ou de segurança pública, será abrangido pelo âmbito de aplicação do presente regulamento. Nesse caso, as entidades que utilizarem o sistema de IA para fins que não sejam fins militares, de defesa ou de segurança nacional deverão assegurar a conformidade do sistema com o presente regulamento, a menos que o sistema de IA já esteja em conformidade com o presente regulamento. Os sistemas de IA colocados no mercado ou colocados em serviço para um fim excluído, nomeadamente um fim militar, de defesa ou de segurança nacional, e um ou mais fins não excluídos, como fins civis ou de aplicação da lei, são abrangidos pelo âmbito de aplicação do presente regulamento e os prestadores desses sistemas deverão assegurar a conformidade com o presente regulamento. Nesses casos, o facto de um sistema de IA poder ser abrangido pelo âmbito de aplicação do presente regulamento não deverá afetar a possibilidade de as entidades que realizam atividades de segurança nacional, de defesa e militares, independentemente do tipo de entidade que realiza essas atividades, utilizarem para fins de segurança nacional, de defesa e militares sistemas de IA cuja utilização esteja excluída do âmbito de aplicação do presente regulamento. Um sistema de IA colocado no mercado para fins civis ou de aplicação da lei que seja utilizado com ou sem modificações para fins militares, de defesa ou de segurança nacional não deverá ser abrangido pelo âmbito de aplicação do presente regulamento, independentemente do tipo de entidade que realiza essas atividades.
(24)
Pokud, a v míře v jaké jsou systémy AI uvedeny na trh nebo do provozu nebo jsou používány se změnami těchto systémů nebo bez nich pro vojenské nebo obranné účely nebo pro účely národní bezpečnosti, měly by být z oblasti působnosti tohoto nařízení vyloučeny bez ohledu na to, jaký typ subjektu tyto činnosti provádí, například zda se jedná o veřejný, nebo soukromý subjekt. Pokud jde o vojenské a obranné účely, je toto vyloučení odůvodněno jak čl. 4 odst. 2 Smlouvy o Evropské unii, tak specifiky obranné politiky členských států a společné obranné politiky Unie, na něž se vztahuje hlava V kapitola 2 Smlouvy o Evropské unii a jež podléhají mezinárodnímu právu veřejnému, což je pak vhodnější právní rámec pro regulaci systémů AI v kontextu použití smrticí síly a jiných systémů AI v souvislosti s vojenskými a obrannými činnostmi. Pokud jde o účely národní bezpečnosti, je vyloučení odůvodněno jak skutečností, že národní bezpečnost zůstává v souladu s čl. 4 odst. 2 Smlouvy o Evropské unii výhradní odpovědností členských států, tak zvláštní povahou a operativními potřebami činností v oblasti národní bezpečnosti a zvláštními vnitrostátními pravidly použitelnými na tyto činnosti. Pokud je však systém AI vyvinutý, uvedený na trh nebo do provozu nebo používaný pro vojenské nebo obranné účely nebo pro účely národní bezpečnosti používán dočasně nebo trvale pro jiné účely, například pro civilní nebo humanitární účely, pro účely vymáhání práva nebo pro účely veřejné bezpečnosti, do oblasti působnosti tohoto nařízení by spadal. V takovém případě by subjekt, který systém AI používá pro jiné než vojenské nebo obranné účely nebo účely národní bezpečnosti, měl zajistit soulad systému AI s tímto nařízením, pokud systém dosud v souladu s tímto nařízením není. Systémy AI uváděné na trh nebo do provozu pro vyloučené účely, tedy vojenské nebo obranné účely nebo účely národní bezpečnosti, a jeden nebo více účelů, které vyloučeny nejsou, jako jsou civilní účely či vymáhání práva, do oblasti působnosti tohoto nařízení spadají a poskytovatelé těchto systémů by měli zajistit soulad s tímto nařízením. V těchto případech by skutečností, že systém AI může spadat do oblasti působnosti tohoto nařízení, neměla být dotčena možnost, aby subjekty provádějící činnosti v oblasti národní bezpečnosti nebo obranné a vojenské činnosti, bez ohledu na typ subjektu, který tyto činnosti provádí, používaly systémy AI pro účely národní bezpečnosti nebo vojenské a obranné účely, jejichž použití je z oblasti působnosti tohoto nařízení vyloučeno. Systém AI uváděný na trh pro civilní účely nebo pro účely vymáhání práva, který se používá se změnami nebo bez nich pro vojenské nebo obranné účely nebo pro účely národní bezpečnosti, by do oblasti působnosti tohoto nařízení spadat neměl, a to bez ohledu na typ subjektu, který tyto činnosti provádí.
(25)
O presente regulamento deverá apoiar a inovação, deverá respeitar a liberdade da ciência e não deverá prejudicar as atividades de investigação e desenvolvimento. Por conseguinte, é necessário excluir do seu âmbito de aplicação os sistemas e modelos de IA especificamente desenvolvidos e colocados em serviço exclusivamente para fins de investigação e desenvolvimento científicos. Além disso, é necessário assegurar que o presente regulamento não afete de outra forma as atividades científicas de investigação e desenvolvimento em matéria de sistemas ou modelos de IA antes de ser colocado no mercado ou colocado em serviço. No que diz respeito às atividades de investigação, testagem e desenvolvimento orientadas para os produtos relativas a sistemas ou modelos de IA, as disposições do presente regulamento também não deverão ser aplicáveis antes de esses sistemas e modelos serem colocados em serviço ou colocados no mercado. Essa exclusão não prejudica a obrigação de cumprir o presente regulamento sempre que um sistema de IA abrangido pelo âmbito de aplicação do presente regulamento for colocado no mercado ou colocado em serviço em resultado dessas atividades de investigação e desenvolvimento, nem a aplicação das disposições relativas aos ambientes de testagem da regulamentação da IA e à testagem em condições reais. Além disso, sem prejuízo da exclusão de sistemas de IA especificamente desenvolvidos e colocados em serviço para fins exclusivos de investigação e desenvolvimento científicos, qualquer outro sistema de IA que possa ser utilizado para a realização de atividades de investigação e desenvolvimento deverá continuar sujeito às disposições do presente regulamento. Em todo o caso, todas as atividades de investigação e desenvolvimento deverão ser realizadas em conformidade com normas éticas e profissionais reconhecidas em matéria de investigação científica e deverão ser conduzidas em conformidade com o direito da União aplicável.
(25)
Toto nařízení by mělo podporovat inovace, respektovat svobodu vědy a nemělo by narušovat činnosti v oblasti výzkumu a vývoje. Je proto nezbytné vyloučit z jeho oblasti působnosti systémy a modely AI, které byly speciálně vyvinuty a uvedeny do provozu výhradně za účelem vědeckého výzkumu a vývoje. Kromě toho je nezbytné zajistit, aby toto nařízení nemělo žádný jiný vliv na činnost v oblasti vědeckého výzkumu a vývoje systémů AI před jejich uvedením na trh nebo do provozu. Pokud jde o činnost v oblasti výzkumu, testování a vývoje zaměřenou na produkty a týkající se systémů nebo modelů AI, ustanovení tohoto nařízení by se rovněž neměla použít před uvedením těchto systémů a modelů do provozu nebo na trh. Tímto vyloučením není dotčena povinnost dodržovat toto nařízení, pokud je systém AI spadající do oblasti působnosti tohoto nařízení uveden na trh nebo do provozu jako výsledek této výzkumné a vývojové činnosti, ani uplatňování ustanovení o regulačních sandboxech pro AI a testování v reálných podmínkách. Aniž je dotčeno vyloučení, pokud jde o systémy AI speciálně vyvinuté a uvedené do provozu výhradně za účelem vědeckého výzkumu a vývoje, měla by se ustanovení tohoto nařízení i nadále vztahovat rovněž na jakýkoli jiný systém AI, který může být použit k provádění jakékoli výzkumné a vývojové činnosti. Za všech okolností by měla být veškerá výzkumná a vývojová činnost prováděna v souladu s uznávanými etickými a profesními normami vědeckého výzkumu a v souladu s platným právem Unie.
(26)
Para que o conjunto de normas vinculativas aplicáveis aos sistemas de IA seja proporcionado e eficaz, deverá seguir-se uma abordagem baseada no risco claramente definida. Essa abordagem deverá adaptar o tipo e o conteúdo dessas normas à intensidade e ao âmbito dos riscos que podem ser criados pelos sistemas de IA. Como tal, é necessário proibir determinadas práticas inaceitáveis de IA, estabelecer requisitos aplicáveis aos sistemas de IA de risco elevado e obrigações para os operadores pertinentes, bem como estabelecer obrigações de transparência para determinados sistemas de IA.
(26)
Aby bylo možné zavést přiměřený a účinný soubor závazných pravidel pro systémy AI, měl by být dodržován jasně definovaný přístup založený na posouzení rizik. Tento přístup by měl přizpůsobit typ a obsah těchto pravidel intenzitě a rozsahu rizik, která mohou systémy AI vytvářet. Je proto nezbytné zakázat některé nepřijatelné postupy v oblasti AI a stanovit požadavky na vysoce rizikové systémy AI a povinnosti příslušných provozovatelů, jakož i povinnosti transparentnosti pro určité systémy AI.
(27)
Embora a abordagem baseada no risco constitua a base para um conjunto proporcionado e eficaz de regras vinculativas, é importante recordar as Orientações Éticas para uma IA de Confiança, elaboradas em 2019 pelo IA HLEG independente nomeado pela Comissão. Nessas orientações, o IA HLEG desenvolveu sete princípios éticos não vinculativos para a IA, que se destinam a ajudar a garantir que a IA é de confiança e eticamente correta. Os sete princípios incluem: iniciativa e supervisão por humanos; solidez técnica e segurança; privacidade e governação dos dados; transparência; diversidade, não discriminação e equidade; bem-estar social e ambiental e responsabilização. Sem prejuízo dos requisitos juridicamente vinculativos do presente regulamento e de qualquer outras disposições aplicáveis do direito da União, essas orientações contribuem para a conceção de uma IA coerente, de confiança e centrada no ser humano, em consonância com a Carta e com os valores em que se funda a União. De acordo com as orientações do IA HLEG, «iniciativa e supervisão por humanos» significa que todos os sistemas de IA são desenvolvidos e utilizados como uma ferramenta ao serviço das pessoas, que respeita a dignidade humana e a autonomia pessoal e que funciona de uma forma que possa ser adequadamente controlada e supervisionada por seres humanos. Solidez técnica e segurança significa que os sistemas de IA são desenvolvidos e utilizados de forma a permitir a solidez em caso de problemas e a resiliência contra tentativas de alteração da sua utilização ou desempenho que permitam a utilização ilícita por terceiros, e a minimizar os danos não intencionais. Por privacidade e governação dos dados entende-se que os sistemas de IA são desenvolvidos e utilizados em conformidade com as regras existentes em matéria de privacidade e de proteção de dados, ao mesmo tempo que o tratamento de dados satisfaz normas elevadas em termos de qualidade e de integridade. A transparência significa que os sistemas de IA são desenvolvidos e utilizados de forma a permitir uma rastreabilidade e explicabilidade adequadas, sensibilizando ao mesmo tempo os seres humanos para o facto de estarem a comunicar ou a interagir com um sistema de IA, informando devidamente os responsáveis pela implantação das capacidades e limitações desse sistema de IA e informando as pessoas afetadas dos direitos que lhes assistem. Diversidade, não discriminação e equidade indica que os sistemas de IA são desenvolvidos e utilizados de forma a incluir diferentes intervenientes e a promover a igualdade de acesso, a igualdade de género e a diversidade cultural, evitando simultaneamente efeitos discriminatórios e enviesamentos injustos que sejam proibidos pelo direito da União ou pelo direito nacional. Por bem-estar social e ambiental entende-se que os sistemas de IA são desenvolvidos e utilizados de forma sustentável e respeitadora do ambiente, bem como de forma a beneficiar todos os seres humanos, controlando e avaliando ao mesmo tempo os impactos de longo prazo nas pessoas, na sociedade e na democracia. A aplicação desses princípios deverá traduzir-se, sempre que possível, na conceção e na utilização de modelos de IA. Em qualquer caso, deverão servir de base para a elaboração de códigos de conduta ao abrigo do presente regulamento. Todas as partes interessadas, incluindo a indústria, o meio académico, a sociedade civil e as organizações de normalização, são incentivadas a ter em conta, consoante o caso, os princípios éticos para o desenvolvimento de boas práticas e normas voluntárias.
(27)
Ačkoli přístup založený na posouzení rizik je základem pro přiměřený a účinný soubor závazných pravidel, je důležité připomenout Etické pokyny pro zajištění důvěryhodnosti UI z roku 2019, které vypracovala nezávislá Expertní skupina na vysoké úrovni pro AI jmenovaná Komisí. V těchto pokynech vypracovala uvedená skupina sedm nezávazných etických zásad týkajících se AI, které mají pomoci zajistit, aby byla AI důvěryhodná a vyhovovala požadavkům etiky. Předmětných sedm zásad obsahuje lidský faktor a dohled; technickou spolehlivost a bezpečnost; ochranu soukromí a správu dat; transparentnost; rozmanitost, nediskriminaci a spravedlnost; dobré sociální a environmentální podmínky; odpovědnost. Aniž jsou dotčeny právně závazné požadavky tohoto nařízení a jakékoli jiné použitelné právo předpisů Unie, přispívají uvedené pokyny k navrhování soudržné, důvěryhodné AI zaměřené na člověka v souladu s Listinou a s hodnotami, na nichž je Unie založena. Podle pokynů skupiny AI HLEG lidský faktor a dohled spočívá v tom, že systémy AI jsou vyvíjeny a používány jako nástroj, který slouží lidem, respektuje lidskou důstojnost a osobní autonomii a který funguje způsobem, jenž může být řádně ovládán a kontrolován člověkem. Technická spolehlivost a bezpečnost znamená, že systémy AI jsou vyvíjeny a používány takovým způsobem, jenž zajistí jejich spolehlivost v případě problémů a odolnost vůči pokusům změnit jejich použití nebo výkonnost tak, aby bylo umožněno protiprávní použití třetími stranami, a jímž je minimalizována neúmyslná újma. Ochranou soukromí a správou dat se rozumí, že systémy AI jsou vyvíjeny a používány v souladu s pravidly pro ochranu soukromí a osobních údajů při současném zpracovávání údajů, které splňují vysoké standardy kvality a integrity. Transparentností se rozumí, že systémy AI jsou vyvíjeny a používány tak, aby umožňovaly patřičnou sledovatelnost a vysvětlitelnost, aby lidé byli informováni o tom, že komunikují nebo interagují se systémem AI, a aby zavádějící subjekty byly řádně informovány o schopnostech a omezeních daného systému AI a dotčené osoby o svých právech. Rozmanitostí, zákazem diskriminace a spravedlností se rozumí, že systémy AI jsou vyvíjeny a používány tak, aby zahrnovaly nejrůznější aktéry a podporovaly rovný přístup, genderovou rovnost a kulturní rozmanitost a zároveň bránily diskriminačním dopadům a nespravedlivé zaujatosti, které jsou podle práva Unie a členských států zakázány. Dobrými sociálními a environmentálními podmínkami se rozumí, že systémy AI jsou vyvíjeny a používány udržitelným způsobem šetrným k životnímu prostředí, jakož i ve prospěch všech lidí při současném sledování a posuzování dlouhodobých dopadů na jednotlivce, společnost a demokracii. Uplatňování těchto zásad by se mělo pokud možno promítnout v rámci navrhování a používání modelů AI. V každém případě by měly sloužit jako základ pro vypracování kodexů chování podle tohoto nařízení. Všechny zúčastněné strany, včetně průmyslu, akademické obce, občanské společnosti a normalizačních organizací, se vyzývají, aby uvedené etické zásady ve vhodných případech zohledňovaly při vypracovávání dobrovolných osvědčených postupů a norem.
(28)
Além das suas inúmeras utilizações benéficas, a IA, pode também ser utilizada indevidamente e conceder instrumentos novos e poderosos para práticas manipuladoras, exploratórias e de controlo social. Essas práticas são particularmente prejudiciais e abusivas e deverão ser proibidas por desrespeitarem valores da União, como a dignidade do ser humano, a liberdade, a igualdade, a democracia e o Estado de direito, bem como os direitos fundamentais consagrados na Carta, nomeadamente o direito à não discriminação, à proteção de dados pessoais e à privacidade, e os direitos das crianças.
(28)
Přestože využívání AI přináší celou řadu výhod, AI může být i zneužita a stát se zdrojem nových a výkonných nástrojů umožňujících praktiky spočívající v manipulaci, vykořisťování a sociální kontrole. Tyto praktiky jsou mimořádně škodlivé a nekalé a měly by být zakázány, neboť jsou v rozporu s hodnotami Unie, jimiž je úcta k lidské důstojnosti, svoboda, rovnost, demokracie a právní stát, a se základními právy zakotvenými v Listině, včetně práva na zákaz diskriminace, na ochranu údajů a soukromí a práv dítěte.
(29)
As técnicas de manipulação propiciadas pela IA podem ser utilizadas para persuadir as pessoas a adotarem comportamentos indesejados, ou para as enganar incentivando-as a tomar decisões de uma forma que subverta e prejudique a sua autonomia, a sua tomada de decisões e a sua liberdade de escolha. A colocação no mercado, a colocação em serviço ou a utilização de determinados sistemas de IA com o objetivo ou o efeito de distorcer substancialmente o comportamento humano, sendo passível a ocorrência de danos significativos, em especial com repercussões negativas suficientemente importantes na saúde física, psicológica ou nos interesses financeiros, são particularmente perigosas e deverão, por isso, ser proibidas. Esses sistemas de IA utilizam quer componentes subliminares, como estímulos de áudio, de imagem e de vídeo dos quais as pessoas não se conseguem aperceber por serem estímulos que ultrapassam a perceção humana, quer outras técnicas manipuladoras ou enganadoras que subvertem ou prejudicam a autonomia, a tomada de decisões ou a liberdade de escolha das pessoas de uma maneira de que estas não têm consciência dessas técnicas ou que, mesmo que tenham consciência das mesmas, ainda possam ser enganadas ou não as possam impedir de controlar ou não lhes possam resistir. Tal poderá ser facilitado, por exemplo, por interfaces máquina-cérebro ou por realidade virtual, que permitem um maior nível de controlo do tipo de estímulos apresentados às pessoas, na medida em que podem distorcer substancialmente o seu comportamento de uma forma significativamente nociva. Além disso, os sistemas de IA podem também explorar vulnerabilidades de uma pessoa ou de um grupo específico de pessoas devido à sua idade, à sua deficiência na aceção da Diretiva (UE) 2019/882 do Parlamento Europeu e do Conselho (16), ou a uma situação social ou económica específica suscetível de tornar essas pessoas mais vulneráveis à exploração, como as pessoas que vivem em situação de pobreza extrema ou as minorias étnicas ou religiosas. Esses sistemas de IA podem ser colocados no mercado, colocados em serviço ou utilizados com o objetivo ou o efeito de distorcer substancialmente o comportamento de uma pessoa e de uma forma que cause ou seja razoavelmente suscetível de causar danos significativos a essa ou a outra pessoa ou grupos de pessoas, incluindo danos que possam ser acumulados ao longo do tempo, razão pela qual deverão ser proibidos. Pode não ser possível presumir que existe intenção de distorcer o comportamento se a distorção resultar de fatores externos ao sistema de IA que estejam fora do controlo do prestador ou do responsável pela implantação, nomeadamente fatores que podem não ser razoavelmente previsíveis e que, por conseguinte, o prestador ou responsável pela implantação do sistema de IA não possam atenuar. De qualquer modo, não é necessário que o prestador ou o responsável pela implantação tenha a intenção de causar danos significativos, basta que tal dano resulte das práticas manipuladoras ou exploratórias baseadas na IA. As proibições de tais práticas de IA complementam as disposições da Diretiva 2005/29/CE do Parlamento Europeu e do Conselho (17), nomeadamente as que proíbem as práticas comerciais desleais que causam danos económicos ou financeiros aos consumidores, em quaisquer circunstâncias, independentemente de serem aplicadas através de sistemas de IA ou de outra forma. As proibições de práticas manipuladoras e exploratórias previstas no presente regulamento não deverão afetar as práticas lícitas no contexto de tratamentos médicos, como o tratamento psicológico de uma doença mental ou a reabilitação física, sempre que tais práticas sejam realizadas em conformidade com a lei e as normas médicas aplicáveis, como, por exemplo, o consentimento explícito das pessoas ou dos seus representantes legais. Além disso, as práticas comerciais comuns e legítimas, como por exemplo no domínio da publicidade, que cumpram a lei aplicável não deverão, por si só, ser consideradas práticas manipuladoras prejudiciais tornadas possíveis pela IA.
(29)
Manipulativní techniky založené na AI lze použít k přesvědčování osob k nežádoucímu chování nebo k jejich klamání tím, že je podněcují k přijímání rozhodnutí tak, že je podkopávána a narušována jejich autonomie, rozhodování a svobodná volba. Uvádění na trh nebo do provozu nebo používání určitých systémů AI s cílem podstatně ovlivnit lidské chování nebo s takovým účinkem, kdy je pravděpodobné, že bude dotčeným osobám způsobena značná újma, zejména pokud jde o dostatečně významné nepříznivé dopady na fyzické či psychické zdraví nebo finanční zájmy, je obzvláště nebezpečné, a proto by mělo být zakázáno. Tyto systémy AI využívají podprahové signály, jako jsou zvukové a obrazové stimuly a videostimuly, které člověk není schopen vnímat, neboť jsou mimo rámec lidského vnímání, nebo jiné manipulativní nebo klamavé techniky, které narušují nebo oslabují autonomii, schopnost rozhodování nebo svobodnou volbu člověka tak, že tento vliv vědomě nezaznamená, nebo pokud si jej uvědomí, přesto se nechá oklamat nebo není schopen tyto techniky ovlivnit nebo jim odolat. To by mohlo být usnadněno například rozhraními stroj–mozek nebo virtuální realitou, neboť umožňují větší kontrolu nad tím, jakým stimulům je jedinec vystaven, pokud mohou tyto stimuly značnou měrou a výrazně škodlivým způsobem narušit jejich chování. Systémy AI mohou kromě toho zneužívat zranitelnost jednotlivců či určité skupiny osob i jiným způsobem, z důvodu jejich věku, zdravotního postižení ve smyslu směrnice Evropského parlamentu a Rady (EU) 2019/882 (16) nebo zvláštní sociální nebo ekonomické situace, v jejímž důsledku mohou být tyto osoby, jako jsou osoby žijící v extrémní chudobě nebo etnické nebo náboženské menšiny, více zranitelné vůči zneužívání. Tyto systémy mohou být uváděny na trh nebo do provozu nebo používány s cílem podstatně ovlivnit chování určitého jednotlivce nebo s takovým účinkem, a to takovým způsobem, že je dotčenému jednotlivci nebo jiné osobě nebo skupinám osob způsobena značná újma nebo lze takovou újmu důvodně předpokládat, přičemž se může jednat i o újmy, které v průběhu času kumulují; proto by měly být tyto systémy zakázány. Může se stát, že úmysl ovlivnit chování není možné předpokládat, pokud je takovéto ovlivnění způsobeno faktory mimo systém AI, které jsou mimo kontrolu poskytovatele nebo zavádějícího subjektu, konkrétně pokud jde o faktory, které nemusí být rozumně předvídatelné, a tudíž je poskytovatel nebo subjekt zavádějící systém AI nemohou zmírnit. V každém případě nemusí mít poskytovatel nebo zavádějící subjekt v úmyslu způsobit značnou újmu, pokud tato újma vyplývá z manipulativních nebo vykořisťujících praktik založených na AI. Zákazy těchto praktik AI se doplňují ustanovení obsažená ve směrnici Evropského parlamentu a Rady 2005/29/ES (17), zejména pokud jde o to, že nekalé obchodní praktiky vedoucí k hospodářské nebo finanční újmě pro spotřebitele jsou zakázány za všech okolností bez ohledu na to, zda jsou zavedeny prostřednictvím systémů AI, nebo jinak. Zákazy manipulativních a vykořisťujících praktik stanovené v tomto nařízení by neměly mít vliv na zákonné postupy v souvislosti s lékařskou péčí, jako je psychologická léčba duševní nemoci nebo tělesná rehabilitace, jsou-li tyto praktiky prováděny v souladu s platným právem a lékařskými normami, například pokud jde o výslovný souhlas osob nebo jejich právních zástupců. Kromě toho by za škodlivé manipulativní praktiky založené na AI neměly být samy o sobě považovány běžné a legitimní obchodní praktiky, například v oblasti reklamy, které jsou v souladu s platným právem.
(30)
Deverão ser proibidos os sistemas de categorização biométrica baseados em dados biométricos de pessoas singulares, como o rosto ou as impressões digitais, para deduzir ou inferir as suas opiniões políticas, a filiação sindical, as convicções religiosas ou filosóficas, a raça, a vida sexual ou a orientação sexual de uma pessoa. Essa proibição não deverá abranger a rotulagem legal, a filtragem ou a categorização de conjuntos de dados biométricos adquiridos em conformidade com o direito da União ou o direito nacional em função dos dados biométricos, como a triagem de imagens em função da cor do cabelo ou da cor dos olhos, que podem, por exemplo, ser utilizadas no domínio da aplicação da lei.
(30)
Měly by být zakázány systémy biometrické kategorizace, které jsou založeny na biometrických údajích fyzických osob, jako je obličej nebo otisky prstů jednotlivců, za účelem odvozování či vyvozování politických názorů jednotlivců, členství v odborových organizacích, náboženského nebo filozofického přesvědčení, rasy, sexuálního života nebo sexuální orientace. Tento zákaz by se neměl vztahovat na zákonné označování, filtrování nebo kategorizaci souborů biometrických údajů získaných v souladu s právem Unie nebo vnitrostátním právem na základě biometrických údajů, jako je třídění zobrazení podle barvy vlasů nebo očí, které lze použít například v oblasti vymáhání práva.
(31)
Os sistemas de IA que possibilitam a classificação social de pessoas singulares por intervenientes públicos ou privados podem criar resultados discriminatórios e levar à exclusão de determinados grupos. Estes sistemas podem ainda violar o direito à dignidade e à não discriminação e os valores da igualdade e da justiça. Esses sistemas de IA avaliam ou classificam pessoas singulares ou grupos de pessoas singulares com base em múltiplos pontos de dados relacionados com o seu comportamento social em diversos contextos ou em características pessoais ou de personalidade conhecidas, inferidas ou previsíveis ao longo de determinados períodos. A classificação social obtida por meio desses sistemas de IA pode levar ao tratamento prejudicial ou desfavorável de pessoas singulares ou grupos inteiros de pessoas singulares em contextos sociais não relacionados com o contexto em que os dados foram originalmente gerados ou recolhidos, ou a um tratamento prejudicial desproporcionado ou injustificado face à gravidade do seu comportamento social. Como tal, deverão ser proibidos sistemas de IA que impliquem tais práticas de classificação inaceitáveis e conducentes a esses resultados prejudiciais ou desfavoráveis. Essa proibição não deverá afetar as práticas de avaliação lícitas de pessoas singulares efetuadas para um fim específico, em conformidade com o direito da União e o direito nacional.
(31)
Systémy AI umožňující hodnocení sociálního kreditu fyzických osob ze strany veřejných či soukromých aktérů mohou vést k diskriminačním výsledkům a k vyloučení určitých skupin. Mohou porušovat právo na důstojnost a zákaz diskriminace a hodnoty rovnosti a spravedlnosti. Tyto systémy AI hodnotí nebo klasifikují fyzické osoby nebo skupiny fyzických osob na základě vícedatových bodů týkajících se jejich sociálního chování v různých kontextech nebo známých, odvozených či předvídaných osobních či osobnostních vlastností v průběhu určitého časového období. Sociální kredit získaný na základě těchto systémů AI může vést ke znevýhodňujícímu nebo nepříznivému zacházení s fyzickými osobami nebo s celými skupinami fyzických osob v sociálních kontextech nesouvisejících s kontextem, ve kterém byly dané údaje původně vytvořeny nebo shromážděny, případně ke znevýhodňujícímu zacházení, které je nepřiměřené nebo neodůvodněné s ohledem na závažnost jejich sociálního chování. Systémy AI, které tyto nepřijatelné postupy hodnocení zahrnují a vedou k takovým znevýhodňujícím nebo nepříznivým výsledkům, by proto měly být zakázány. Tímto zákazem by neměly být dotčeny zákonné postupy posuzování fyzických osob prováděné za zvláštním účelem v souladu s unijním či vnitrostátním právem.
(32)
A utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» de pessoas singulares em espaços acessíveis ao público para efeitos de aplicação da lei é particularmente intrusiva para os direitos e as liberdades das pessoas em causa, visto que pode afetar a vida privada de uma grande parte da população, dar origem a uma sensação de vigilância constante e dissuadir indiretamente o exercício da liberdade de reunião e de outros direitos fundamentais. As imprecisões técnicas dos sistemas de IA concebidos para a identificação biométrica à distância de pessoas singulares podem conduzir a resultados enviesados e ter efeitos discriminatórios. Estes possíveis resultados enviesados e efeitos discriminatórios são particularmente relevantes no que diz respeito à idade, etnia, raça, sexo ou deficiência. Além disso, o impacto imediato e as oportunidades limitadas para a realização de controlos adicionais ou correções no que respeita à utilização desses sistemas que funcionam em tempo real acarretam riscos acrescidos para os direitos e as liberdades das pessoas em causa no contexto, ou afetadas, pelas autoridades responsáveis pela aplicação da lei.
(32)
Využívání systémů AI pro biometrickou identifikaci fyzických osob na dálku „v reálném čase“ ve veřejně přístupných prostorech pro účely vymáhání práva obzvláště zasahuje do práv a svobod dotčených osob, neboť může ovlivnit soukromý život velké části populace, vyvolávat pocit neustálého sledování a nepřímo odrazovat od využívání svobody shromažďování a dalších základních práv. Technické nepřesnosti systémů AI určených pro biometrickou identifikaci fyzických osob na dálku mohou vést ke zkresleným výsledkům a mít diskriminační účinky. Tyto případné zkreslené výsledky a diskriminační účinky jsou obzvláště relevantní, pokud jde o věk, etnickou příslušnost, rasu, pohlaví nebo zdravotní postižení. Bezprostřednost dopadu a omezené možnosti dalších kontrol nebo oprav v souvislosti s používáním těchto systémů fungujících v reálném čase s sebou navíc nesou zvýšené riziko z hlediska práv a svobod osob, kterých se týkají činnosti v oblasti vymáhání práva nebo jsou jimi dotčeny.
(33)
Como tal, deverá ser proibida a utilização desses sistemas para efeitos de aplicação da lei, salvo em situações enunciadas exaustivamente e definidas de modo restrito, em que essa utilização é estritamente necessária por motivos de interesse público importante e cuja importância prevalece sobre os riscos. Nessas situações incluem-se a busca de determinadas vítimas de crimes, nomeadamente pessoas desaparecidas; certas ameaças à vida ou à segurança física de pessoas singulares ou ameaças de ataque terrorista; e a localização ou identificação de infratores ou suspeitos de infrações penais a que se refere um anexo do presente regulamento, desde que essas infrações penais sejam puníveis no Estado-Membro em causa com pena ou medida de segurança privativa de liberdade de duração máxima não inferior a quatro anos e tal como definidas pela legislação desse Estado-Membro. Esse limiar para a pena ou medida de segurança privativa de liberdade prevista no direito nacional contribui para assegurar que a infração seja suficientemente grave para justificar potencialmente a utilização de sistemas de identificação biométrica à distância em tempo real. Além disso, a lista de infrações penais prevista no anexo do presente regulamento baseia-se nas 32 infrações penais enumeradas na Decisão-Quadro 2002/584/JAI do Conselho (18), tendo em conta que algumas delas são na prática provavelmente mais pertinentes do que outras, já que o recurso à identificação biométrica à distância «em tempo real» poderá previsivelmente ser necessário e proporcionado em graus extremamente variáveis no respeitante à localização ou identificação de um infrator ou suspeito das diferentes infrações penais enumeradas e tendo em conta as prováveis diferenças em termos de gravidade, probabilidade e magnitude dos danos ou das possíveis consequências negativas. Uma ameaça iminente à vida ou à segurança física de pessoas singulares também poderá resultar de uma perturbação grave causada a uma infraestrutura crítica, na aceção do artigo 2.o, ponto 4, da Diretiva (UE) 2022/2557 do Parlamento Europeu e do Conselho (19), sempre que a perturbação ou a destruição dessa infraestrutura crítica resulte numa ameaça iminente à vida ou à segurança física de uma pessoa, inclusive ao prejudicar gravemente o fornecimento de bens essenciais à população ou o exercício das funções essenciais do Estado. Além disso, o presente regulamento deverá preservar a capacidade das autoridades competentes em matéria de aplicação da lei, controlo das fronteiras, imigração ou asilo para realizarem controlos de identidade na presença da pessoa em causa, em conformidade com as condições estabelecidas no direito da União e no direito nacional para esses controlos. Em especial, as autoridades competentes em matéria de aplicação da lei, controlo das fronteiras, imigração ou asilo deverão poder utilizar sistemas de informação, em conformidade com o direito da União ou o direito nacional, para identificar pessoas que, durante um controlo de identidade, se recusem a ser identificadas ou não sejam capazes de declarar ou provar a sua identidade, sem serem obrigadas a obter uma autorização prévia por força do presente regulamento. Pode tratar-se, por exemplo, de uma pessoa envolvida num crime que não queira, ou não possa devido a um acidente ou doença, revelar a sua identidade às autoridades responsáveis pela aplicação da lei.
(33)
Používání těchto systémů pro účely vymáhání práva by proto mělo být zakázáno s výjimkou taxativně vyjmenovaných a úzce definovaných situací, kdy je toto použití nezbytně nutné k dosažení významného veřejného zájmu, jehož význam převažuje nad uvedenými riziky. Tyto situace zahrnují hledání určitých obětí trestných činů, včetně pohřešovaných osob, některé případy ohrožení života nebo fyzické bezpečnosti fyzických osob nebo hrozby teroristického útoku a lokalizaci nebo identifikaci pachatelů nebo osob podezřelých ze spáchání trestných činů uvedených v příloze tohoto nařízení, pokud lze za tyto trestné činy uložit v dotčeném členském státě trest odnětí svobody s horní hranicí v délce nejméně čtyři roky nebo ochranné opatření spojené se zbavením osobní svobody ve stejné délce v souladu s právem tohoto členského státu. Tato hranice pro trest odnětí svobody nebo ochranné opatření spojené se zbavením osobní svobody v souladu s vnitrostátním právem přispívá k zajištění toho, že použití systémů biometrické identifikace na dálku v reálném čase bude možno potenciálně odůvodnit jen dostatečnou závažností daného trestného činu. Kromě toho je seznam trestných činů uvedený v příloze tohoto nařízení založen na seznamu 32 trestných činů uvedených v rámcovém rozhodnutí Rady 2002/584/SVV (18), přičemž je zohledněna skutečnost, že některé z těchto trestných činů budou v praxi pravděpodobně relevantnější než jiné v tom smyslu, že nezbytnost a přiměřenost využívání biometrické identifikace na dálku v reálném čase může být pravděpodobně velmi různorodá jak z hlediska praktické snahy o lokalizaci či identifikaci pachatelů jednotlivých trestných činů uvedených na seznamu nebo osob podezřelých z jejich spáchání, tak s ohledem na pravděpodobné rozdíly v závažnosti, pravděpodobnosti a rozsahu způsobené újmy nebo možných negativních důsledků. Bezprostřední ohrožení života nebo fyzické bezpečnosti fyzických osob by mohlo být rovněž důsledkem vážného narušení kritické infrastruktury ve smyslu čl. 2 bodu 4 směrnice Evropského parlamentu a Rady (EU) 2022/2557 (19), pokud by narušení nebo zničení této kritické infrastruktury vedlo k bezprostřednímu ohrožení života nebo fyzické bezpečnosti určité osoby, a to i v důsledku vážného narušení poskytování základních dodávek obyvatelstvu nebo výkonu základních funkcí státu. Kromě toho by toto nařízení mělo zachovat schopnost donucovacích orgánů, orgánů odpovědných za ochranu hranic, imigračních nebo azylových orgánů provádět kontroly totožnosti za přítomnosti dotčené osoby v souladu s podmínkami stanovenými pro tyto kontroly v právu Unie a vnitrostátním právu. Donucovací orgány, orgány odpovědné za ochranu hranic, imigrační nebo azylové orgány by zejména měly mít možnost používat informační systémy v souladu s právem Unie nebo vnitrostátním právem k identifikaci osob, které během kontroly totožnosti buď odmítnou být identifikovány, nebo nejsou schopny uvést či prokázat svou totožnost, aniž by tyto orgány byly podle tohoto nařízení povinny získat předchozí povolení. Může se jednat například o osobu zapojenou do trestného činu, která není ochotna nebo z důvodu nehody nebo zdravotního stavu schopna sdělit svou totožnost donucovacím orgánům.
(34)
A fim de assegurar que esses sistemas sejam utilizados de uma forma responsável e proporcionada, também importa estabelecer que, em cada uma dessas situações enunciadas exaustivamente e definidas de modo restrito, é necessário ter em conta determinados elementos, em especial no que se refere à natureza da situação que dá origem ao pedido e às consequências da utilização para os direitos e as liberdades de todas as pessoas em causa e ainda às salvaguardas e condições previstas para a utilização. Além disso, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei só deverá ocorrer para efeitos de confirmação da identidade de uma pessoa especificamente visada e deverá ser limitada ao estritamente necessário no que respeita ao período, bem como ao âmbito geográfico e pessoal, tendo em conta, especialmente, os dados ou indícios relativos às ameaças, às vítimas ou ao infrator. A utilização do sistema de identificação biométrica à distância em tempo real em espaços acessíveis ao público só deverá ser autorizada se a competente autoridade responsável pela aplicação da lei tiver concluído uma avaliação de impacto sobre os direitos fundamentais e, salvo disposição em contrário no presente regulamento, tiver registado o sistema na base de dados prevista no presente regulamento. A base de dados de pessoas utilizada como referência deverá ser adequada a cada utilização em cada uma das situações acima indicadas.
(34)
Aby bylo zajištěno odpovědné a přiměřené používání těchto systémů, je rovněž důležité stanovit, že v každé z těchto taxativně vyjmenovaných a úzce definovaných situací je třeba zohlednit určité prvky, zejména pokud jde o povahu situace, která vedla k žádosti, o důsledky užití těchto systémů pro práva a svobody všech dotčených osob a o záruky a podmínky zajištěné při tomto použití. Kromě toho by používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva mělo být nasazeno pouze k potvrzení totožnosti konkrétně cílené fyzické osoby a mělo by být omezeno na to, co je nezbytně nutné, pokud jde o dobu, jakož i zeměpisný a osobní rozsah, zejména s ohledem na důkazy nebo údaje týkající se daných hrozeb, obětí nebo pachatele. Používání systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech by mělo být povoleno pouze v případě, že příslušný donucovací orgán dokončil posouzení dopadů na základní práva, a nestanoví-li toto nařízení jinak, zaregistroval systém v databázi podle tohoto nařízení. Pro každý případ použití v každé z výše uvedených situací by mělo být vhodné využití referenční databáze osob.
(35)
Cada utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei deverá estar sujeita a uma autorização expressa e específica de uma autoridade judiciária ou de uma autoridade administrativa independente de um Estado-Membro cuja decisão seja vinculativa. Em princípio, essa autorização deverá ser obtida antes da utilização do sistema de IA com vista a identificar uma ou várias pessoas. Deverão ser permitidas exceções a essa regra em situações devidamente justificadas por motivos de urgência, nomeadamente em situações em que a necessidade de utilizar os sistemas em causa seja tal que torne efetiva e objetivamente impossível obter uma autorização antes de iniciar a utilização do sistema de IA. Nessas situações de urgência, a utilização do sistema de IA deverá limitar-se ao mínimo absolutamente necessário e estar sujeita a salvaguardas e condições adequadas, conforme determinado pelo direito nacional e especificado no contexto de cada caso de utilização urgente pela própria autoridade responsável pela aplicação da lei. Além disso, em tais situações, a autoridade responsável pela aplicação da lei deverá solicitar essa autorização, apresentando simultaneamente as razões para não ter podido solicitá-la mais cedo, sem demora injustificada e, o mais tardar, no prazo de 24 horas. Se essa autorização for recusada, a utilização de sistemas de identificação biométrica em tempo real associados a essa autorização deverá cessar com efeitos imediatos e todos os dados relacionados com essa utilização deverão ser suprimidos e apagados. Tais dados incluem dados de entrada adquiridos diretamente por um sistema de IA durante a utilização desse sistema, bem como os resultados da utilização associada a essa autorização. Não deverá incluir os dados de entrada licitamente adquiridos em conformidade com outras disposições pertinentes do direito da União ou do direito nacional. Em qualquer caso, nenhuma decisão que produza efeitos jurídicos adversos sobre uma pessoa deverá ser tomada exclusivamente com base nos resultados saídos do sistema de identificação biométrica à distância.
(35)
Každé použití systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva by mělo podléhat výslovnému a konkrétnímu povolení justičního orgánu nebo nezávislého správního orgánu členského státu, jehož rozhodnutí je závazné. Toto povolení by mělo být v zásadě získáno před použitím systému AI za účelem identifikace určité osoby nebo osob. Výjimky z tohoto pravidla by měly být povoleny v řádně odůvodněných situacích z důvodu naléhavosti, tedy v situacích, kdy je potřeba použít dotčené systémy tak naléhavá, že je fakticky a objektivně nemožné získat povolení před zahájením tohoto použití. V těchto naléhavých situacích by použití systému AI mělo být omezeno na absolutně nezbytné minimum a mělo by podléhat příslušným zárukám a podmínkám, které stanoví vnitrostátní právo a které konkrétně určuje v souvislosti s každým jednotlivým případem naléhavého použití samotný donucovací orgán. Kromě toho by měl donucovací orgán v uvedených situacích o toto povolení požádat a uvést důvody, proč o ně nemohl požádat dříve, bez zbytečného odkladu, nejpozději však do 24 hodin. Je-li takové povolení zamítnuto, mělo by být použití systémů biometrické identifikace v reálném čase spojené s tímto povolením zastaveno s okamžitým účinkem a veškeré údaje související s tímto použitím by měly být vyřazeny a vymazány. Uvedené údaje zahrnují vstupní údaje přímo získané systémem AI v průběhu jeho používání, jakož i výsledky a výstupy použití spojeného s tímto povolením. Neměly by zahrnovat vstupy, které jsou zákonně získány v souladu s jiným unijním nebo vnitrostátním právem. Výlučně na základě výstupu systému biometrické identifikace na dálku by každopádně nemělo být přijato žádné rozhodnutí, které má pro určitou osobu nepříznivé právní účinky.
(36)
A fim de desempenharem as suas funções em conformidade com os requisitos estabelecidos no presente regulamento e nas regras nacionais, as autoridades de fiscalização do mercado competentes e a autoridade nacional de proteção de dados deverão ser notificadas de cada utilização do sistema de identificação biométrica em tempo real. As autoridades de fiscalização do mercado e as autoridades nacionais de proteção de dados que tenham sido notificadas deverão apresentar à Comissão um relatório anual sobre a utilização de sistemas de identificação biométrica em tempo real.
(36)
Aby mohl plnit své úkoly v souladu s požadavky stanovenými v tomto nařízení a ve vnitrostátních předpisech, měl by být příslušný orgán dozoru nad trhem a vnitrostátní orgán pro ochranu osobních údajů o každém použití systému biometrické identifikace v reálném čase informován. Orgány dozoru nad trhem a vnitrostátní orgány pro ochranu osobních údajů, které byly o tomto použití informovány, by měly k používání systémů biometrické identifikace v reálném čase předložit Komisi výroční zprávu.
(37)
Além disso, no âmbito do regime exaustivo estabelecido pelo presente regulamento, importa salientar que essa utilização no território de um Estado-Membro em conformidade com o presente regulamento apenas deverá ser possível uma vez que o Estado-Membro em causa tenha decidido possibilitar expressamente a autorização dessa utilização nas regras de execução previstas no direito nacional. Consequentemente, ao abrigo do presente regulamento, os Estados-Membros continuam a ser livres de não possibilitar essa utilização ou de apenas possibilitar essa utilização relativamente a alguns dos objetivos passíveis de justificar uma utilização autorizada identificados no presente regulamento. Essas regras nacionais deverão ser comunicadas à Comissão no prazo de 30 dias a contar da sua adoção.
(37)
Dále je vhodné v rámci taxativně vymezeném tímto nařízením stanovit, že toto použití na území členského státu v souladu s tímto nařízením by mělo být možné pouze v případě, že se dotčený členský stát rozhodl výslovně stanovit možnost povolit toto použití v podrobných pravidlech svého vnitrostátního práva, a v míře stanovené tamtéž. V důsledku toho se členské státy mohou podle tohoto nařízení i nadále dle vlastního uvážení rozhodnout, že tuto možnost vůbec nestanoví, případně že ji stanoví pouze ve vztahu k některým cílům, které mohou povolené použití určené v tomto nařízení odůvodnit. Tato vnitrostátní pravidla by měla být oznámena Komisi do 30 dnů od přijetí.
(38)
A utilização de sistemas de IA para a identificação biométrica à distância em tempo real de pessoas singulares em espaços acessíveis ao público para efeitos de aplicação da lei implica necessariamente o tratamento de dados biométricos. As regras do presente regulamento que proíbem essa utilização, salvo em certas exceções, e que têm por base o artigo 16.o do TFUE, deverão aplicar-se como lex specialis relativamente às regras em matéria de tratamento de dados biométricos previstas no artigo 10.o da Diretiva (UE) 2016/680, regulando assim essa utilização e o tratamento de dados biométricos conexo de uma forma exaustiva. Como tal, essa utilização e esse tratamento apenas deverão ser possíveis se forem compatíveis com o regime estabelecido pelo presente regulamento, sem que exista margem, fora desse regime, para as autoridades competentes utilizarem esses sistemas e efetuarem o tratamento desses dados pelos motivos enunciados no artigo 10.o da Diretiva (UE) 2016/680, caso atuem para efeitos de aplicação da lei. Nesse contexto, o presente regulamento não pretende constituir o fundamento jurídico do tratamento de dados pessoais, nos termos do artigo 8.o da Diretiva (UE) 2016/680. Contudo, a utilização de sistemas de identificação biométrica à distância em tempo real em espaços acessíveis ao público para outros fins que não os de aplicação da lei, inclusive por parte das autoridades competentes, não deverá ser abrangida pelo regime específico relativo a essa utilização para efeitos de aplicação da lei estabelecido pelo presente regulamento. Assim, uma utilização para outros fins que não a aplicação da lei não deverá estar sujeita ao requisito de autorização previsto no presente regulamento nem às regras de execução aplicáveis do direito nacional que possam dar prevalência a essa autorização.
(38)
Používání systémů AI pro biometrickou identifikaci fyzických osob na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva nutně zahrnuje i zpracování biometrických údajů. Pravidla tohoto nařízení, která toto použití až na určité výjimky zakazují a která jsou založena na článku 16 Smlouvy o fungování Evropské unie, by se měla použít jako lex specialis, pokud jde o pravidla zpracování biometrických údajů uvedená v článku 10 směrnice (EU) 2016/680, což by toto použití a zpracování dotčených biometrických údajů vyčerpávajícím způsobem upravovalo. Toto použití a zpracování by proto mělo být možné jen v případě, že je slučitelné s rámcem stanoveným tímto nařízením, a mimo tento rámec by neměl existovat prostor pro to, aby příslušné orgány, pokud jednají za účelem vymáhání práva, tyto systémy používaly a zpracovávaly v souvislosti s nimi uvedené údaje z důvodů uvedených v článku 10 směrnice (EU) 2016/680. V této souvislosti není cílem tohoto nařízení poskytnout právní základ pro zpracování osobních údajů podle článku 8 směrnice (EU) 2016/680. Na používání systémů biometrické identifikace na dálku v reálném čase na veřejně přístupných prostorech pro jiné účely než vymáhání práva, a to i příslušnými orgány, by se však zvláštní rámec stanovený tímto nařízením pro používání uvedených systémů pro účely vymáhání práva vztahovat neměl. Toto použití pro jiné účely než vymáhání práva by proto nemělo podléhat požadavku na povolení podle tohoto nařízení a použitelným podrobným pravidlům vnitrostátního práva, která mohou toto povolení uvést v účinnost.
(39)
Qualquer tratamento de dados biométricos e de outros dados pessoais envolvidos na utilização de sistemas de IA para fins de identificação biométrica, desde que não estejam associados à utilização de sistemas de identificação biométrica à distância em tempo real em espaços acessíveis ao público para efeitos de aplicação da lei conforme regida pelo presente regulamento deverá continuar a cumprir todos os requisitos decorrentes do artigo10.o da Diretiva (UE) 2016/680. Para outros fins que não a aplicação da lei, o artigo 9.o, n.o 1, do Regulamento (UE) 2016/679 e o artigo 10.o, n.o 1, do Regulamento (UE) 2018/1725 proíbem o tratamento de dados biométricos, salvo nos casos abrangidos pelas exceções limitadas previstas nesses artigos. Em aplicação do artigo 9.o, n.o 1, do Regulamento (UE) 2016/679, a utilização da identificação biométrica à distância para outros fins que não a aplicação da lei já foi objeto de decisões de proibição por parte das autoridades nacionais de proteção de dados.
(39)
Jakékoli zpracování biometrických údajů a dalších osobních údajů související s používáním systémů AI pro účely biometrické identifikace jinak než v souvislosti s používáním systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva podle tohoto nařízení by mělo i nadále splňovat všechny požadavky vyplývající z článku 10 směrnice (EU) 2016/680. Pro jiné účely než vymáhání práva zakazují čl. 9 odst. 1 nařízení (EU) 2016/679 a čl. 10 odst. 1 nařízení (EU) 2018/1725 zpracování biometrických údajů s výhradou omezených výjimek stanovených v uvedených článcích Vnitrostátní orgány pro ochranu osobních údajů již při uplatňování čl. 9 odst. 1 nařízení (EU) 2016/679 vydaly rozhodnutí, jejichž předmětem byl zákaz použití biometrické identifikace na dálku pro jiné účely než pro účely vymáhání práva.
(40)
Nos termos do artigo 6.o-A do Protocolo (n.o 21) relativo à posição do Reino Unido e da Irlanda em relação ao espaço de liberdade, segurança e justiça, anexo ao TUE e ao TFUE, a Irlanda não fica vinculada pelas regras estabelecidas no artigo 5.o, n.o 1, primeiro parágrafo, alínea g), na medida em que se aplica à utilização de sistemas de categorização biométrica para atividades no domínio da cooperação policial e da cooperação judicial em matéria penal, no artigo 5.o, n.o1, primeiro parágrafo, alínea d), na medida em que se aplica à utilização de sistemas de IA abrangidos por essa disposição, no artigo 5.o, n.o 1, primeiro parágrafo, alínea h), no artigo 5.o, n.os 2 a 6, e no artigo 26.o, n.o 10, do presente regulamento, adotadas com base no artigo 16.o do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito da parte III, título V, capítulos 4 ou 5, do TFUE, caso a Irlanda não esteja vinculada por regras que rejam formas de cooperação judiciária em matéria penal ou de cooperação policial no âmbito das quais devam ser observadas as disposições definidas com base no artigo 16.o do TFUE.
(40)
V souladu s článkem 6a Protokolu č. 21 o postavení Spojeného království a Irska s ohledem na prostor svobody, bezpečnosti a práva, připojeného ke Smlouvě o EU a Smlouvě o fungování EU, není Irsko vázáno pravidly stanovenými v čl. 5 odst. 1 prvním pododstavci písm. g) v rozsahu, v němž se vztahují na používání systémů biometrické kategorizace k činnostem v oblasti policejní spolupráce a justiční spolupráce v trestních věcech, v čl. 5 odst. 1 prvním pododstavci písm. d) v rozsahu, v němž se vztahují na použití systémů AI, na něž se vztahuje uvedené ustanovení, v čl. 5 odst. 1 prvním pododstavci písm. h), v čl. 5 odst.2 až 6 a v čl. 26 odst. 10 tohoto nařízení přijatého na základě článku 16 Smlouvy o fungování EU, která se týkají zpracování osobních údajů členskými státy, vykonávají-li činnosti spadající do oblasti působnosti části třetí hlavy V kapitoly 4 nebo 5 Smlouvy o fungování EU, pokud není Irsko vázáno pravidly upravujícími formy justiční spolupráce v trestních věcech nebo policejní spolupráce, v jejichž rámci musí být dodržována ustanovení stanovená na základě článku 16 Smlouvy o fungování EU.
(41)
Nos termos dos artigos 2.o e 2.o-A do Protocolo (n.o 22) relativo à posição da Dinamarca, anexo ao TUE e ao TFUE, a Dinamarca não fica vinculada pelas regras estabelecidas no artigo 5.o, n.o 1, primeiro parágrafo, alínea g), na medida em que se aplica à utilização de sistemas de categorização biométrica para atividades no domínio da cooperação policial e da cooperação judicial em matéria penal, no artigo 5.o, n.o1, primeiro parágrafo, alínea d), na medida em que se aplica à utilização de sistemas de IA abrangidos por essa disposição, e no artigo 5.o, n.o 1, primeiro parágrafo, alínea h), n.os 2 a 6, e no artigo 26.o, n. 10, do presente regulamento, adotadas com base no artigo 16.o do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito de aplicação da parte III, título V, capítulos 4 ou 5, do TFUE, nem fica sujeita à aplicação das mesmas.
(41)
V souladu s články 2 a 2a Protokolu č. 22 o postavení Dánska, připojeného ke Smlouvě o EU a Smlouvě o fungování EU, nejsou pro Dánsko závazná ani použitelná pravidla stanovená čl. 5 odst. 1 prvním pododstavci písm. g) v rozsahu, v němž se vztahují na používání systémů biometrické kategorizace k činnostem v oblasti policejní spolupráce a justiční spolupráce v trestních věcech, v čl. 5 odst. 1 prvním pododstavci písm. d) v rozsahu, v němž se vztahují na použití systémů AI, na něž se vztahuje uvedené ustanovení, v čl. 5 odst. 1 prvním pododstavci písm. h), v čl. 5 odst.2 až 6 a čl. 26 odst. 10 tohoto nařízení přijatého na základě článku 16 Smlouvy o fungování EU, která se týkají zpracování osobních údajů členskými státy, vykonávají-li činnosti spadající do oblasti působnosti části třetí hlavy V kapitoly 4 nebo 5 Smlouvy o fungování EU.
(42)
Em conformidade com a presunção de inocência, as pessoas singulares na União deverão ser sempre avaliadas em função do seu comportamento real. As pessoas singulares nunca poderão ser julgadas com base no comportamento previsto pela IA com base exclusivamente na definição do seu perfil, nos traços ou características da sua personalidade, como a nacionalidade, o local de nascimento, o local de residência, o número de filhos, o nível de endividamento ou o tipo de automóvel que têm, sem que exista uma suspeita razoável do seu envolvimento numa atividade criminosa com base em factos objetivos verificáveis, e sem uma avaliação humana dos mesmos. Por conseguinte, deverá ser proibido efetuar avaliações de risco de pessoas singulares que visem avaliar a probabilidade de cometerem infrações ou prever a ocorrência de uma infração penal real ou potencial exclusivamente com base na definição do seu perfil ou na avaliação dos traços e características da sua personalidade. Em todo o caso, essa proibição não se refere nem diz respeito a análises de risco que não se baseiem na definição de perfis de pessoas ou nos traços e características da personalidade de pessoas, tais como sistemas de IA que utilizam análises de risco para avaliar a probabilidade de fraude financeira por parte de empresas com base em transações suspeitas, ou ferramentas de análise de risco para prever a probabilidade de localização de estupefacientes ou mercadorias ilícitas pelas autoridades aduaneiras, por exemplo, com base em rotas de tráfico conhecidas.
(42)
V souladu s presumpcí neviny by fyzické osoby v Unii měly být vždy posuzovány podle svého skutečného chování. Fyzické osoby by nikdy neměly být posuzovány na základě chování předvídaného AI pouze na základě jejich profilování, osobnostních rysů nebo charakteristik, jako je státní příslušnost, místo narození, místo bydliště, počet dětí, výše dluhu nebo typ vozidla, aniž by na základě objektivních ověřitelných skutečností existovalo důvodné podezření, že se dotčená osoba podílí na trestné činnosti, a aniž by bylo provedeno posouzení člověkem. Proto by mělo být zakázáno provádět posouzení rizik ve vztahu k fyzickým osobám za účelem posouzení pravděpodobnosti spáchání trestného činu těmito osobami nebo předvídání skutečného nebo potenciálního trestného činu pouze na základě profilování těchto osob nebo posouzení jejich osobnostních rysů a charakteristik. V každém případě se tento zákaz nevztahuje na analýzy rizik, které nejsou založeny na profilování jednotlivců nebo na osobnostních rysech a charakteristikách jednotlivců, jako jsou systémy AI využívající analýzu rizik k posouzení pravděpodobnosti finančních podvodů ze strany podniků na základě podezřelých transakcí nebo nástroje analýzy rizik, které umožňují předvídat pravděpodobnost lokalizace omamných látek nebo nezákonného zboží celními orgány, například na základě známých tras využívaných k obchodování s těmito látkami či zbožím, a tyto analýzy jím nejsou dotčeny.
(43)
A colocação no mercado, a colocação em serviço para esse fim específico ou a utilização de sistemas de IA que criam ou expandem bases de dados de reconhecimento facial através da recolha aleatória de imagens faciais da Internet ou de imagens de CCTV deverão ser proibidas por essa prática aumentar o sentimento de vigilância em larga escala e poder conduzir a violações grosseiras dos direitos fundamentais, incluindo o direito à privacidade.
(43)
Uvádění na trh nebo do provozu pro tento konkrétní účel nebo používání systémů AI, které vytvářejí nebo rozšiřují databáze rozpoznávání obličeje prostřednictvím necíleného získávání zobrazení obličeje z internetu nebo záznamů CCTV, by mělo být zakázáno, protože tato praxe přispívá k pocitu hromadného sledování a může vést k hrubému porušování základních práv, včetně práva na soukromí.
(44)
Existem sérias preocupações quanto à base científica dos sistemas de IA que visam identificar ou inferir emoções, especialmente porque a expressão de emoções varia consideravelmente entre culturas e situações, e até num mesmo indivíduo. Entre as principais deficiências desses sistemas contam-se a fiabilidade limitada, a falta de especificidade e a possibilidade limitada de generalização. Assim sendo, os sistemas de IA que identificam ou fazem inferências de emoções ou intenções de pessoas singulares com base nos seus dados biométricos podem conduzir a resultados discriminatórios e ser intrusivos nos direitos e liberdades das pessoas em causa. Tendo em conta o desequilíbrio de poder no contexto do trabalho ou da educação, combinado com a natureza intrusiva destes sistemas, tais sistemas podem conduzir a um tratamento prejudicial ou desfavorável de certas pessoas singulares ou de grupos inteiros de pessoas singulares. Por conseguinte, deverá ser proibida a colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA concebidos para serem utilizados na deteção do estado emocional das pessoas em situações relacionadas com o local de trabalho e a educação. Essa proibição não deverá abranger os sistemas de IA colocados no mercado exclusivamente por razões médicas ou de segurança, como os sistemas destinados a utilização terapêutica.
(44)
Existují vážné obavy ohledně vědeckého základu systémů AI, jejichž cílem je zjišťovat nebo odvozovat emoce, zejména z toho důvodu, že vyjádření emocí se v jednotlivých kulturách a situacích značně liší, a dokonce i u téhož jednotlivce. Mezi hlavní nedostatky těchto systémů patří omezená spolehlivost, nedostatečná specifičnost a omezená možnost zobecňování. Systémy AI, které zjišťují nebo odvozují emoce nebo záměry fyzických osob na základě jejich biometrických údajů, proto mohou vést k diskriminačním výsledkům a mohou zasahovat do práv a svobod dotčených osob. Vzhledem k nerovnováze moci v kontextu práce nebo vzdělávání ve spojení s invazivní povahou těchto systémů by tyto systémy mohly vést ke znevýhodňujícímu nebo nepříznivému zacházení s některými fyzickými osobami nebo celými skupinami fyzických osob. Uvádění na trh, uvádění do provozu nebo používání systémů AI určených k použití za účelem zjišťování emočního stavu jednotlivců v situacích souvisejících s prací a vzděláváním by proto mělo být zakázáno. Tento zákaz by se neměl vztahovat na systémy AI uváděné na trh výhradně z lékařských nebo bezpečnostních důvodů, jako jsou systémy určené k terapeutickému použití.
(45)
As práticas proibidas pelo direito da União, nomeadamente a legislação sobre proteção de dados, não discriminação, defesa do consumidor e direito da concorrência, não poderão ser afetadas pelo presente regulamento.
(45)
Tímto nařízením by neměly být dotčeny postupy, které jsou zakázány právem Unie, včetně práva v oblasti ochrany údajů, nediskriminace, ochrany spotřebitele a hospodářské soutěže.
(46)
Os sistemas de IA de risco elevado só deverão ser colocados no mercado da União, colocados em serviço ou utilizados se cumprirem determinados requisitos obrigatórios. Esses requisitos deverão assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representem riscos inaceitáveis para interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União. Com base no novo regime jurídico, tal como clarificado na comunicação da Comissão intitulada «Guia Azul de 2022 sobre a aplicação das regras da UE em matéria de produtos» (20), a regra geral é a de que mais do que um ato jurídico da legislação de harmonização da União, como os Regulamentos (UE) 2017/745 (21) e (UE) 2017/746 (22) do Parlamento Europeu e do Conselho ou a Diretiva 2006/42/CE do Parlamento Europeu e do Conselho (23), pode ser aplicável a um produto, uma vez que a disponibilização ou a colocação em serviço só pode ter lugar quando o produto cumprir toda a legislação de harmonização da União aplicável. A fim de assegurar a coerência e evitar encargos administrativos ou custos desnecessários, os prestadores de um produto que contenha um ou mais sistemas de IA de risco elevado, aos quais se aplicam os requisitos do presente regulamento e os requisitos dos atos enumerados na lista da legislação de harmonização da União constante de um anexo do presente regulamento, deverão ser flexíveis no que diz respeito às decisões operacionais sobre a forma otimizada de assegurar a conformidade de um produto que contenha um ou mais sistemas de IA com todos os requisitos aplicáveis da legislação harmonizada da União. A classificação de risco elevado aplicada a sistemas de IA deverá limitar-se aos sistemas que têm um impacto prejudicial substancial na saúde, na segurança e nos direitos fundamentais das pessoas na União, e tal limitação deverá minimizar quaisquer potenciais restrições ao comércio internacional.
(46)
Vysoce rizikové systémy AI by měly být uváděny na trh Unie, do provozu nebo používány pouze v případě, že splňují určité závazné požadavky. Tyto požadavky by měly zajistit, aby vysoce rizikové systémy AI, které jsou dostupné v Unii nebo jejichž výstupy jsou v Unii jinak využívány, nepředstavovaly nepřijatelné riziko pro důležité veřejné zájmy Unie uznané a chráněné právem Unie. Na základě nového legislativního rámce, jak je objasněno ve sdělení Komise „Modrá příručka“ k provádění pravidel EU pro výrobky (2022) (20), je obecným pravidlem, že na jeden produkt může být použitelný více než jeden právní akt náležející mezi harmonizační právní předpis Unie, jako jsou nařízení Evropského parlamentu a Rady (EU) 2017/745 (21) a 2017/746 (22) nebo směrnice Evropského parlamentu a Rady 2006/42/ES (23), neboť k dodání na trh nebo uvedení do provozu může dojít pouze v případě, že je produkt v souladu se všemi platnými harmonizačními právními předpisy Unie. Aby byla zajištěna soudržnost a zabránilo se zbytečné administrativní zátěži nebo nákladům, poskytovatelé produktu, který obsahuje jeden nebo více vysoce rizikových systémů AI, na něž se vztahují požadavky tohoto nařízení a harmonizačních právních předpisů Unie uvedených v příloze tohoto nařízení, by měli být flexibilní, pokud jde o přijímání provozních rozhodnutí o tom, jak optimálně zajistit soulad produktu obsahujícího jeden nebo více systémů AI se všemi platnými požadavky harmonizačních právních předpisů Unie. Označení systémů AI jako vysoce rizikové by mělo být omezeno na systémy, které mají významný škodlivý dopad na zdraví, bezpečnost a základní práva osob v Unii, a tímto omezením by se mělo minimalizovat jakékoli případné omezení mezinárodního obchodu.
(47)
Os sistemas de IA poderão ter repercussões negativas na saúde e na segurança das pessoas, em particular quando esses sistemas funcionam como componentes de segurança de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, cada vez mais autónomos, deverão poder operar com segurança e desempenhar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde — um setor no qual os riscos para a vida e a saúde são particularmente elevados —, os sistemas de diagnóstico e os sistemas que apoiam decisões humanas, que estão cada vez mais sofisticados, deverão produzir resultados exatos e de confiança.
(47)
Systémy AI by mohly mít nepříznivý dopad na zdraví a bezpečnost osob, zejména pokud tyto systémy fungují jako bezpečnostní komponenty. V souladu s cíli harmonizačních právních předpisů Unie, které mají usnadnit volný pohyb produktů na vnitřním trhu a zajistit, aby se na trh dostávaly pouze produkty bezpečné a jinak vyhovující, je důležitá náležitá prevence a zmírňování bezpečnostních rizik, která mohou případně vyplývat z produktu jako celku v důsledku jeho digitálních prvků, včetně systémů AI. Například stále autonomnější roboti, ať už v kontextu výroby, nebo osobní asistence a péče, by měli být schopni bezpečně fungovat a vykonávat své funkce ve složitých prostředích. Obdobně ve zdravotnictví, kde jsou život a zdraví vystaveny obzvláště vysokému riziku, by měly být stále sofistikovanější diagnostické systémy a systémy podporující lidská rozhodnutí spolehlivé a přesné.
(48)
A dimensão das repercussões negativas causadas pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais, a liberdade de expressão e de informação, a liberdade de reunião e de associação, o direito à não discriminação, o direito à educação, a defesa dos consumidores, os direitos dos trabalhadores, os direitos das pessoas com deficiência, a igualdade de género, os direitos de propriedade intelectual, o direito à ação e a um tribunal imparcial, o direito à defesa e a presunção de inocência, e o direito a uma boa administração. Além desses direitos, é importante salientar o facto de que as crianças têm direitos específicos, consagrados no artigo 24.o da Carta e na Convenção das Nações Unidas sobre os Direitos da Criança, desenvolvidos com mais pormenor no Comentário Geral n.o 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital, que exigem que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem-estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deverá ser tido em conta ao avaliar a gravidade dos danos que um sistema de IA pode causar, nomeadamente em relação à saúde e à segurança das pessoas.
(48)
Pro klasifikaci určitého systému AI jako vysoce rizikového je zvláště relevantní míra nepříznivého dopadu takového systému AI na základní práva chráněná Listinou. Tato práva zahrnují právo na lidskou důstojnost, respektování soukromého a rodinného života, ochranu osobních údajů, svobodu projevu a informací, svobodu shromažďování a sdružování, právo na nediskriminaci, právo na vzdělání, ochranu spotřebitele, práva pracovníků, práva osob se zdravotním postižením, genderovou rovnost, práva duševního vlastnictví, právo na účinnou právní ochranu a spravedlivý proces, právo na obhajobu a presumpci neviny a právo na řádnou správu. Kromě těchto práv je třeba zdůraznit skutečnost, že v článku 24 Listiny a v Úmluvě OSN o právech dítěte jsou zakotvena zvláštní práva dětí, dále rozpracovaná ve vztahu k digitálnímu prostředí v obecné připomínce č. 25 k Úmluvě o právech dítěte, přičemž oba dokumenty vyžadují zohlednění zranitelnosti dětí a poskytnutí takové ochrany a péče, která je nezbytná pro jejich blaho. Při posuzování závažnosti újmy, kterou může systém AI způsobit, a to i ve vztahu ke zdraví a bezpečnosti osob, by mělo být zohledněno také základní právo na vysokou úroveň ochrany životního prostředí zakotvené v Listině a provedené do politik Unie.
(49)
Relativamente aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito de aplicação do Regulamento (CE) n.o 300/2008 do Parlamento Europeu e do Conselho (24), do Regulamento (UE) n.o 167/2013 do Parlamento Europeu e do Conselho (25), do Regulamento (UE) n.o 168/2013 do Parlamento Europeu e do Conselho (26), da Diretiva 2014/90/UE do Parlamento Europeu e do Conselho (27), da Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho (28), do Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho (29), do Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho (30) e do Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho (31), é adequado alterar esses atos para assegurar que a Comissão tenha em conta os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado estabelecidos no presente regulamento aquando da adoção de quaisquer atos delegados ou de execução pertinentes com base nesses atos, atendendo às especificidades técnicas e regulamentares de cada setor e sem interferir nos mecanismos existentes de governação, de avaliação da conformidade e de execução nem com as autoridades estabelecidas nesses atos.
(49)
Pokud jde o vysoce rizikové systémy AI, které jsou bezpečnostními komponentami produktů nebo systémů, případně které jsou samy produkty nebo systémy spadajícími do působnosti nařízení Evropského parlamentu a Rady (ES) č. 300/2008 (24), nařízení Evropského parlamentu a Rady (EU) č. 167/2013 (25), nařízení Evropského parlamentu a Rady (EU) č. 168/2013 (26), směrnice Evropského parlamentu a Rady 2014/90/EU (27), směrnice Evropského parlamentu a Rady (EU) 2016/797 (28), nařízení Evropského parlamentu a Rady (EU) 2018/858 (29), nařízení Evropského parlamentu a Rady (EU) 2018/1139 (30) a nařízení Evropského parlamentu a Rady (EU) 2019/2144 (31), je vhodné tyto akty pozměnit s cílem zajistit, aby Komise při přijímání jakýchkoli relevantních aktů v přenesené pravomoci nebo prováděcích aktů na základě výše uvedených aktů zohledňovala povinné požadavky na vysoce rizikové systémy AI stanovené v tomto nařízení na základě technických a regulačních specifik jednotlivých odvětví, aniž by zasahovala do stávajících mechanismů správy, posuzování shody a prosazování ani do orgánů zřízených v rámci uvedených aktů.
(50)
Relativamente aos sistemas de IA que são componentes de segurança de produtos ou que são, eles próprios, produtos abrangidos pelo âmbito de determinada legislação de harmonização da União enumerada num anexo do presente regulamento, é apropriado classificá-los como sendo de risco elevado nos termos do presente regulamento se o produto em causa for objeto de um procedimento de avaliação da conformidade realizado por um organismo terceiro de avaliação da conformidade nos termos dessa legislação de harmonização da União aplicável. Em particular, esses produtos são máquinas, brinquedos, ascensores, aparelhos e sistemas de proteção destinados a ser utilizados em atmosferas potencialmente explosivas, equipamentos de rádio, equipamentos sob pressão, equipamentos de embarcações de recreio, instalações por cabo, aparelhos a gás, dispositivos médicos, dispositivos médicos para diagnóstico in vitro, automóveis e aviação
(50)
Pokud jde o systémy AI, které jsou bezpečnostními komponentami produktů nebo jsou produkty samy o sobě a které spadají do oblasti působnosti některých harmonizačních právních předpisů Unie uvedených v příloze tohoto nařízení, je vhodné je podle tohoto nařízení klasifikovat jako vysoce rizikové, pokud u dotyčného produktu provádí postup posuzování shody subjekt, který činnosti posuzování shody vykonává jakožto třetí strana podle příslušných harmonizačních právních předpisů Unie. Těmito produkty jsou zejména strojní zařízení, hračky, výtahy, zařízení a ochranné systémy určené k použití v prostředí s nebezpečím výbuchu, rádiová zařízení, tlaková zařízení, zařízení pro rekreační plavidla, lanové dráhy, spotřebiče plynných paliv, zdravotnické prostředky a diagnostické zdravotnické prostředky in vitro a automobilový průmysl a letectví.
(51)
A classificação de um sistema de IA como sendo de risco elevado nos termos do presente regulamento não deverá implicar necessariamente que se considere o produto cujo componente de segurança é o sistema de IA, ou o próprio sistema de IA enquanto produto, como sendo de «risco elevado» segundo os critérios estabelecidos na legislação de harmonização da União aplicável ao produto. É o caso, nomeadamente dos Regulamentos (UE) 2017/745 e (UE) 2017/746, em que é prevista uma avaliação da conformidade por terceiros para produtos de risco médio e elevado.
(51)
Klasifikace určitého systému AI jako vysoce rizikového podle tohoto nařízení by neměla nutně znamenat, že produkt, jehož je daný systém AI bezpečnostní komponentou, případně tento samotný systém AI jako produkt, je považován za vysoce rizikový podle kritérií stanovených v příslušných harmonizačních právních předpisech Unie, které se na tento produkt vztahují. To platí zejména pro nařízení (EU) 2017/745 a (EU) 2017/746, kde je pro produkty se středním a vysokým rizikem vyžadováno posuzování shody subjektem, který vykonává činnosti posuzování shody jakožto třetí strana.
(52)
Relativamente aos sistemas de IA autónomos, nomeadamente os sistemas de IA de risco elevado que não são componentes de segurança de produtos, ou que não são, eles próprios, produtos, é apropriado classificá-los como sendo de risco elevado se, à luz da sua finalidade prevista, representarem um risco elevado de danos para a saúde e a segurança ou de prejuízo para os direitos fundamentais das pessoas, tendo em conta a gravidade dos possíveis danos e a probabilidade da ocorrência desses danos, e se forem utilizados num conjunto de domínios especificamente predefinidos no presente regulamento. A identificação desses sistemas baseia-se na mesma metodologia e nos mesmos critérios previstos também para futuras alterações da lista de sistemas de IA de risco elevado que a Comissão deverá ficar habilitada a adotar, através de atos delegados, a fim de ter em conta o rápido ritmo da evolução tecnológica, bem como as potenciais alterações na utilização de sistemas de IA.
(52)
Pokud jde o samostatné systémy AI, konkrétně vysoce rizikové systémy AI s výjimkou těch, které představují bezpečnostní komponenty produktů nebo které jsou samy produkty, je vhodné je klasifikovat jako vysoce rizikové, pokud s ohledem na zamýšlený účel představují vysoké riziko újmy na zdraví a bezpečnosti nebo na základních právech osob s přihlédnutím jak k závažnosti možné újmy, tak k pravděpodobnosti, že nastane, a pokud jsou využívány v celé řadě oblastí uvedených v tomto nařízení, které jsou výslovně definovány předem. Identifikace těchto systémů je založena na stejné metodice a kritériích, jaké se předpokládají i u jakýchkoli budoucích změn seznamu vysoce rizikových systémů AI, k jejichž přijímání by měla být Komise zmocněna prostřednictvím aktů v přenesené pravomoci s cílem zohlednit rychlé tempo technologického vývoje, jakož i možné změny v používání systémů AI.
(53)
É igualmente importante esclarecer que podem existir casos específicos em que os sistemas de IA referidos em domínios predefinidos especificados no presente regulamento não conduzam a um risco significativo de prejuízo para os interesses jurídicos protegidos nesses domínios por não influenciarem significativamente a tomada de decisões ou não prejudicarem substancialmente esses interesses. Para efeitos do presente regulamento, um sistema de IA que não influencie significativamente o resultado da tomada de decisões deverá ser entendido como um sistema de IA que não tem impacto na substância nem, por conseguinte, no resultado da tomada de decisões, seja ele humano ou automatizado. Um sistema de IA que não influencie significativamente o resultado da tomada de decisões poderá incluir situações em que uma ou mais das seguintes condições estejam preenchidas. A primeira condição deverá ser a de que o sistema de IA se destina a desempenhar uma tarefa processual restrita, como um sistema de IA que transforma dados não estruturados em dados estruturados, um sistema de IA que classifica os documentos recebidos em categorias ou um sistema de IA que é utilizado para detetar duplicações entre um grande número de aplicações. Essas tarefas são de natureza tão restrita e limitada que representam apenas riscos limitados que não aumentam pela utilização num contexto que seja enumerado num anexo do presente regulamento como sendo uma utilização de um sistema de IA de risco elevado. A segunda condição deverá ser a de que a tarefa desempenhada pelo sistema de IA se destina a melhorar o resultado de uma atividade humana previamente concluída que possa ser relevante para efeitos dos usos de risco elevado enumerados num anexo do presente regulamento. Tendo em conta essas características, o sistema de IA proporciona apenas uma camada adicional a uma atividade humana, consequentemente com um risco reduzido. Essa condição será, por exemplo, aplicável aos sistemas de IA destinados a melhorar a linguagem utilizada em documentos redigidos anteriormente, por exemplo em relação ao tom profissional, ao estilo académico ou ao alinhamento do texto com uma determinada mensagem de marca. A terceira condição deverá ser a de que o sistema de IA se destina a detetar padrões de tomada de decisão ou desvios em relação aos padrões de tomada de decisão anteriores. O risco será reduzido porque a utilização do sistema de IA segue-se a uma avaliação humana previamente concluída, que não se destina a substituir nem a influenciar, sem uma revisão humana adequada. Esses sistemas de IA incluem, por exemplo, os que, tendo em conta um determinado padrão de atribuição de notas de um professor, podem ser utilizados para verificar ex post se o professor se pode ter desviado do padrão de atribuição de notas, de modo a assinalar potenciais incoerências ou anomalias. A quarta condição deverá ser a de que o sistema de IA se destina a executar uma tarefa que é apenas preparatória para uma avaliação pertinente para efeitos dos sistemas de IA enumerados num anexo do presente regulamento, tornando assim o possível impacto do resultado do sistema muito reduzido em termos de risco para a avaliação a realizar. Essa condição abrange, entre outras coisas, soluções inteligentes para o tratamento de ficheiros que incluem várias funções, como a indexação, a pesquisa, o processamento de texto e de voz ou a ligação de dados a outras fontes de dados, ou sistemas de IA utilizados para a tradução de documentos iniciais. Em qualquer caso, deverá considerar-se que os sistemas de IA utilizados em casos concretos de utilização de risco elevado, enumerados num anexo do presente regulamento, apresentam riscos significativos de danos para a saúde, a segurança ou os direitos fundamentais se o sistema de IA implicar a definição de perfis na aceção do artigo 4.o, ponto 4, do Regulamento (UE) 2016/679, do artigo 3.o, ponto 4, da Diretiva (UE) 2016/680 ou do artigo 3.o, ponto 5, do Regulamento (UE) 2018/1725. A fim de assegurar a rastreabilidade e a transparência, um prestador que considere que um sistema de IA não é de risco elevado com base nas condições referidas supra deverá elaborar a documentação da avaliação antes de esse sistema ser colocado no mercado ou colocado em serviço e deverá apresentar essa documentação às autoridades nacionais competentes mediante pedido. Tal prestador deverá ser obrigado a registar o sistema de IA na base de dados da UE criada ao abrigo do presente regulamento. Com vista a disponibilizar orientações adicionais para a aplicação prática das condições ao abrigo das quais os sistemas de IA referidos num anexo ao presente regulamento não são, a título excecional, de risco elevado, a Comissão deverá, após consulta do Comité, disponibilizar orientações que especifiquem essa aplicação prática, completadas por uma lista exaustiva de exemplos práticos de casos de utilização de sistemas de IA que sejam de risco elevado e de casos de utilização risco não elevado.
(53)
Je rovněž důležité vyjasnit, že mohou existovat zvláštní případy, kdy systémy AI uvedené v předem vymezených oblastech specifikovaných v tomto nařízení nezakládají významné riziko poškození právních zájmů, které jsou v těchto oblastech chráněny, protože nemají podstatný vliv na rozhodování nebo tyto zájmy podstatně nepoškozují. Pro účely tohoto nařízení by se systémem AI, který nemá podstatný vliv na výsledek rozhodování, měl rozumět systém AI, který nemá vliv na podstatu, a tím ani na výsledek rozhodování, ať už jde o lidské, nebo automatizované rozhodování. Systém AI, který podstatně neovlivňuje výsledek rozhodování, by mohl zahrnovat situace, kdy je splněna jedna nebo více z následujících podmínek. Prvním takovou podmínkou by mělo být, že je daný systém AI určen k plnění úzce vymezeného procedurálního úkolu, jako je systém AI, který přeměňuje nestrukturovaná data na data strukturovaná, systém AI, který třídí příchozí dokumenty do kategorií, nebo systém AI, který se používá k odhalování duplicit mezi velkým počtem žádostí. Tyto úkoly jsou natolik úzké a omezené povahy, že představují pouze omezená rizika, která se použitím systému AI v kontextu uvedeném na seznamu v příloze tohoto nařízení jako vysoce rizikové použití nezvyšují. Druhou podmínkou by mělo být, že úkol prováděný daným systémem AI je určen ke zlepšení výsledku dříve dokončené lidské činnosti, která může být relevantní pro účely vysoce rizikového použití uvedeného v seznamu v příloze tohoto nařízení. Vzhledem k těmto vlastnostem přidává takový systém AI pouze další vrstvu k lidské činnosti, a riziko je tudíž nízké. Tato podmínka by se například vztahovala na systémy AI, které mají zdokonalit formulace použité v dříve vypracovaných dokumentech, například z hlediska odborného vyjadřování, akademického stylu nebo přizpůsobení textu určitému sdělení značky. Třetí podmínkou by mělo být, že je daný systém AI určen k odhalování vzorců rozhodování nebo odchylek od předchozích vzorců rozhodování. Riziko by bylo sníženo, protože použití takového systému AI následuje po dříve dokončeném lidském posouzení, které jím nemá být bez řádného lidského přezkumu nahrazeno ani ovlivněno. Mezi takové systémy AI patří například ty, které mohou být při určitém způsobu známkování ze strany učitele použity k následné kontrole, zda se učitel od tohoto způsobu známkování mohl odchýlit, a upozornit tak na možné nesrovnalosti nebo anomálie. Čtvrtou podmínkou by mělo být, že je daný systém AI určen k plnění úkolu, který je pouze přípravou k posouzení relevantnímu pro účely systémů AI uvedených v příloze tohoto nařízení, a možný dopad výstupu systému z hlediska rizika, jež pro následné posouzení představuje, je tudíž velmi nízký. Tato podmínka se vztahuje mimo jiné na inteligentní řešení pro zpracování souborů, která zahrnují různé funkce jako indexování, vyhledávání, zpracování textu a řeči nebo propojení dat s jinými zdroji údajů, nebo systémy AI používané pro překlad výchozích dokumentů. V každém případě by se mělo mít za to, že tyto systémy AI používané v případech vysoce rizikového použití uvedených v příloze tohoto nařízení představují významné riziko poškození zdraví, bezpečnosti nebo základních práv, pokud systém AI zahrnuje profilování ve smyslu čl. 4 bodu. 4 nařízení (EU) 2016/679, čl. 3 bodu 4 směrnice (EU) 2016/680 nebo čl. 3 bodu 5 nařízení 2018/1725. Aby byla zajištěna sledovatelnost a transparentnost, měl by poskytovatel, který se na základě výše uvedených podmínek domnívá, že určitý systém AI vysoce rizikový není, vypracovat dokumentaci o posouzení před uvedením tohoto systému na trh nebo do provozu a měl by tuto dokumentaci na požádání poskytnout příslušným vnitrostátním orgánům. Tento poskytovatel by měl mít povinnost zaregistrovat systém AI v databázi EU zřízené podle tohoto nařízení. Jako další pokyny pro praktické provádění podmínek, podle nichž systémy AI uvedené v příloze tohoto nařízení vysoce rizikové výjimečně nejsou, by Komise měla po konzultaci s radou poskytnout pokyny upřesňující toto praktické provádění doplněné komplexním seznamem praktických příkladů použití vysoce rizikových systémů AI a příkladů použití systémů AI, jež vysoce rizikové nejsou.
(54)
Uma vez que os dados biométricos constituem uma categoria especial de dados pessoais, é adequado classificar como sendo de risco elevado vários casos de utilização críticos de sistemas biométricos, na medida em que a sua utilização seja permitida pelo direito da União e o direito nacional aplicáveis. As inexatidões técnicas dos sistemas de IA concebidos para a identificação biométrica à distância de pessoas singulares podem conduzir a resultados enviesados e ter efeitos discriminatórios. O risco desses resultados enviesados e efeitos discriminatórios é particularmente relevante no que diz respeito à idade, etnia, raça, sexo ou deficiência. Os sistemas de identificação biométrica à distância deverão ser, por conseguinte, classificados como de risco elevado, tendo em conta os riscos que representam. Dessa classificação estão excluídos os sistemas de IA concebidos para serem utilizados na verificação biométrica, incluindo a autenticação, cujo único objetivo é confirmar que uma pessoa singular específica é quem afirma ser e confirmar a identidade de uma pessoa singular com o único objetivo de ter acesso a um serviço, desbloquear um dispositivo ou ter acesso seguro a uma instalação. Além disso, os sistemas de IA concebidos para serem utilizados para categorização biométrica de acordo com atributos ou características sensíveis protegidos nos termos do artigo 9.o, n.o 1, do Regulamento (UE) 2016/679 com base em dados biométricos, na medida em que não sejam proibidos nos termos do presente regulamento, e os sistemas de reconhecimento de emoções não proibidos nos termos do presente regulamento deverão ser classificados como sendo de risco elevado. Os sistemas biométricos destinados a serem utilizados exclusivamente para permitir medidas de cibersegurança e de proteção de dados pessoais não deverão ser considerados sistemas de IA de risco elevado.
(54)
Vzhledem k tomu, že zvláštní kategorii osobních údajů představují biometrické údaje, je vhodné klasifikovat jako vysoce rizikové několik případů kritického použití biometrických systémů, pokud je jejich používání povoleno podle příslušného práva Unie a vnitrostátního práva. Technické nepřesnosti systémů AI určených pro biometrickou identifikaci fyzických osob na dálku mohou vést ke zkresleným výsledkům a mít diskriminační účinky. Riziko takto předpojatých výsledků a diskriminačních účinků je obzvláště relevantní ve vztahu k věku, etnické příslušnosti, rase, pohlaví nebo zdravotnímu postižení. Systémy biometrické identifikace na dálku by proto s ohledem na rizika, která představují, měly být klasifikovány jako vysoce rizikové. Taková klasifikace se nevztahuje na systémy AI určené k biometrickému ověřování, včetně autentizace, jejichž jediným účelem je potvrdit, zda je konkrétní fyzická osoba osobou, za niž se prohlašuje, a systémy, které se používají k potvrzení totožnosti fyzické osoby za jediným účelem, kterým je získání přístupu ke službě, odblokování zařízení nebo získání bezpečného přístupu k prostorám. Kromě toho by jako vysoce rizikové měly být klasifikovány systémy AI určené k použití pro biometrickou kategorizaci podle citlivých atributů nebo vlastností chráněných podle čl. 9 odst. 1 nařízení (EU) 2016/679 na základě biometrických údajů, pokud nejsou tímto nařízením zakázány, a systémy rozpoznávání emocí, které nejsou tímto nařízením zakázány. Biometrické systémy, které jsou určeny k použití výhradně za účelem podpory opatření v oblasti kybernetické bezpečnosti a ochrany osobních údajů, by za vysoce rizikové systémy AI považovány být neměly.
(55)
No tocante à gestão e ao funcionamento de infraestruturas críticas, é apropriado classificar como sendo de risco elevado os sistemas de IA que se destinam a ser utilizados como componentes de segurança na gestão e no funcionamento das infraestruturas digitais críticas conforme enumeradas no ponto 8 do anexo I da Diretiva (UE) 2022/2557, do trânsito rodoviário e das redes de abastecimento de água, gás, aquecimento e eletricidade, uma vez que a falha ou anomalia desses sistemas pode pôr em risco a vida e a saúde das pessoas em larga escala e provocar perturbações substanciais das atividades sociais e económicas normais. Os componentes de segurança das infraestruturas críticas, incluindo as infraestruturas digitais críticas, são sistemas utilizados para proteger diretamente a integridade física das infraestruturas críticas ou a saúde e a segurança das pessoas e dos bens, mas que não são necessários para o funcionamento do sistema. A falha ou a anomalia desses componentes pode conduzir diretamente a riscos para a integridade física das infraestruturas críticas e, por conseguinte, a riscos para a saúde e a segurança das pessoas e dos bens. Os componentes destinados a serem utilizados exclusivamente para fins de cibersegurança não deverão ser considerados componentes de segurança. Os exemplos de componentes de segurança dessas infraestruturas críticas podem incluir sistemas de monitorização da pressão da água ou sistemas de controlo de alarmes de incêndio em centros de computação em nuvem.
(55)
Pokud jde o správu a provoz kritické infrastruktury, je vhodné klasifikovat jako vysoce rizikové takové systémy AI, které jsou určeny k použití jako bezpečnostní komponenty při řízení a provozu kritické digitální infrastruktury, jak je uvedeno v bodu 8 přílohy směrnice (EU) 2022/2557, silniční dopravy a při zásobování vodou, plynem, teplem a elektřinou, protože jejich porucha nebo chybné fungování může ohrozit život a zdraví osob ve velkém rozsahu a vést ke značnému narušení běžného provozu sociálních a hospodářských činností. Bezpečnostní komponenty kritické infrastruktury, včetně kritické digitální infrastruktury, jsou systémy používané k přímé ochraně fyzické integrity kritické infrastruktury nebo zdraví a bezpečnosti osob a majetku, které však nemusí být nutně v zájmu zajištění funkčnosti systému. Selhání nebo špatné fungování těchto komponent může přímo vést k ohrožení fyzické integrity kritické infrastruktury, a tím i k ohrožení zdraví a bezpečnosti osob a majetku. Komponenty určené k použití výhradně pro účely kybernetické bezpečnosti by neměly být považovány za bezpečnostní komponenty. Mezi příklady bezpečnostních komponent takové kritické infrastruktury mohou patřit systémy pro monitorování tlaku vody nebo systémy řízení požárního poplachu ve střediscích cloud computingu.
(56)
A implantação de sistemas de IA no domínio da educação é importante para promover a educação e a formação digitais de elevada qualidade e permitir que todos os aprendentes e professores adquiram e partilhem as aptidões e competências digitais necessárias, incluindo a literacia mediática e o pensamento crítico, a fim de participarem ativamente na economia, na sociedade e nos processos democráticos. Contudo, os sistemas de IA utilizados no domínio da educação ou da formação profissional, nomeadamente para determinar o acesso ou a admissão, para afetar pessoas a instituições ou a programas de ensino e de formação profissional em todos os níveis, para avaliar os resultados de aprendizagem das pessoas, para aferir o grau de ensino adequado para uma pessoa e influenciar de forma substancial o nível de ensino e formação que as pessoas receberão, ou a que serão capazes de aceder, ou para monitorizar e detetar comportamentos proibidos de estudantes durante os testes, deverão ser considerados sistemas de IA de risco elevado, uma vez que podem determinar o percurso educativo e profissional de uma pessoa e, como tal, pode afetar a capacidade dessa pessoa assegurar a subsistência. Se indevidamente concebidos e utilizados, estes sistemas podem ser particularmente intrusivos e violar o direito à educação e à formação, bem como o direito a não ser alvo de discriminação nem de perpetuação de padrões históricos de discriminação, por exemplo contra as mulheres, determinados grupos etários, pessoas com deficiência ou pessoas de uma determinada origem racial ou étnica ou orientação sexual.
(56)
Ve vzdělávání je zavádění systémů AI důležité pro podporu vysoce kvalitního digitálního vzdělávání a odborné přípravy a pro to, aby všichni účastníci vzdělávání a učitelé mohli získat a sdílet nezbytné digitální dovednosti a kompetence, včetně mediální gramotnosti a kritického myšlení, a mohli se tak aktivně zapojit do ekonomiky, společnosti a demokratických procesů. Jako vysoce rizikové by však měly být klasifikovány systémy AI používané ve vzdělávání nebo v odborné přípravě, zejména při určování přístupu osob do školských institucí a programů nebo institucí nebo programů odborného vzdělávání, jejich přijímání nebo přidělování do těchto institucí nebo programů na všech úrovních nebo pro hodnocení výsledků učení osob, pro posouzení vhodné úrovně vzdělávání jednotlivce a věcného vlivu úrovně vzdělávání a odborné přípravy, které tito jedinci obdrží, nebo pro určení přístupu nebo pro monitorování a detekci zakázaného chování studentů během testů, neboť takovéto systémy mohou určovat vzdělávací a profesní průběh života určité osoby, a tím mohou ovlivňovat její schopnost zajišťovat si živobytí. Pokud budou tyto systémy navrženy a používány nesprávně, mohou být mimořádně invazivní a mohou porušovat právo na vzdělávání a odbornou přípravu i právo nebýt diskriminován a fixovat historické vzorce diskriminace, například vůči ženám, určitým věkovým skupinám, osobám se zdravotním postižením nebo osobám určitého rasového nebo etnického původu nebo sexuální orientace.
(57)
Os sistemas de IA utilizados nos domínios do emprego, da gestão de trabalhadores e do acesso ao emprego por conta própria, nomeadamente para efeitos de recrutamento e seleção de pessoal, de tomada de decisões que afetem os termos da relação de trabalho, de promoção e cessação das relações contratuais de trabalho, de atribuição de tarefas com base em comportamentos individuais, traços ou características pessoais, e de controlo ou avaliação de pessoas no âmbito de relações contratuais de trabalho também deverão ser classificados como sendo de risco elevado, uma vez que podem ter um impacto significativo nas perspetivas de carreira, na subsistência dessas pessoas e nos direitos dos trabalhadores. O conceito de «relações contratuais de trabalho» deverá abranger de forma significativa os funcionários e as pessoas que prestam serviços por intermédio de plataformas a que se refere o programa de trabalho da Comissão para 2021. Ao longo do processo de recrutamento e na avaliação, promoção ou retenção de pessoal em relações contratuais de trabalho, esses sistemas podem perpetuar padrões históricos de discriminação, por exemplo, contra as mulheres, contra certos grupos etários, contra as pessoas com deficiência ou contra pessoas de uma determinada origem racial ou étnica ou orientação sexual. Os sistemas de IA utilizados para controlar o desempenho e o comportamento dessas pessoas podem ainda comprometer os seus direitos fundamentais à proteção de dados pessoais e à privacidade.
(57)
Jako vysoce rizikové by měly být klasifikovány rovněž systémy AI používané při zaměstnávání, řízení pracovníků a při přístupu k samostatné výdělečné činnosti, zejména při náboru a výběru osob, při rozhodováních ovlivňujících podmínky pracovního poměru, povýšení a ukončení smluvních pracovněprávních vztahů, při přidělování úkolů na základě individuálního chování, osobnostních rysů či vlastností a při monitorování nebo hodnocení osob ve smluvních pracovněprávních vztazích, protože mohou významně ovlivnit budoucí kariérní vyhlídky, živobytí těchto osob a práva pracovníků. Příslušné smluvní pracovněprávní vztahy by měly smysluplně zahrnovat zaměstnance a osoby poskytující služby prostřednictvím platforem, jak je uvedeno v pracovním programu Komise na rok 2021. Tyto systémy mohou v průběhu celého procesu náboru a při hodnocení, povyšování nebo udržování osob ve smluvních pracovněprávních vztazích fixovat historické vzorce diskriminace, například vůči ženám, určitým věkovým skupinám, osobám se zdravotním postižením nebo osobám určitého rasového nebo etnického původu nebo sexuální orientace. Systémy AI používané k monitorování výkonnosti a chování těchto osob mohou rovněž ohrožovat jejich základní práva na ochranu údajů a soukromí.
(58)
Outro domínio no qual a utilização de sistemas de IA merece especial atenção é o acesso a determinados serviços e prestações essenciais, de cariz privado e público, e o usufruto dos mesmos, os quais são necessários para que as pessoas participem plenamente na sociedade ou melhorem o seu nível de vida. Em especial, as pessoas singulares que se candidatam a receber ou que recebem prestações e serviços de assistência pública essenciais de autoridades públicas, nomeadamente serviços de cuidados de saúde, prestações de segurança social, serviços sociais que prestam proteção em casos como maternidade, doença, acidentes de trabalho, dependência ou velhice e perda de emprego e assistência social e de habitação, dependem normalmente dessas prestações e serviços e estão numa posição vulnerável face às autoridades responsáveis. Caso sejam utilizados para determinar a concessão, recusa, redução, revogação ou recuperação dessas prestações e serviços pelas autoridades, nomeadamente para determinar se os beneficiários têm legítimo direito a essas prestações ou serviços, os sistemas de IA podem ter um impacto significativo na subsistência das pessoas e podem violar os seus direitos fundamentais, como o direito à proteção social, à não discriminação, à dignidade do ser humano ou à ação, pelo que deverão ser classificados como sendo de risco elevado. No entanto, o presente regulamento não deverá constituir um obstáculo ao desenvolvimento e à utilização de abordagens inovadoras na administração pública, que tirariam partido de uma maior utilização de sistemas de IA conformes e seguros, desde que esses sistemas não acarretem um risco elevado para as pessoas coletivas e singulares. Além disso, os sistemas de IA utilizados para avaliar a classificação de crédito ou a solvabilidade de pessoas singulares deverão ser classificados como sistemas de IA de risco elevado, uma vez que determinam o acesso dessas pessoas a recursos financeiros ou a serviços essenciais, como o alojamento, a eletricidade e os serviços de telecomunicações. Os sistemas de IA utilizados para essas finalidades podem conduzir à discriminação entre pessoas ou grupos e podem perpetuar padrões históricos de discriminação, como em razão da origem étnica ou racial, do género, da deficiência, da idade ou da orientação sexual, ou podem criar novas formas de impacto discriminatório. No entanto, os sistemas de IA previstos pelo direito da União para efeitos de deteção de fraudes na oferta de serviços financeiros e para fins prudenciais com vista a calcular os requisitos de capital das instituições de crédito e das seguradoras não deverão ser considerados de risco elevado nos termos do presente regulamento. Além disso, os sistemas de IA concebidos com vista a serem utilizados para avaliação dos riscos e fixação de preços em relação a pessoas singulares para seguros de saúde e de vida também podem ter um impacto significativo na subsistência das pessoas e, se não forem devidamente concebidos, desenvolvidos e utilizados, podem infringir os seus direitos fundamentais e ter consequências graves para a vida e a saúde das pessoas, incluindo a exclusão financeira e a discriminação. Por último, os sistemas de IA utilizados para avaliar e classificar chamadas de emergência efetuadas por pessoas singulares ou para enviar ou estabelecer prioridades no envio de serviços de primeira resposta a emergências, nomeadamente pela polícia, bombeiros e assistência médica, bem como por sistemas de triagem de doentes para cuidados de saúde de emergência, também deverão ser classificados como sendo de risco elevado, uma vez que tomam decisões em situações bastante críticas que afetam a vida, a saúde e os bens das pessoas.
(58)
Další oblastí, ve které si používání systémů AI zaslouží zvláštní pozornost, je přístup k určitým základním soukromým a veřejným službám a výhodám nezbytným pro plné zapojení osob do společnosti nebo pro zlepšení jejich životní úrovně. Zejména fyzické osoby, které žádají o základní dávky sociálního zabezpečení a veřejné asistenční služby u veřejných orgánů, případně kterým jsou tyto dávky a služby poskytovány, konkrétně služby zdravotní péče, dávky sociálního zabezpečení, sociální služby zajišťující ochranu v takových případech, jako je mateřství, nemoc, pracovní úrazy, závislost nebo stáří, jakož i v případě ztráty zaměstnání a sociální pomoci a pomoci v oblasti bydlení, jsou zpravidla na těchto dávkách a službách závislé a nacházejí se ve vztahu k odpovědným orgánům ve zranitelném postavení. Jsou-li systémy AI používány k určování toho, zda by tyto orgány měly tyto dávky a služby poskytnout, zamítnout, omezit, zrušit nebo žádat jejich navrácení, včetně toho, zda mají příjemci na tyto dávky nebo služby legitimní nárok, mohou tyto systémy mít významný dopad na živobytí daných osob a mohou porušovat jejich základní práva, jako je právo na sociální ochranu, na zákaz diskriminace, na lidskou důstojnost nebo na účinnou právní ochranu, a měly by proto být klasifikovány jako vysoce rizikové. Toto nařízení by však nemělo bránit rozvoji a používání inovativních přístupů ve veřejné správě, pro kterou by mohlo být širší používání vyhovujících a bezpečných systémů AI prospěšné, pokud tyto systémy nepředstavují vysoké riziko pro právnické a fyzické osoby. Kromě toho by jako vysoce rizikové systémy AI by měly být klasifikovány systémy AI používané k hodnocení rizika úvěrů nebo úvěruschopnosti fyzických osob, protože určují přístup těchto osob k finančním zdrojům nebo k základním službám, jako je bydlení, elektřina a telekomunikační služby. Systémy AI používané pro tyto účely mohou vést k diskriminaci mezi osobami nebo skupinami a mohou fixovat historické vzorce diskriminace, například na základě rasového nebo etnického původu, genderu, zdravotního postižení, věku a sexuální orientace, nebo mohou vytvářet nové formy diskriminačních dopadů. Systémy AI stanovené právem Unie pro účely odhalování podvodů při nabízení finančních služeb a pro účely obezřetnosti za účelem výpočtu kapitálových požadavků úvěrových institucí a pojišťoven, by však neměly být podle tohoto nařízení považovány za vysoce rizikové. Kromě toho systémy AI určené k použití pro posuzování rizik a stanovování cen ve vztahu k fyzickým osobám pro účely zdravotního a životního pojištění mohou mít rovněž významný dopad na živobytí osob, a pokud nejsou řádně navrženy, vyvinuty a používány, mohou porušovat jejich základní práva a mohou mít závažné důsledky pro život a zdraví lidí, včetně finančního vyloučení a diskriminace. A konečně by měly být jako vysoce rizikové klasifikovány rovněž systémy AI používané pro hodnocení a klasifikaci tísňových volání fyzických osob nebo při dispečinku pohotovostních služeb nebo stanovení priorit při tomto dispečinku, včetně policie, hasičů a lékařské pomoci, jakož i systémy třídění pacientů ve zdravotnictví, protože rozhodují v situacích, které jsou velmi kritické pro život a zdraví osob a jejich majetek.
(59)
Tendo em conta o papel e a responsabilidade das autoridades responsáveis pela aplicação da lei, as suas ações que implicam certas utilizações dos sistemas de IA são caracterizadas por um grau substancial de desequilíbrio de poder e podem conduzir à vigilância, detenção ou privação da liberdade de uma pessoa singular, bem como ter outras repercussões negativas nos direitos fundamentais garantidos pela Carta. Em particular, se não for treinado com dados de alta qualidade, não cumprir os requisitos adequados em termos de desempenho, de exatidão ou solidez, ou não tiver sido devidamente concebido e testado antes de ser colocado no mercado ou em serviço, o sistema de IA pode selecionar pessoas de uma forma discriminatória, incorreta ou injusta. Além disso, o exercício de importantes direitos fundamentais processuais, como o direito à ação e a um tribunal imparcial, o direito à defesa e a presunção de inocência, pode ser prejudicado, em particular, se esses sistemas de IA não forem suficientemente transparentes, explicáveis e documentados. Como tal, é apropriado classificar como sendo de risco elevado, na medida em que a sua utilização seja permitida nos termos do direito da União e o direito nacional aplicáveis, vários sistemas de IA que se destinam a ser utilizados no contexto da aplicação da lei, no qual a exatidão, a fiabilidade e a transparência são particularmente importantes para evitar repercussões negativas, manter a confiança do público e assegurar a responsabilidade e vias de recurso eficazes. Tendo em conta a natureza das atividades e os riscos associados às mesmas, esses sistemas de IA de risco elevado deverão incluir, em particular, sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei ou por instituições, órgãos ou organismos da União, ou em seu nome, em apoio das autoridades responsáveis pela aplicação da lei para avaliar o risco de uma pessoa singular vir a ser vítima de infrações penais, como polígrafos e instrumentos semelhantes, para avaliar a fiabilidade dos elementos de prova no decurso da investigação ou da repressão de infrações penais, e, na medida em que tal não seja proibido nos termos do presente regulamento, para avaliar o risco de uma pessoa singular cometer uma infração ou reincidência não apenas com base na definição de perfis de pessoas singulares ou na avaliação os traços e características da personalidade ou do comportamento criminal passado de pessoas singulares ou grupos, para a definição de perfis no decurso da deteção, investigação ou repressão de infrações penais. Os sistemas de IA especificamente concebidos para serem utilizados em processos administrativos por autoridades fiscais e aduaneiras, bem como por unidades de informação financeira que desempenhem funções administrativas de análise de informações nos termos do direito da União em matéria de combate ao branqueamento de capitais, não deverão ser classificados como sistemas de IA de risco elevado utilizados por autoridades responsáveis pela aplicação da lei para efeitos de prevenção, deteção, investigação e repressão de infrações penais. A utilização de ferramentas de IA pelas autoridades responsáveis pela aplicação da lei e por outras autoridades pertinentes não deverá tornar-se um fator de desigualdade nem de exclusão. Não se deverá descurar o impacto da utilização de ferramentas de IA nos direitos de defesa dos suspeitos, nomeadamente a dificuldade de obter informações significativas sobre o funcionamento desses sistemas e a dificuldade daí resultante de contestar os seus resultados em tribunal, em particular quando se trate de pessoas singulares sob investigação.
(59)
Opatření donucovacích orgánů zahrnující určitá použití systémů AI se s ohledem na jejich úlohu a odpovědnost vyznačují značným stupněm nerovnováhy sil a mohou vést ke sledování fyzické osoby, jejímu zatčení nebo zbavení svobody, jakož i k dalším nepříznivým dopadům na základní práva zaručená Listinou. Zejména v případě, že systém AI nebyl trénován na vysoce kvalitních datech, nesplňuje odpovídající požadavky na výkonnost, přesnost nebo spolehlivost nebo není před uvedením na trh nebo jiným uvedením do provozu řádně navržen a otestován, může dojít k vyčleňování osob diskriminačním nebo jinak nesprávným nebo nespravedlivým způsobem. Kromě toho by mohl být omezen výkon důležitých základních procesních práv, jako je právo na účinnou ochranu a na spravedlivý proces, jakož i právo na obhajobu a presumpce neviny, zejména pokud tyto systémy AI nejsou dostatečně transparentní, vysvětlitelné a zdokumentované. Je proto vhodné klasifikovat jako vysoce rizikové celou řadu systémů AI určených k použití v kontextu vymáhání práva, kde je přesnost, spolehlivost a transparentnost obzvláště důležitá, pokud je jejich používání povoleno podle příslušného práva Unie a vnitrostátního práva, s cílem zabránit nepříznivým dopadům, zachovat důvěru veřejnosti a zajistit odpovědnost a účinné opravné prostředky. S ohledem na povahu činností a na rizika s nimi spojená by tyto vysoce rizikové systémy AI měly zahrnovat zejména systémy AI určené k použití donucovacími orgány nebo jejich jménem nebo orgány, institucemi nebo jinými subjekty Unie na podporu donucovacích orgánů při posuzování rizika, že se fyzická osoba stane obětí trestných činů, jako jsou polygrafy a podobné nástroje, k vyhodnocování spolehlivosti důkazů v průběhu vyšetřování nebo stíhání trestných činů, a pokud to není zakázáno tímto nařízením, k posuzování rizika protiprávního jednání nebo opakovaného protiprávního jednání fyzické osoby, a to nejen na základě profilování fyzických osob, ani na základě posuzování osobnostních a povahových rysů nebo předchozí trestné činnosti fyzických osob nebo skupin, k profilování v průběhu odhalování, vyšetřování nebo stíhání trestných činů. Systémy AI výslovně určené k použití daňovými a celními orgány při správním řízení, jakož i finančními zpravodajskými jednotkami provádějícími administrativní úkoly při analýze informací podle práva Unie proti praní peněz, by neměly být klasifikovány jako vysoce rizikové systémy AI používané donucovacími orgány za účelem prevence, odhalování, vyšetřování a stíhání trestných činů. Využívání nástrojů AI donucovacími orgány a dalšími relevantními orgány by se nemělo stát faktorem nerovnosti nebo vyloučení. Dopad používání nástrojů AI na práva podezřelých osob na obhajobu by neměl být opomíjen, zejména pokud jde o obtíže při získávání důležitých informací o fungování těchto systémů a související problémy při vznesení námitek proti jejich výsledkům u soudu, zejména ze strany vyšetřovaných fyzických osob.
(60)
Os sistemas de IA utilizados na gestão da migração, do asilo e do controlo das fronteiras afetam pessoas que, muitas vezes, se encontram numa posição particularmente vulnerável e que dependem do resultado das ações das autoridades públicas competentes. Como tal, a exatidão, a natureza não discriminatória e a transparência dos sistemas de IA utilizados nesses contextos são particularmente importantes para garantir o respeito dos direitos fundamentais das pessoas em causa, nomeadamente os seus direitos à livre circulação, à não discriminação, à proteção da vida privada e dos dados pessoais, à proteção internacional e a uma boa administração. Deste modo, na medida em que a sua utilização seja permitida ao abrigo do direito da União e o direito nacional aplicáveis, é apropriado classificar como sendo de risco elevado os sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por instituições, órgãos ou organismos da União incumbidos de funções no domínio da gestão da migração, do asilo e do controlo das fronteiras, como polígrafos e instrumentos semelhantes, para avaliar determinados riscos colocados por pessoas singulares que entram no território de um Estado-Membro ou apresentam um pedido de visto ou asilo, para ajudar as autoridades públicas competentes na análise, incluindo a avaliação conexa da fiabilidade dos elementos de prova, dos pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, no que toca ao objetivo de estabelecer a elegibilidade das pessoas singulares que requerem determinado estatuto, para efeitos de deteção, reconhecimento ou identificação de pessoas singulares no contexto da gestão da migração, do asilo e do controlo das fronteiras, com exceção da verificação de documentos de viagem. Os sistemas de IA no domínio da gestão da migração, do asilo e do controlo das fronteiras abrangidos pelo presente regulamento deverão cumprir os requisitos processuais pertinentes estabelecidos no Regulamento (CE) n.o 810/2009 do Parlamento Europeu e do Conselho (32), na Diretiva 2013/32/UE do Parlamento Europeu e do Conselho (33) e em outras disposições pertinentes do direito da União. A utilização de sistemas de IA na gestão da migração, do asilo e do controlo das fronteiras não deverá, em caso algum, ser utilizada pelos Estados-Membros nem pelas instituições, órgãos ou organismos da União como meio de contornar as suas obrigações internacionais nos termos da Convenção das Nações Unidas relativa ao Estatuto dos Refugiados, celebrada em Genebra em 28 de julho de 1951, com a redação que lhe foi dada pelo Protocolo de 31 de janeiro de 1967. Também não deverão, de modo algum, ser utilizados para violar o princípio da não repulsão nem para recusar vias legais seguras e eficazes de entrada no território da União, incluindo o direito à proteção internacional.
(60)
Systémy AI používané pro účely migrace, azylu a řízení ochrany hranic ovlivňují osoby, které jsou často v obzvláště zranitelném postavení a jsou závislé na výsledku činnosti příslušných veřejných orgánů. Přesnost, nediskriminační povaha a transparentnost systémů AI používaných v těchto kontextech jsou proto obzvláště důležité pro zajištění dodržování základních práv dotčených osob, zejména jejich práva na volný pohyb, na zákaz diskriminace, na ochranu soukromého života a osobních údajů, na mezinárodní ochranu a na řádnou správu. Je proto vhodné klasifikovat jako vysoce rizikové ty systémy AI, které jsou určeny k použití příslušnými orgány veřejné moci nebo jejich jménem nebo orgány, institucemi nebo jinými subjekty Unie pověřenými úkoly v oblasti migrace, azylu a řízení ochrany hranic, jako jsou například polygrafy a podobné nástroje, pokud je jejich používání povoleno podle příslušného práva Unie a vnitrostátního práva, k posuzování určitých rizik, která představují fyzické osoby vstupující na území členského státu nebo žádající o vízum nebo azyl, jako pomoc příslušným veřejným orgánům při posuzování žádostí o azyl, vízum a povolení k pobytu a souvisejících stížností, pokud jde o cíl, jímž je zjištění způsobilosti fyzických osob žádajících o určitý status, včetně souvisejícího posouzení spolehlivosti důkazů, pro účely odhalování, uznávání nebo identifikace fyzických osob v souvislosti s migrací, azylem a řízením ochrany hranic, s výjimkou ověřování cestovních dokladů.Systémy AI v oblasti migrace, azylu a řízení ochrany hranic, na které se vztahuje toto nařízení, by měly splňovat příslušné procesní požadavky stanovené nařízením Evropského parlamentu a Rady (ES) č. 810/2009 (32), směrnicí Evropského parlamentu a Rady 2013/32/EU (33) a dalším příslušným právem Unie. Členské státy nebo orgány, instituce nebo jiné subjekty Unie by za žádných okolností neměly používat systémy AI při migraci, azylu a řízení ochrany hranic jako prostředek k obcházení svých mezinárodních závazků vyplývajících z Úmluvy OSN o právním postavení uprchlíků, která byla podepsána v Ženevě dne 28. července 1951, ve znění protokolu ze dne 31. ledna 1967, ani by tyto systémy neměly být využívány k jakémukoli porušování zásady nenavracení nebo k odepření bezpečných a účinných legálních cest na území Unie, včetně práva na mezinárodní ochranu.
(61)
Determinados sistemas de IA concebidos para a administração da justiça e os processos democráticos deverão ser classificados como sendo de risco elevado, tendo em conta o seu impacto potencialmente significativo na democracia, no Estado de direito e nas liberdades individuais, bem como no direito à ação e a um tribunal imparcial. Em particular, para fazer face aos riscos de potenciais enviesamentos, erros e opacidade, é apropriado classificar como sendo de risco elevado os sistemas de IA concebidos para serem utilizados por uma autoridade judiciária ou para, em seu nome, auxiliar autoridades judiciárias na investigação e interpretação de factos e do direito e na aplicação da lei a um conjunto específico de factos. Os sistemas de IA concebidos para serem utilizados por entidades de resolução alternativa de litígios para esses fins também deverão ser considerados de risco elevado quando os resultados dos procedimentos de resolução alternativa de litígios produzam efeitos jurídicos para as partes. A utilização de ferramentas de IA pode auxiliar o poder de tomada de decisão dos magistrados ou da independência judicial, mas não o deverá substituir, a decisão final tem de continuar a ser uma atividade humana. Contudo, a classificação de sistemas de IA como sendo de risco elevado não deverá ser alargada aos sistemas de IA concebidos para atividades administrativas puramente auxiliares que não afetam a administração efetiva da justiça em casos individuais, como a anonimização ou a pseudonimização de decisões judiciais, documentos ou dados, comunicações entre pessoal ou tarefas administrativas.
(61)
Určité systémy AI určené k výkonu spravedlnosti a demokratických procesů by měly být klasifikovány jako vysoce rizikové s ohledem na jejich potenciálně významný dopad na demokracii, právní stát a individuální svobody, jakož i na právo na účinnou ochranu a na spravedlivý proces. Jako vysoce rizikové je vhodné kvalifikovat systémy AI určené k použití justičním orgánem nebo jeho jménem, jejichž cílem je poskytovat pomoc justičním orgánům při zkoumání a výkladu skutečností a práva a při uplatňování práva na konkrétní soubor skutečností, zejména z důvodu řešení rizik možného zkreslení, chyb a neprůhlednosti. Systémy AI určené k použití subjekty pro alternativní řešení sporů pro tyto účely by měly být rovněž považovány za vysoce rizikové, pokud výsledky postupů alternativního řešení sporů mají pro strany právní účinky. Využívání nástrojů AI může podpořit rozhodovací pravomoci soudců nebo nezávislost soudnictví, ale nemělo by je nahrazovat, neboť konečné rozhodnutí musí i nadále přijímat člověk. Klasifikace systémů AI jako vysoce rizikových by se však neměla vztahovat na systémy AI určené pro čistě pomocné správní činnosti, které neovlivňují faktický výkon spravedlnosti v jednotlivých případech, jako je například anonymizace nebo pseudonymizace soudních rozhodnutí, dokumentů nebo údajů, komunikace mezi zaměstnanci, administrativní úkoly.
(62)
Sem prejuízo das regras previstas no Regulamento (UE) 2024/900 do Parlamento Europeu e do Conselho (34), e a fim de fazer face aos riscos quer de interferência externa indevida no direito de voto consagrado no artigo 39.o da Carta, quer de efeitos adversos na democracia e no Estado de direito, os sistemas de IA concebidos para serem utilizados para influenciar o resultado de uma eleição ou referendo, ou o comportamento eleitoral de pessoas singulares no exercício do seu direito de voto em eleições ou referendos, deverão ser classificados como sendo sistemas de IA de risco elevado, com exceção dos sistemas de IA a cujos resultados as pessoas singulares não estejam diretamente expostas, como os instrumentos utilizados para organizar, otimizar e estruturar campanhas políticas de um ponto de vista administrativo e logístico.
(62)
Aniž jsou dotčena pravidla stanovená v nařízení Evropského parlamentu a Rady (EU) 2024/900 (34) a s cílem řešit rizika nepřiměřeného vnějšího zasahování do volebního práva zakotveného v článku 39 Listiny a nepříznivých dopadů na demokracii a právní stát by systémy AI, které jsou určeny k ovlivňování výsledku voleb nebo referenda nebo hlasování fyzických osob ve volbách nebo referendech, měly být klasifikovány jako vysoce rizikové systémy AI, s výjimkou systémů AI, jejichž výstupu nejsou fyzické osoby přímo vystaveny, jako jsou nástroje používané k organizaci, optimalizaci a strukturování politických kampaní z administrativního a logistického hlediska.
(63)
A classificação de um sistema de IA como sendo de risco elevado por força do presente regulamento não deverá ser interpretada como uma indicação de que a utilização do sistema é lícita ao abrigo de outros atos do direito da União ou ao abrigo do direito nacional compatível com o direito da União, por exemplo, em matéria de proteção de dados pessoais ou de utilização de polígrafos e de instrumentos semelhantes ou de outros sistemas para detetar o estado emocional de pessoas singulares. Essa utilização deverá continuar sujeita ao cumprimento dos requisitos aplicáveis resultantes da Carta e dos atos do direito derivado da União e do direito nacional em vigor. O presente regulamento não deverá ser entendido como um fundamento jurídico para o tratamento de dados pessoais, inclusive de categorias especiais de dados pessoais, se for caso disso, salvo disposição específica em contrário no presente regulamento.
(63)
Skutečnost, že daný systém AI je podle tohoto nařízení klasifikován jako vysoce rizikový systém AI, by neměla být vykládána v tom smyslu, že používání tohoto systému je zákonné podle jiných aktů práva Unie nebo podle vnitrostátního práva slučitelného s právem Unie, které se týkají například ochrany osobních údajů, používání polygrafů a podobných nástrojů nebo jiných systémů ke zjišťování emočního stavu fyzických osob. K jakémukoli takovému používání by mělo i nadále docházet pouze v souladu s příslušnými požadavky vyplývajícími z Listiny a z příslušných aktů sekundárního práva Unie a vnitrostátního práva. Toto nařízení by nemělo být chápáno tak, že poskytuje právní základ pro zpracování osobních údajů, v relevantních případech včetně zvláštních kategorií osobních údajů, není-li v tomto nařízení konkrétně stanoveno jinak.
(64)
Para atenuar os riscos dos sistemas de IA de risco elevado colocados no mercado ou colocados em serviço e para assegurar um elevado nível de fiabilidade, deverão aplicar-se determinados requisitos obrigatórios aos sistemas de IA de risco elevado, tendo em conta a finalidade prevista e o contexto de utilização do sistema de IA e de acordo com o sistema de gestão de riscos a estabelecer pelo prestador. As medidas adotadas pelos prestadores para cumprirem os requisitos obrigatórios do presente regulamento deverão ter em conta o estado da arte geralmente reconhecido em matéria de IA e ser proporcionadas e eficazes para cumprir os objetivos do presente regulamento. Com base no novo regime jurídico, tal como clarificado na comunicação da Comissão intitulada «“Guia Azul” de 2022 sobre a aplicação das regras da UE em matéria de produtos», a regra geral é a de que mais do que um ato jurídico da legislação de harmonização da União pode ser aplicável a um produto, uma vez que a sua disponibilização ou colocação em serviço só podem ter lugar quando o produto cumprir toda a legislação de harmonização da União aplicável. Os perigos dos sistemas de IA abrangidos pelos requisitos do presente regulamento dizem respeito a aspetos diferentes da legislação de harmonização da União em vigor, pelo que os requisitos do presente regulamento complementarão o atual corpo de legislação de harmonização da União. Por exemplo, as máquinas ou os dispositivos médicos que incorporam um sistema de IA podem apresentar riscos não abrangidos pelos requisitos essenciais de saúde e segurança estabelecidos nas disposições pertinentes do direito harmonizado da União, uma vez que tal legislação setorial não aborda os riscos específicos dos sistemas de IA. Tal implica a aplicação simultânea e complementar dos vários atos legislativos. A fim de assegurar a coerência e evitar encargos administrativos e custos desnecessários, os prestadores de um produto que contenha um ou mais sistemas de IA de risco elevado, aos quais se aplicam os requisitos do presente regulamento e da legislação de harmonização da União com base no novo regime jurídico e enumerados num anexo do presente regulamento, deverão ser flexíveis no que diz respeito às decisões operacionais sobre a forma otimizada de assegurar a conformidade de um produto que contenha um ou mais sistemas de IA com todos os requisitos aplicáveis dessa legislação harmonizada da União. Tal flexibilidade poderá significar, por exemplo, a decisão do prestador de integrar uma parte dos processos necessários de testagem e comunicação de informações e de informação e documentação exigidos pelo presente regulamento na documentação e nos procedimentos já existentes exigidos nos termos da legislação de harmonização da União, com base no novo regime jurídico e enumerado num anexo do presente regulamento. Tal não deverá de modo algum prejudicar a obrigação do prestador de cumprir todos os requisitos aplicáveis.
(64)
Ke zmírnění rizik, která vyplývají z vysoce rizikových systémů AI uváděných na trh nebo do provozu, a k zajištění vysoké úrovně důvěryhodnosti by měly být na vysoce rizikové systémy AI uplatňovány určité povinné požadavky s přihlédnutím k zamýšlenému účelu a v souvislosti s používáním systému AI a v souladu se systémem řízení rizik, který stanoví poskytovatel. Opatření přijatá poskytovateli za účelem splnění povinných požadavků tohoto nařízení by měla zohledňovat obecně uznávaný současný stav v oblasti AI a měla by být přiměřená a účinná pro splnění cílů tohoto nařízení. Na základě nového legislativního rámce, jak je objasněno v oznámení Komise, „Modrá příručka“ k provádění pravidel EU pro výrobky (2022), je obecným pravidlem, že na jeden produkt může být použitelný více než jeden právní akt náležející mezi harmonizační právní předpis Unie, neboť k dodání na trh nebo uvedení do provozu může dojít pouze v případě, když je produkt v souladu se všemi platnými harmonizačními právními předpisy Unie. Nebezpečí spojená se systémy AI, na něž se vztahují požadavky tohoto nařízení, se vztahují k jiným aspektům než stávající harmonizační právní předpisy Unie, a proto požadavky tohoto nařízení doplní stávající soubor harmonizačních právních předpisů Unie. Například produkty v podobě strojních zařízení nebo zdravotnických prostředků obsahující systém AI mohou představovat rizika, na která se nevztahují základní požadavky na ochranu zdraví a bezpečnost stanovené v příslušných harmonizovaných právních předpisech Unie, neboť toto odvětvové právo se nezabývá riziky specifickými pro systémy AI. To vyžaduje současné a doplňkové použití různých legislativních aktů. Aby byla zajištěna soudržnost a zabránilo se zbytečné administrativní zátěži nebo zbytečným nákladům, poskytovatelé produktu, který obsahuje jeden nebo více vysoce rizikových systémů AI, na něž se vztahují požadavky tohoto nařízení a harmonizačních právních předpisů Unie založených na novém legislativním rámci a uvedené v příloze tohoto nařízení, by měli být flexibilní, pokud jde o přijímání provozních rozhodnutí o tom, jak optimálně zajistit soulad produktu obsahujícího jeden nebo více systémů AI se všemi platnými požadavky harmonizovaných právních předpisů Unie. Tato flexibilita by mohla obnášet například rozhodnutí poskytovatele začlenit část nezbytných procesů testování a podávání zpráv, informací a dokumentace požadovaných podle tohoto nařízení do již existující dokumentace a postupů požadovaných podle stávajících harmonizačních právních předpisů Unie založených na novém legislativním rámci a uvedených v příloze tohoto nařízení. Tím by neměla být nijak dotčena povinnost poskytovatele dodržovat všechny platné požadavky.
(65)
O sistema de gestão de riscos deverá consistir num processo iterativo contínuo, que seja planeado e executado ao longo de todo o ciclo de vida de um sistema de IA de risco elevado. Esse processo deverá ter por objetivo identificar e atenuar os riscos pertinentes dos sistemas de IA para a saúde, a segurança e os direitos fundamentais. O sistema de gestão de riscos deverá ser revisto e atualizado regularmente, a fim de assegurar a sua eficácia contínua, bem como a justificação e documentação de quaisquer decisões e medidas significativas tomadas ao abrigo do presente regulamento. Este processo deverá assegurar que o prestador identifique riscos ou repercussões negativas e aplique medidas de atenuação dos riscos conhecidos e razoavelmente previsíveis dos sistemas de IA para a saúde, a segurança e os direitos fundamentais à luz das suas finalidades previstas e da sua utilização indevida razoavelmente previsível, incluindo os possíveis riscos decorrentes da interação entre o sistema de IA e o ambiente em que opera. O sistema de gestão de riscos deverá adotar as medidas de gestão dos riscos mais adequadas à luz do estado da arte no domínio da IA. Ao identificar as medidas de gestão dos riscos mais adequadas, o prestador deverá documentar e explicar as escolhas feitas e, se for caso disso, envolver peritos e partes interessadas externas. Ao identificar a utilização indevida razoavelmente previsível de sistemas de IA de risco elevado, o prestador deverá abranger as utilizações dos sistemas de IA que, embora não diretamente abrangidas pela finalidade prevista e indicadas nas instruções de utilização, possa, no entanto, razoavelmente esperar-se que resultem de um comportamento humano facilmente previsível no contexto das características específicas e da utilização de um sistema de IA. Quaisquer circunstâncias conhecidas ou previsíveis, relacionadas com a utilização do sistema de IA de risco elevado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsível, que possam causar riscos para a saúde e a segurança ou os direitos fundamentais deverão ser incluídas nas instruções de utilização que são disponibilizadas pelo prestador. O objetivo é assegurar que o responsável pela implantação esteja ciente delas e as tenha em conta ao utilizar o sistema de IA de risco elevado. A identificação e a aplicação de medidas de atenuação dos riscos em caso de utilização indevida previsível por força do presente regulamento não deverão exigir medidas de treino adicionais específicas para o sistema de IA de risco elevado por parte do prestador, a fim de as combater. No entanto, os prestadores são incentivados a considerar essas medidas de treino adicionais a fim de atenuarem as utilizações indevidas razoavelmente previsíveis, conforme necessário e adequado.
(65)
Systém řízení rizik by měl spočívat v nepřetržitém opakujícím se procesu, který je plánovaný a probíhá během celého životního cyklu vysoce rizikového systému AI. Tento proces by měl být zaměřen na identifikaci a zmírnění příslušných rizik systémů AI pro zdraví, bezpečnost a základní práva. Systém řízení rizik by měl být pravidelně přezkoumáván a aktualizován, aby byla zajištěna jeho trvalá účinnost, jakož i odůvodněnost a dokumentace veškerých významných rozhodnutí a opatření přijatých podle tohoto nařízení. Tento proces by měl zajistit, aby poskytovatel identifikoval rizika nebo nepříznivé dopady a zavedl opatření ke zmírnění známých a rozumně předvídatelných rizik systémů AI pro zdraví, bezpečnost a základní práva s ohledem na jeho zamýšlený účel a rozumně předvídatelné nesprávné použití, včetně možných rizik vyplývajících z interakce mezi systémem AI a prostředím, v němž působí. Systém řízení rizik by měl přijmout nejvhodnější opatření k řízení rizik s ohledem na nejnovější vývoj v oblasti AI. Při identifikaci nejvhodnějších opatření k řízení rizik by měl poskytovatel zdokumentovat a vysvětlit provedené volby a případně zapojit odborníky a externí zúčastněné strany. Při identifikaci rozumně předvídatelného nesprávného použití vysoce rizikových systémů AI by měl poskytovatel zahrnout způsoby použití systémů AI, které sice nejsou přímo pokryty zamýšleným účelem a nejsou uvedeny v návodu k použití, nicméně lze důvodně očekávat, že vyplynou ze snadno předvídatelného lidského chování v souvislosti se specifickými vlastnostmi a používáním konkrétního systému AI. V návodu k použití poskytnutém poskytovatelem by měly být uvedeny jakékoli známé nebo předvídatelné okolností související s používáním daného vysoce rizikového systému AI v souladu s jeho zamýšleným účelem nebo za podmínek rozumně předvídatelného nesprávného použití, které mohou vést k rizikům pro zdraví a bezpečnost nebo pro základní práva. Účelem je zajistit, aby si jich byl zavádějící subjekt při používání vysoce rizikového systému AI vědom a zohlednil je. Pro identifikaci a provádění opatření ke zmírnění rizik v případě předvídatelného nesprávného použití vysoce rizikového systému AI podle tohoto nařízení by nemělo být nutné, aby poskytovatel v zájmu řešení předvídatelného nesprávného použití přistupoval ke zvláštním dodatečným školením. Poskytovatelé se však vyzývají, aby taková dodatečná opatření v oblasti školení zvážili, bude-li to pro omezení rozumně předvídatelného použití nezbytné a vhodné.
(66)
Os sistemas de IA de risco elevado deverão estar sujeitos ao cumprimento de requisitos relativos à gestão de riscos, à qualidade e à pertinência dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos responsáveis pela implantação, à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança e os direitos fundamentais. Uma vez que não estão razoavelmente disponíveis outras medidas menos restritivas ao comércio, esses requisitos não constituem restrições injustificadas ao comércio.
(66)
Na vysoce rizikové systémy AI by se měly vztahovat požadavky týkající se řízení rizik, kvality a významu použitých souborů dat, technické dokumentace a uchovávání záznamů, transparentnosti a poskytování informací zavádějícím subjektům, lidského dohledu a spolehlivosti, přesnosti a kybernetické bezpečnosti. Tyto požadavky jsou nezbytným předpokladem účinného zmírňování rizik pro zdraví, bezpečnost a základní práva. Jelikož nejsou žádná další opatření méně omezující obchod rozumně dostupná, tyto požadavky nejsou bezdůvodným omezením obchodu.
(67)
Os dados de elevada qualidade e o acesso a dados de elevada qualidade desempenham um papel essencial ao proporcionarem estrutura e garantirem o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne uma fonte de uma discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e testagem de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, validação e testagem, incluindo os rótulos, deverão ser pertinentes, suficientemente representativos e, tanto quanto possível, isentos de erros e completos, tendo em conta a finalidade prevista do sistema. A fim de facilitar o cumprimento da legislação da União em matéria de proteção de dados, como o Regulamento (UE) 2016/679, as práticas de governação e de gestão de dados deverão incluir, no caso dos dados pessoais, a transparência sobre a finalidade inicial da recolha de dados. Os conjuntos de dados deverão também ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou grupos de pessoas nos quais o sistema de IA de risco elevado se destina a ser utilizado, com especial atenção para a atenuação de eventuais enviesamentos nos conjuntos de dados que sejam suscetíveis de afetar a saúde e a segurança das pessoas, afetar negativamente os direitos fundamentais ou conduzir a discriminações proibidas pelo direito da União, especialmente quando os resultados dos dados influenciam entradas para operações futuras («circuitos de realimentação»). Os enviesamentos podem, por exemplo, ser inerentes a conjuntos de dados de base, especialmente quando são usados ou gerados dados históricos ao serem aplicados os sistemas a situações reais. Os resultados apresentados pelos sistemas de IA poderão ser influenciados por enviesamentos inerentes que tendem a aumentar gradualmente, e, desse modo, a perpetuar e a ampliar a discriminação existente, em particular de pessoas pertencentes a grupos vulneráveis, nomeadamente de grupos raciais ou étnicos. O requisito de os conjuntos de dados serem o mais completos possível e isentos de erros não deverá afetar a utilização de técnicas de preservação da privacidade no contexto do desenvolvimento e testagem de sistemas de IA. Em especial, os conjuntos de dados deverão ter em conta, na medida do exigido face à sua finalidade prevista, as funcionalidades, as características ou os elementos que são específicos do cenário geográfico, contextual, comportamental ou funcional no qual o sistema de IA se destina a ser utilizado. Os requisitos relacionados com a governação dos dados podem ser cumpridos recorrendo a terceiros que ofereçam serviços de conformidade certificados, incluindo a verificação da governação dos dados, da integridade dos conjuntos de dados e das práticas de treino, validação e testagem de dados, desde que seja assegurado o cumprimento dos requisitos em matéria de dados do presente regulamento.
(67)
Při poskytování struktury a zajišťování výkonnosti celé řady systémů AI mají zásadní úlohu vysoce kvalitní data a přístup k nim, zejména pokud jsou používány techniky zahrnující trénování modelů s cílem zajistit, aby vysoce rizikový systém AI fungoval dle předpokladu a bezpečně a aby se nestal zdrojem diskriminace, kterou právo Unie zakazuje. Soubory vysoce kvalitních trénovacích, validačních a testovacích dat vyžadují zavedení vhodných postupů správy a řízení dat. Soubory trénovacích, validačních a testovacích dat, včetně štítků, by měly být relevantní, dostatečně reprezentativní a v nejvyšší možné míře bez chyb a úplné s ohledem na zamýšlený účel systému. Aby se usnadnil soulad s právem Unie v oblasti ochrany údajů, jako je nařízení (EU) 2016/679, měly by postupy správy a řízení dat v případě osobních údajů zahrnovat transparentnost původního účelu shromažďování údajů. Soubory dat by měly mít rovněž odpovídající statistické vlastnosti, a to i pokud jde o osoby nebo skupiny osob, ve vztahu k nimž má být vysoce rizikový systém AI používán, se zvláštním zaměřením na zmírnění možných zkreslení v souborech dat, které by mohly ovlivnit zdraví a bezpečnost osob, mít negativní dopad na základní práva nebo vést k diskriminaci zakázané právem Unie, zejména pokud výstupy dat ovlivňují vstupy pro budoucí operace (dále jen „smyčky zpětné vazby“). Zkreslení mohou být například inherentní součástí základních datových souborů, zejména pokud jsou používána historická data, která byla generována při zavádění systémů v reálných podmínkách.Výsledky poskytnuté systémy AI by mohly být ovlivněny takovýmito zkresleními, která mají tendenci se postupně zvyšovat, a tudíž zachovávat a posilovat existující diskriminaci, zejména v případě osob patřících k určitým zranitelným skupinám, včetně rasových nebo etnických skupin. Požadavek, aby soubory dat byly v nejvyšší možné míře úplné a bez chyb, by neměl mít vliv na používání technik ochrany soukromí v souvislosti s vývojem a testováním systémů AI. Soubory dat by měly především v rozsahu nezbytném pro jejich zamýšlený účel zohledňovat rysy, vlastnosti nebo prvky, které jsou specifické pro konkrétní zeměpisné, kontextuální, behaviorální nebo funkční prostředí, ve kterém má být systém AI používán. Požadavky týkající se správy dat lze splnit využitím služeb třetích stran, které nabízejí certifikované služby dodržování předpisů, včetně ověřování správy dat, integrity datového souboru a postupů trénování, validace a testování dat, pokud je zajištěn soulad s požadavky na data podle tohoto nařízení.
(68)
No contexto do desenvolvimento e avaliação de sistemas de IA de risco elevado, determinados intervenientes, como prestadores, organismos notificados e outras entidades pertinentes, como polos de inovação digital, instalações de testagem e experimentação e investigadores, deverão ter a possibilidade de aceder a conjuntos de dados de elevada qualidade dentro das áreas de intervenção desses intervenientes relacionadas com o presente regulamento. Os espaços comuns europeus de dados criados pela Comissão e a facilitação da partilha de dados entre empresas e com as administrações públicas por motivos de interesse público serão cruciais para conceder um acesso fiável, responsável e não discriminatório a dados de elevada qualidade para o treino, a validação e a testagem de sistemas de IA. Por exemplo, no domínio da saúde, o Espaço Europeu de Dados de Saúde facilitará o acesso não discriminatório a dados de saúde e o treino de algoritmos de IA com base nesses conjuntos de dados, de forma respeitadora da privacidade, segura, atempada, transparente e digna de confiança, e sob a alçada de uma governação institucional adequada. As autoridades competentes, incluindo as autoridades setoriais, que concedem ou apoiam o acesso aos dados também podem apoiar a disponibilização de dados de elevada qualidade para fins de treino, validação e testagem de sistemas de IA.
(68)
Při vývoji a posuzování vysoce rizikových systémů AI by některé subjekty, jako jsou poskytovatelé, oznámené subjekty a další příslušné subjekty, například evropská centra pro digitální inovace, pokusná zkušební zařízení a výzkumní pracovníci, měly mít přístup k vysoce kvalitním datovým souborům ve svých příslušných oborech činnosti, které souvisejí s tímto nařízením, a měly by je využívat. Zásadní význam pro zajištění důvěryhodného, odpovědného a nediskriminačního přístupu k vysoce kvalitním datům pro účely trénování, validace a testování systémů AI budou mít společné evropské datové prostory vytvořené Komisí, jakož i usnadnění sdílení údajů ve veřejném zájmu mezi podniky a s vládou. Například v oblasti zdraví umožní společný evropský prostor pro data z oblasti veřejného zdraví nediskriminační přístup k údajům o zdraví a trénování algoritmů AI na těchto souborech dat, a to způsobem, který bude chránit soukromí, bude bezpečný, včasný, transparentní a důvěryhodný a bude u něj zajištěna vhodná institucionální správa. Poskytování vysoce kvalitních dat pro účely trénování, validace a testování systémů AI mohou podporovat rovněž odpovídající příslušné orgány, včetně odvětvových, které poskytují nebo podporují přístup k datům.
(69)
O direito à privacidade e à proteção de dados pessoais tem de ser garantido ao longo de todo o ciclo de vida do sistema de IA. A este respeito, os princípios da minimização dos dados e da proteção de dados desde a conceção e por norma, tal como estabelecidos na legislação da União em matéria de proteção de dados, são aplicáveis quando se realiza o tratamento de dados. As medidas tomadas pelos prestadores para assegurar o cumprimento desses princípios podem incluir não só a anonimização e a cifragem, mas também a utilização de tecnologias que permitam a introdução de algoritmos nos dados e o treino dos sistemas de IA sem a transmissão entre as partes ou a cópia dos próprios dados em bruto ou estruturados, sem prejuízo dos requisitos em matéria de governação de dados previstos no presente regulamento.
(69)
Během celého životního cyklu systému AI musí být zaručeno právo na soukromí a na ochranu osobních údajů. V tomto ohledu se při zpracování osobních údajů použijí zásady minimalizace údajů a záměrné a standardní ochrany údajů, jak jsou stanoveny v právu Unie v oblasti ochrany údajů. Opatření přijatá poskytovateli k zajištění souladu s těmito zásadami mohou zahrnovat nejen anonymizaci a šifrování, ale také používání technologie, která umožňuje vnášet algoritmy do dat a umožňuje trénování systémů AI bez předávání mezi stranami nebo kopírování samotných nezpracovaných nebo strukturovaných dat, aniž jsou dotčeny požadavky na správu dat stanovené v tomto nařízení.
(70)
A fim de proteger o direito de terceiros da discriminação que possa resultar do enviesamento nos sistemas de IA, os prestadores deverão, a título excecional, na medida do estritamente necessário para assegurar a deteção e a correção de enviesamentos em relação aos sistemas de IA de risco elevado, sob reserva de salvaguardas adequadas dos direitos e liberdades fundamentais das pessoas singulares e na sequência da aplicação de todas as condições aplicáveis estabelecidas no presente regulamento, para além das condições estabelecidas nos Regulamentos (UE) 2016/679 e (UE) 2018/1725 e na Diretiva (UE) 2016/680, ser capazes de tratar também categorias especiais de dados pessoais, por razões de interesse público substancial, na aceção do artigo 9.o, n.o 2, alínea g), do Regulamento (UE) 2016/679 e do artigo 10.o, n.o 2, alínea g), do Regulamento (UE) 2018/1725.
(70)
V zájmu ochrany práva jiných osob před diskriminací, která by mohla vyplynout ze zkreslení v rámci systémů AI, by poskytovatelé v rozsahu nezbytně nutném pro účely zajištění odhalování a nápravy zkreslení ve vztahu k vysoce rizikovým systémům AI, s výhradou vhodných záruk chránících základní práva a svobody fyzických osob a po uplatnění všech platných podmínek stanovených v tomto nařízení vedle podmínek stanovených v nařízení (EU) 2016/679 a (EU) 2018/1725 a směrnici (EU) 2016/680, měli mít výjimečně možnost zpracovávat také zvláštní kategorie osobních údajů jako záležitost významného veřejného zájmu ve smyslu čl. 9 odst. 2 písm. g) nařízení (EU) 2016/679 a čl. 10 odst. 2 písm. g) nařízení (EU) 2018/1725.
(71)
Dispor de informações compreensíveis sobre a forma como os sistemas de IA de risco elevado foram desenvolvidos e sobre o seu desempenho ao longo da sua vida útil é essencial para permitir a rastreabilidade desses sistemas, verificar o cumprimento dos requisitos previstos no presente regulamento, bem como o acompanhamento das suas operações e o acompanhamento pós-comercialização. Para tal, é necessário manter registos e disponibilizar documentação técnica com as informações necessárias para avaliar se o sistema de IA cumpre os requisitos aplicáveis e facilita o acompanhamento pós-comercialização. Essas informações deverão incluir as características gerais, as capacidades e as limitações do sistema, os algoritmos, os dados e os processos de treino, testagem e validação utilizados, bem como a documentação relativa ao sistema de gestão de riscos aplicado, e ser redigidas de forma clara e compreensiva. A documentação técnica deverá ser mantida devidamente atualizada ao longo de toda a vida útil do sistema de IA. Além disso, os sistemas de IA de risco elevado deverão permitir tecnicamente o registo automático de eventos, por meio de registos, durante a vida útil do sistema.
(71)
Pro sledovatelnost těchto systémů, ověření souladu s požadavky tohoto nařízení, jakož i sledování jejich provozu a monitorování po uvedení na trh má zásadní význam, aby byly k dispozici srozumitelné informace o tom, jak byly vysoce rizikové systémy AI vytvořeny a jak fungují po celou dobu své životnosti. To vyžaduje vedení záznamů a dostupnost technické dokumentace obsahující informace nezbytné k posouzení souladu daného systému AI s příslušnými požadavky a usnadnění monitorování po uvedení na trh. Tyto informace by měly zahrnovat obecné vlastnosti, schopnosti a omezení tohoto systému, použité algoritmy, data, postupy při trénování, testování a validaci, jakož i dokumentaci příslušného systému řízení rizik, a měly by být vypracovány jasným a srozumitelným způsobem. Technická dokumentace by měla být řádně aktualizována po celou dobu životního cyklu systému AI. Kromě toho by vysoce rizikové systémy AI měly technicky umožňovat automatické zaznamenávání událostí prostřednictvím protokolů po celou dobu životnosti systému.
(72)
A fim de dar resposta às preocupações relacionadas com a opacidade e a complexidade de determinados sistemas de IA e ajudar os responsáveis pela implantação a cumprir as obrigações que lhes incumbem por força do presente regulamento, deverá ser exigida transparência aos sistemas de IA de risco elevado antes de serem colocados no mercado ou colocados em serviço. Os sistemas de IA de risco elevado deverão ser concebidos de forma a permitir aos responsáveis pela implantação compreender a forma como funciona o sistema de IA, avaliar a sua funcionalidade e compreender os seus pontos fortes e limitações. Os sistemas de IA de risco elevado deverão ser acompanhados de informações adequadas sob a forma de instruções de utilização. Tais informações deverão incluir as características, capacidades e limitações do desempenho do sistema de IA. Esses elementos abrangerão informações sobre eventuais circunstâncias conhecidas e previsíveis relacionadas com a utilização do sistema de IA de risco elevado, incluindo ações do responsável pela implantação que possam influenciar o comportamento e o desempenho do sistema, ao abrigo das quais o sistema de IA pode conduzir a riscos para a saúde, a segurança e os direitos fundamentais, sobre as alterações que foram predeterminadas e avaliadas para efeitos de conformidade pelo prestador e sobre as medidas de supervisão humana pertinentes, incluindo as medidas destinadas a facilitar a interpretação dos resultados do sistema de IA pelos responsáveis pela implantação. A transparência, incluindo as instruções de utilização que as acompanham, deverá ajudar os responsáveis pela implantação na utilização do sistema e apoiar a sua tomada de decisões informadas. Entre outros, os responsáveis pela implantação deverão estar em melhor posição para fazer a escolha correta do sistema que tencionam utilizar à luz das obrigações que lhes são aplicáveis, ser instruídos sobre as utilizações previstas e proibidas e utilizar o sistema de IA de forma correta e conforme adequado. A fim de melhorar a legibilidade e a acessibilidade das informações incluídas nas instruções de utilização, deverão ser incluídos, se for caso disso, exemplos ilustrativos, por exemplo, sobre as limitações e as utilizações previstas e proibidas do sistema de IA. Os prestadores deverão assegurar que toda a documentação, incluindo as instruções de utilização, contém informações significativas, abrangentes, acessíveis e compreensíveis, tendo em conta as necessidades e os conhecimentos previsíveis dos responsáveis pela implantação visados. As instruções de utilização deverão ser disponibilizadas numa língua que possa ser facilmente compreendida pelos responsáveis pela implantação visados, conforme determinado pelo Estado-Membro em causa.
(72)
S cílem řešit obavy týkající se neprůhlednosti a složitosti některých systémů AI a pomoci zavádějícím subjektům plnit jejich povinnosti podle tohoto nařízení by měla být vyžadována transparentnost u vysoce rizikových systémů AI před jejich uvedením na trh nebo do provozu. Vysoce rizikové systémy AI by měly být navrženy tak, aby zavádějícím subjektům umožnily pochopit, jak systém AI funguje, vyhodnotit jeho funkčnost a porozumět jeho silným stránkám a omezením. K vysoce rizikovým systémům AI by měly být přiloženy příslušné informace ve formě návodu k použití. Tyto informace by měly zahrnovat vlastnosti, schopnosti a omezení výkonnosti systému AI. Měly by obsahovat informace o možných známých a předvídatelných okolnostech souvisejících s používáním vysoce rizikového systému AI, včetně činnosti zavádějícího subjektu, která může ovlivnit chování a výkonnost systému, za nichž může systém AI vést k rizikům pro zdraví, bezpečnost a základní práva, o změnách, které poskytovatel předem stanovil a posoudil z hlediska shody, a o příslušných opatřeních v oblasti lidského dohledu, včetně opatření k usnadnění interpretace výstupů systému AI zavádějícími subjekty. Transparentnost, včetně přiloženého návodu k použití, by měla zavádějícím subjektům pomoci při používání systému a podporovat jejich informované rozhodování. Zavádějící subjekty by měly být mimo jiné lépe schopny správně zvolit systém, který mají v úmyslu používat, s ohledem na povinnosti, které se na ně vztahují, měly by být poučeny o zamýšleném a vyloučeném použití a měly by systém AI používat správně a podle potřeby. Pro zvýšení srozumitelnosti a přístupnosti informací uvedených v návodu k použití, by měly být případně uvedeny ilustrační příklady, například omezení a zamýšlená a vyloučená použití systému AI. Poskytovatelé by měli zajistit, aby veškerá dokumentace, včetně návodu k použití, obsahovala smysluplné, komplexní, přístupné a srozumitelné informace s přihlédnutím k potřebám a předvídatelným znalostem cílových zavádějících subjektů. Návod k použití by měl být k dispozici v jazyce, který je pro cílové zavádějící subjekty snadno srozumitelný, jak určí příslušný členský stát.
(73)
Os sistemas de IA de risco elevado deverão ser concebidos e desenvolvidos de maneira que pessoas singulares possam supervisionar o seu funcionamento, assegurar que são utilizados como previsto e que os seus impactos são abordados ao longo do ciclo de vida do sistema. Para o efeito, o prestador do sistema deverá identificar medidas de supervisão humana adequadas antes da colocação no mercado ou da colocação em serviço do sistema. Em particular, se for caso disso, essas medidas deverão garantir que o sistema esteja sujeito a restrições operacionais integradas impossíveis de serem anuladas pelo próprio sistema e responda ao operador humano, bem como que as pessoas singulares a quem seja atribuída a supervisão humana tenham as competências, a formação e a autoridade necessárias para desempenhar essa função. É igualmente essencial, conforme adequado, assegurar que os sistemas de IA de risco elevado incluam mecanismos para orientar e informar uma pessoa singular incumbida da supervisão humana de forma a que tome decisões informadas sobre se, quando e como intervir, a fim de evitar consequências negativas ou riscos, ou a que pare o sistema se não funcionar como previsto. Tendo em conta as consequências significativas para as pessoas em caso de uma correspondência incorreta por determinados sistemas de identificação biométrica, é conveniente prever um requisito reforçado de supervisão humana para esses sistemas, de modo a que o responsável pela implantação não possa tomar qualquer medida ou decisão com base na identificação resultante do sistema, a menos que tal tenha sido verificado e confirmado separadamente por, pelo menos, duas pessoas singulares. Essas pessoas podem pertencer a uma ou mais entidades e incluir a pessoa que opera ou utiliza o sistema. Este requisito não deverá implicar encargos ou atrasos desnecessários e pode ser suficiente que as verificações separadas efetuadas pelas diferentes pessoas sejam automaticamente gravadas nos registos gerados pelo sistema. Tendo em conta as especificidades dos domínios da aplicação da lei, da migração, do controlo das fronteiras e do asilo, este requisito não deverá aplicar-se nos casos em que o direito da União ou o direito nacional considere que a aplicação desse requisito é desproporcionada.
(73)
Vysoce rizikové systémy AI by měly být navrhovány a vyvíjeny tak, aby na jejich fungování mohly dohlížet fyzické osoby, aby bylo zajištěno, že budou používány zamýšleným způsobem, a aby jejich dopady byly řešeny během celého životního cyklu systému. Za tímto účelem by měl poskytovatel systému před uvedením systému na trh nebo do provozu stanovit vhodná opatření lidského dohledu. Tato opatření by případně měla zajistit zejména, aby byla do systému zabudována provozní omezení, která samotný systém není schopen překonat a která reagují na lidskou obsluhu, a aby fyzické osoby, které byly lidským dohledem pověřeny, měly odbornou způsobilost, odbornou přípravu a pravomoci nezbytné k výkonu této funkce. Je rovněž nezbytné zajistit, aby vysoce rizikové systémy AI případně zahrnovaly mechanismy, které vedou a informují fyzickou osobu, jež byla lidským dohledem pověřena, aby mohla činit informovaná rozhodnutí, zda, kdy a jak zasáhnout, aby se zabránilo negativním důsledkům nebo rizikům, nebo systém zastavit, pokud nefunguje tak, jak má. Vzhledem k závažným důsledkům pro konkrétní osoby v případě nesprávné shody některých systémů biometrické identifikace je vhodné stanovit požadavek na posílený lidský dohled nad těmito systémy, aby zavádějící subjekt nemohl přijmout žádné opatření nebo rozhodnutí na základě identifikace vyplývající ze systému, pokud ji samostatně neověřily a nepotvrdily alespoň dvě fyzické osoby. Těmito osobami by mohli být zástupci jednoho nebo více subjektů a mohla by mezi ně patřit osoba, která systém provozuje nebo používá. Tento požadavek by neměl představovat zbytečnou zátěž nebo zdržení a mohlo by postačovat, aby byla samostatná ověření různými osobami automaticky zaznamenávána v protokolech generovaných systémem. Vzhledem ke zvláštnostem oblastí vymáhání práva, migrace, ochrany hranic a azylu by se tento požadavek neměl uplatňovat v případech, kdy právo Unie nebo vnitrostátní právo považuje uplatňování tohoto požadavku za nepřiměřené.
(74)
Os sistemas de IA de risco elevado deverão ter um desempenho coerente ao longo de todo o seu ciclo de vida e apresentar um nível adequado de exatidão, solidez e cibersegurança, à luz da finalidade prevista e de acordo com o estado da arte geralmente reconhecido. A Comissão e as organizações e partes interessadas pertinentes são incentivadas a ter em devida consideração a atenuação dos riscos e os impactos negativos do sistema de IA. O nível esperado dos parâmetros de desempenho deverá vir declarado nas instruções de utilização que o acompanham. Os prestadores são instados a comunicar essas informações aos responsáveis pela implantação de uma forma clara e facilmente compreensível, sem mal-entendidos nem declarações enganosas. O direito da União em matéria de metrologia legal, incluindo as Diretivas 2014/31/UE (35) e 2014/32/UE (36) do Parlamento Europeu e do Conselho, visa garantir a exatidão das medições e contribuir para a transparência e a lealdade das transações comerciais. Nesse contexto, em cooperação com as partes interessadas e a organização pertinentes, como as autoridades responsáveis pela metrologia e pela avaliação comparativa, a Comissão deverá incentivar, se for caso disso, o desenvolvimento de parâmetros de referência e metodologias de medição para os sistemas de IA. Ao fazê-lo, a Comissão deverá tomar nota e colaborar com os parceiros internacionais que trabalham em metrologia e em indicadores de medição pertinentes relacionados com a IA.
(74)
Vysoce rizikové systémy AI by měly po celou dobu svého životního cyklu fungovat konzistentně a splňovat příslušnou úroveň přesnosti, spolehlivosti a kybernetické bezpečnosti s ohledem na svůj zamýšlený účel a v souladu s obecně uznávaným nejnovějším vývojem. Komise a příslušné organizace a zúčastněné strany se vyzývají, aby náležitě zohledňovaly zmírnění rizik a negativních dopadů systémů AI. V přiloženém návodu k použití by měla být uvedena očekávaná úroveň metrik výkonnosti. Poskytovatelé se vyzývají, aby tyto informace zavádějícím subjektům sdělili jasným a snadno srozumitelným způsobem, bez nedorozumění nebo zavádějících prohlášení. Cílem práva Unie týkajícího se legální metrologie, včetně směrnic Evropského parlamentu a Rady 2014/31/EU (35) a 2014/32/EU (36), je zajistit přesnost měření a přispět k transparentnosti a poctivosti obchodních transakcí. V této souvislosti by Komise měla ve spolupráci s příslušnými zúčastněnými stranami a organizacemi, jako jsou metrologické a srovnávací orgány, případně podporovat vývoj referenčních hodnot a metodik měření pro systémy AI. Komise by přitom měla vzít na vědomí mezinárodní partnery pracující v oblasti metrologie a příslušných ukazatelů měření týkajících se AI a spolupracovat s nimi.
(75)
A solidez técnica é um requisito essencial dos sistemas de IA de risco elevado. Esses sistemas deverão ser resistentes a comportamentos prejudiciais ou indesejáveis que possam resultar de limitações dentro dos sistemas ou do ambiente em que os sistemas operam (por exemplo, erros, falhas, incoerências, situações inesperadas). Por conseguinte, deverão ser tomadas medidas técnicas e organizativas para assegurar a solidez dos sistemas de IA de risco elevado, por exemplo através da conceção e do desenvolvimento de soluções técnicas adequadas para prevenir ou minimizar comportamentos nocivos ou indesejáveis. Essa solução técnica pode incluir, por exemplo, mecanismos que permitam ao sistema interromper o seu funcionamento de forma segura (planos de segurança à prova de falhas) caso se verifiquem determinadas anomalias ou caso o funcionamento ocorra fora de certos limites predeterminados. A falta de proteção contra estes riscos pode causar problemas de segurança ou afetar negativamente os direitos fundamentais, por exemplo, devido a decisões erradas ou a resultados errados ou enviesados gerados pelo sistema de IA.
(75)
U vysoce rizikových systémů AI je klíčovým požadavkem technická spolehlivost. Tyto systémy by měly být odolné vůči škodlivému nebo jinak nežádoucímu chování, které může být důsledkem omezení uvnitř systémů nebo prostředí, v němž systémy fungují (např. chyby, závady, nesrovnalosti, neočekávané situace). Proto by měla být přijata technická a organizační opatření k zajištění spolehlivosti vysoce rizikových systémů AI, obnášející například navrhování a vývoj vhodných technických řešení pro prevenci nebo minimalizaci škodlivého nebo jinak nežádoucího chování. Tato technická řešení mohou zahrnovat například mechanismy umožňující systému bezpečně přerušit provoz (plány zajištění proti selhání) v přítomnosti určitých anomálií nebo v případě, že provoz probíhá mimo určité předem stanovené hranice. Neschopnost ochrany před těmito riziky by mohla vést k dopadům na bezpečnost nebo negativně ovlivnit základní práva, například v důsledku chybných rozhodnutí nebo nesprávných či zkreslených výstupů systému AI.
(76)
A cibersegurança desempenha um papel fundamental para garantir que os sistemas de IA sejam resistentes às ações de terceiros mal-intencionados que tentam explorar as vulnerabilidades dos sistemas com o objetivo de lhes alterar a utilização, o comportamento e o desempenho ou de por em causa as suas propriedades de segurança. Os ciberataques contra sistemas de IA podem tirar partido de ativos específicos de IA, como os conjuntos de dados de treino (por exemplo, contaminação de dados) ou os modelos treinados (por exemplo, ataques antagónicos ou inferência de membros), ou explorar vulnerabilidades dos ativos digitais do sistema de IA ou da infraestrutura de tecnologias da informação e comunicação (TIC) subjacente. A fim de assegurar um nível de cibersegurança adequado aos riscos, os prestadores de sistemas de IA de risco elevado deverão tomar medidas adequadas, como os controlos de segurança, tendo ainda em devida conta a infraestrutura de TIC subjacente.
(76)
Zásadní úlohu při zajišťování odolnosti systémů AI proti pokusům o změnu jejich použití, chování nebo výkonnosti nebo o ohrožení jejich bezpečnostních vlastností třetími stranami, které se škodlivým záměrem zneužívají zranitelných míst tohoto systému, hraje kybernetická bezpečnost. Kybernetické útoky na systémy AI mohou využívat aspekty, jež jsou pro AI specifické, například soubory trénovacích dat (například tzv. data poisoning) nebo trénované modely (například nepřátelské útoky nebo odvozování členství), nebo zneužívat slabých míst digitálních aktiv daného systému AI nebo příslušné infrastruktury IKT. Pro zajištění úrovně kybernetické bezpečnosti odpovídající těmto rizikům by proto poskytovatelé vysoce rizikových systémů AI měli přijmout vhodná opatření, jako jsou bezpečnostní kontroly, případně současně zohlednit i příslušnou infrastrukturu IKT.
(77)
Sem prejuízo dos requisitos relacionados com a solidez e a exatidão estabelecidos no presente regulamento, os sistema de IA de risco elevado abrangidos pelo âmbito de aplicação de um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais, nos termos desse regulamento, podem demonstrar a conformidade com o requisito de cibersegurança do presente regulamento ao cumprirem os requisitos essenciais de cibersegurança estabelecidos nesse regulamento. Quando os sistemas de IA de risco elevado cumprem os requisitos essenciais de um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais, deverão ser considerados conformes com os requisitos de cibersegurança estabelecidos no presente regulamento, desde que o cumprimento desses requisitos seja demonstrado na declaração UE de conformidade ou em partes da mesma emitida nos termos desse regulamento. Para o efeito, a avaliação dos riscos de cibersegurança associados a um produto com elementos digitais classificado como sistema de IA de risco elevado nos termos do presente regulamento, realizada ao abrigo de um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais, deverá ter em conta os riscos para a ciberresiliência de um sistema de IA no que diz respeito às tentativas de terceiros não autorizados de alterar a sua utilização, comportamento ou desempenho, incluindo vulnerabilidades específicas da IA, como a contaminação de dados ou ataques antagónicos, bem como os riscos pertinentes para os direitos fundamentais, tal como exigido pelo presente regulamento.
(77)
Aniž jsou dotčeny požadavky týkající se spolehlivosti a přesnosti stanovené v tomto nařízení, mohou vysoce rizikové systémy AI, které spadají do oblasti působnosti nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, v souladu s uvedeným nařízením prokázat soulad s požadavky na kybernetickou bezpečnost podle tohoto nařízení splněním základních požadavků na kybernetickou bezpečnost stanoveným v uvedeném nařízení. Pokud vysoce rizikové systémy AI splňují základní požadavky nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, měly by být považovány za vyhovující požadavkům na kybernetickou bezpečnost stanoveným v tomto nařízení, pokud je splnění těchto požadavků prokázáno v EU prohlášení o shodě nebo jeho částech vydaném podle uvedeného nařízení. Za tímto účelem by posouzení kybernetických bezpečnostních rizik spojených s produktem s digitálními prvky klasifikovanými podle tohoto nařízení jako vysoce rizikový systém AI, prováděné podle nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, mělo zohlednit rizika pro kybernetickou odolnost systému AI, pokud jde o pokusy neoprávněných třetích stran změnit jeho používání, chování nebo výkonnost, včetně zranitelných míst specifických pro AI, jako jsou „tzv. data poisoning“ nebo nepřátelské útoky, jakož i příslušná rizika pro základní práva, jak vyžaduje toto nařízení.
(78)
O procedimento de avaliação da conformidade previsto no presente regulamento deverá aplicar-se aos requisitos essenciais de cibersegurança de um produto com elementos digitais abrangido por um Regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais e classificado como sistema de IA de risco elevado nos termos do presente regulamento. No entanto, esta regra não deverá resultar na redução do nível de garantia necessário para os produtos críticos com elementos digitais abrangidos por um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais. Por conseguinte, em derrogação desta regra, os sistemas de IA de risco elevado abrangidos pelo âmbito de aplicação do presente regulamento e que também são qualificados como produtos importantes e críticos com elementos digitais nos termos de um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais, e aos quais se aplica o procedimento de avaliação da conformidade baseado no controlo interno referido num anexo do presente regulamento, são sujeitos às disposições em matéria de avaliação da conformidade de um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais, no que diz respeito aos requisitos essenciais em matéria de cibersegurança desse regulamento. Neste caso, em relação a todos os outros aspetos abrangidos pelo presente regulamento, deverão aplicar-se as respetivas disposições em matéria de avaliação da conformidade com base no controlo interno estabelecidas num anexo do presente regulamento. Com base nos conhecimentos e competências especializados da ENISA sobre a política de cibersegurança e as funções atribuídas à ENISA nos termos do Regulamento (UE) 2019/881 do Parlamento Europeu e do Conselho (37), a Comissão Europeia deverá cooperar com a ENISA em questões relacionadas com a cibersegurança dos sistemas de IA.
(78)
Postup posuzování shody stanovený tímto nařízením by se měl použít ve vztahu k základním požadavkům na kybernetickou bezpečnost produktu s digitálními prvky, na něž se vztahuje nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky a který je podle tohoto nařízení klasifikován jako vysoce rizikový systém AI. Toto pravidlo by však nemělo vést ke snížení potřebné míry jistoty u kritických produktů s digitálními prvky, na něž se vztahuje nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky. Odchylně od tohoto pravidla se proto vysoce rizikové systémy AI, které spadají do oblasti působnosti tohoto nařízení a jsou rovněž považovány za důležité a kritické produkty s digitálními prvky podle nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky, na něž se vztahuje postup posuzování shody založený na interní kontrole stanovený v příloze tohoto nařízení, řídí ustanoveními nařízení Evropského parlamentu a Rady o horizontálních požadavcích na kybernetickou bezpečnost produktů s digitálními prvky o posuzování shody, pokud jde o základní požadavky uvedeného nařízení na kybernetickou bezpečnost. V tomto případě by se na všechny ostatní aspekty, na něž se vztahuje toto nařízení, měla použít příslušná ustanovení o posuzování shody založená na interní kontrole uvedená v příloze tohoto nařízení. Na základě poznatků a odborných znalostí agentury ENISA týkajících se politiky kybernetické bezpečnosti a úkolů svěřených agentuře ENISA podle nařízení Evropského parlamentu a Rady 2019/881 (37) by Komise měla v otázkách souvisejících s kybernetickou bezpečností systémů AI s agenturou ENISA spolupracovat.
(79)
É apropriado que uma pessoa singular ou coletiva específica, identificada como «prestador», assuma a responsabilidade pela colocação no mercado ou pela colocação em serviço de um sistema de IA de risco elevado, independentemente de ser ou não a pessoa que concebeu ou desenvolveu o sistema.
(79)
Je vhodné, aby za uvedení vysoce rizikového systému AI na trh nebo do provozu převzala odpovědnost konkrétní fyzická nebo právnická osoba definovaná jako poskytovatel bez ohledu na to, zda je tato fyzická nebo právnická osoba totožná s osobou, která tento systém navrhla nebo vyvinula.
(80)
Enquanto signatários da Convenção das Nações Unidas sobre os Direitos das Pessoas com Deficiência, a União e os seus Estados-Membros estão legalmente obrigados a proteger as pessoas com deficiência contra a discriminação e a promover a sua igualdade, a assegurar que as pessoas com deficiência gozem da mesma igualdade de acesso que outros às tecnologias e sistemas de informação e comunicação e a assegurar o respeito pela privacidade das pessoas com deficiência. Tendo em conta a crescente importância e utilização de sistemas de IA, a aplicação dos princípios de conceção universal a todas as novas tecnologias e serviços deverá garantir o acesso pleno e equitativo de todas as pessoas potencialmente afetadas pelas tecnologias de IA ou que utilizem essas tecnologias, incluindo as pessoas com deficiência, de uma forma que tenha plenamente em conta a sua inerente dignidade e diversidade. Por conseguinte, é essencial que os prestadores assegurem a plena conformidade com os requisitos de acessibilidade, incluindo a Diretiva (UE) 2016/2102 do Parlamento Europeu e do Conselho (38) e a Diretiva (UE) 2019/882. Os prestadores deverão assegurar o cumprimento destes requisitos desde a conceção. Por conseguinte, as medidas necessárias deverão ser integradas, tanto quanto possível, na conceção do sistema de IA de risco elevado.
(80)
Unie a členské státy jsou jakožto signatáři Úmluvy Organizace spojených národů o právech osob se zdravotním postižením ze zákona povinny chránit osoby se zdravotním postižením před diskriminací a podporovat jejich rovnost, zajistit, aby osoby se zdravotním postižením měly na rovnoprávném základě s ostatními přístup k informačním a komunikačním technologiím a systémům, a zaručit respektování soukromí osob se zdravotním postižením. Vzhledem k rostoucímu významu a nárůstu používání systémů AI by uplatňování zásad univerzálního designu na veškeré nové technologie a služby mělo zajistit plný a rovný přístup každému, na koho mohou mít technologie AI vliv nebo kdo je používá, včetně osob se zdravotním postižením, a to způsobem, který by plně zohlednil jejich přirozenou důstojnost a rozmanitost. Je proto nutné, aby poskytovatelé zajistili plný soulad s požadavky na přístupnost, včetně směrnice Evropského parlamentu a Rady (EU) 2016/2102 (38) a směrnice (EU) 2019/882. Poskytovatelé by měli zajistit soulad s těmito požadavky již od fáze návrhu. Nezbytná opatření by proto měla být v co největší míře začleněna již do návrhu vysoce rizikového systému AI.
(81)
O prestador deverá introduzir um sistema de gestão da qualidade sólido, garantir a realização do procedimento de avaliação da conformidade exigido, elaborar a documentação pertinente e estabelecer um sistema sólido de acompanhamento pós-comercialização. Os prestadores de sistemas de IA de risco elevado sujeitos a obrigações relativas aos sistemas de gestão da qualidade nos termos do direito setorial aplicável da União deverão ter a possibilidade de incluir os elementos do sistema de gestão da qualidade previstos no presente regulamento como parte do sistema de gestão da qualidade existente previsto nesse outro direito setorial da União. A complementaridade entre o presente regulamento e o direito setorial da União em vigor deverá também ser tida em conta nas futuras atividades de normalização ou orientações adotadas pela Comissão. As autoridades públicas que colocam em serviço sistemas de IA de risco elevado para sua própria utilização podem adotar e aplicar as regras relativas ao sistema de gestão da qualidade no âmbito do sistema de gestão da qualidade adotado a nível nacional ou regional, consoante o caso, tendo em conta as especificidades do setor e as competências e a organização da autoridade pública em causa.
(81)
Poskytovatel by měl zavést spolehlivý systém řízení kvality, zajistit provedení požadovaného postupu posuzování shody, vypracovat příslušnou dokumentaci a zavést spolehlivý systém monitorování po uvedení na trh. Poskytovatelé vysoce rizikových systémů AI, na něž se vztahují povinnosti týkající se systémů řízení kvality podle příslušného odvětvového práva Unie, by měli mít možnost zahrnout prvky systému řízení kvality stanovené v tomto nařízení do stávajícího systému řízení kvality stanoveného v tomto jiném odvětvovém právu Unie. Doplňkovost mezi tímto nařízením a stávajícím odvětvovým právem Unie by měla být rovněž zohledněna v budoucích normalizačních činnostech nebo pokynech přijatých Komisí. Veřejné orgány, které uvádějí do provozu vysoce rizikové systémy AI pro vlastní potřebu, mohou přijímat a provádět pravidla pro systém řízení kvality jako součást systému řízení kvality přijatého na vnitrostátní nebo regionální úrovni, případně s přihlédnutím ke zvláštnostem daného odvětví a k pravomocím a organizaci dotyčného veřejného orgánu.
(82)
Para permitir a execução do presente regulamento e criar condições de concorrência equitativas para os operadores, tendo ainda em conta as diferentes formas de disponibilização de produtos digitais, é importante assegurar que, em qualquer circunstância, uma pessoa estabelecida na União possa prestar às autoridades todas as informações necessárias sobre a conformidade de um sistema de IA. Como tal, antes de disponibilizarem os seus sistemas de IA na União, os prestadores estabelecidos em países terceiros deverão, através de mandato escrito, designar um mandatário estabelecido na União. O mandatário desempenha um papel central ao garantir a conformidade dos sistemas de IA de risco elevado colocados no mercado ou colocados em serviço na União por esses prestadores que não estão estabelecidos na União e ao atuar como pessoa de contacto desses prestadores estabelecida na União.
(82)
Aby bylo umožněno prosazování tohoto nařízení a byly vytvořeny rovné podmínky pro provozovatele, a rovněž s přihlédnutím k různým formám zpřístupňování digitálních produktů je důležité zajistit, aby osoby usazené v Unii mohly za všech okolností poskytnout orgánům veškeré nezbytné informace o souladu systému AI. Poskytovatelé usazení ve třetích zemích by proto v případě, že dodávají do Unie systémy AI, měly předem jmenovat formou písemného pověření svého zplnomocněného zástupce usazeného v Unii. Tento zplnomocněný zástupce hraje klíčovou roli při zajišťování shody vysoce rizikových systémů AI uváděných na trh nebo do provozu v Unii uvedenými poskytovateli, kteří v Unii usazeni nejsou, a vystupuje jako jejich kontaktní osoba usazená v Unii.
(83)
Tendo em conta a natureza e a complexidade da cadeia de valor dos sistemas de IA e em consonância com o novo regime jurídico, é essencial garantir a segurança jurídica e facilitar o cumprimento do presente regulamento. Por conseguinte, é necessário clarificar o papel e as obrigações específicas dos operadores pertinentes ao longo dessa cadeia de valor, como os importadores e os distribuidores, que podem contribuir para o desenvolvimento de sistemas de IA. Em determinadas situações, esses operadores poderão desempenhar mais do que uma função ao mesmo tempo, pelo que deverão cumprir cumulativamente todas as obrigações relevantes associadas a essas funções. Por exemplo, um operador pode atuar simultaneamente como distribuidor e importador.
(83)
S ohledem na povahu a složitost hodnotového řetězce systémů AI a v souladu s novým legislativním rámcem je nezbytné zajistit právní jistotu a usnadnit soulad s tímto nařízením. Je proto zapotřebí vyjasnit úlohu a konkrétní povinnosti příslušných provozovatelů v celém tomto hodnotovém řetězci, jako jsou dovozci a distributoři, kteří mohou přispívat k vývoji systémů AI. V určitých situacích by tito provozovatelé mohli jednat ve více než jedné roli současně, a měli by proto kumulativně plnit všechny příslušné povinnosti spojené s těmito úlohami. Provozovatel by například mohl jednat současně jako distributor a dovozce.
(84)
A fim de garantir a segurança jurídica, é necessário tornar claro que, em determinadas condições específicas, qualquer distribuidor, importador, responsável pela implantação ou outro terceiro deverá ser considerado prestador de um sistema de IA de risco elevado e, por conseguinte, deverá assumir todas as obrigações pertinentes. Tal será o caso se essa entidade puser o seu nome ou marca num sistema de IA de risco elevado já colocado no mercado ou colocado em serviço, sem prejuízo de disposições contratuais que estabeleçam que as obrigações são atribuídas de outro modo. Tal seria também o caso se essa entidade efetuar uma modificação substancial de um sistema de IA de risco elevado que já tenha sido colocado no mercado ou já tenha sido colocado em serviço de forma a que continue a ser um sistema de IA de risco elevado nos termos do presente regulamento, ou se alterar a finalidade prevista de um sistema de IA, incluindo um sistema de IA de finalidade geral, que não tenha sido classificado como sendo de risco elevado e já tenha sido colocado no mercado ou colocado em serviço, de forma a que o sistema de IA se torne um sistema de IA de risco elevado nos termos do presente regulamento. Essas disposições deverão aplicar-se sem prejuízo das disposições mais específicas estabelecidas em determinada legislação de harmonização da União com base no novo regime jurídico, conjuntamente com o presente regulamento. Por exemplo, o artigo 16.o, n.o 2, do Regulamento (UE) 2017/745, que estabelece que determinadas alterações não deverão ser consideradas alterações de um dispositivo suscetíveis de afetar a sua conformidade com os requisitos aplicáveis, deverá continuar a aplicar-se aos sistemas de IA de risco elevado que sejam dispositivos médicos na aceção do referido regulamento.
(84)
V zájmu zajištění právní jistoty je nezbytné vyjasnit, že za určitých zvláštních podmínek by každý distributor, dovozce, zavádějící subjekt nebo jiná třetí strana měli být považováni za poskytovatele vysoce rizikového systému AI, a proto by měli převzít všechny příslušné povinnosti. Tak by tomu mělo být v případě, že daná strana připojí své jméno, název nebo ochrannou známku k vysoce rizikovému systému AI, který již byl uveden na trh nebo do provozu, aniž jsou dotčena smluvní ujednání stanovující jiné rozdělení povinností. Mělo by tomu tak být i v případě, kdy tato strana podstatně změní vysoce rizikový systém AI, který již byl uveden na trh nebo do provozu, přičemž v důsledku této změny daný systém AI zůstává vysoce rizikovým systémem AI v souladu tímto nařízením, nebo pokud změní zamýšlený účel systému AI, včetně obecného systému AI, který nebyl klasifikován jako vysoce rizikový a již byl uveden na trh nebo do provozu, přičemž v důsledku této změny se daný systém AI stává vysoce rizikovým systémem AI v souladu s tímto nařízením. Uvedená ustanovení by se měla použít, aniž by byla dotčena konkrétnější ustanovení zavedená v některých harmonizačních právních předpisech Unie založených na novém legislativním rámci, s nimiž by se toto nařízení mělo společně uplatňovat. Například čl. 16 odst. 2 nařízení (EU) 2017/745, kterým se stanoví, že některé změny by neměly být považovány za úpravy prostředku, které by mohly ovlivnit jeho soulad s platnými požadavky, by se měl i nadále vztahovat na vysoce rizikové systémy AI, které jsou zdravotnickými prostředky ve smyslu uvedeného nařízení.
(85)
Sistemas de IA de finalidade geral podem ser utilizados por si próprios como sistemas de IA de risco elevado ou ser componentes de outros sistemas de IA de risco elevado. Por conseguinte, devido à sua natureza específica e a fim de assegurar uma partilha equitativa de responsabilidades ao longo da cadeia de valor da IA, os prestadores desses sistemas deverão, independentemente de poderem ser utilizados como sistemas de IA de risco elevado enquanto tal por outros prestadores ou como componentes de sistemas de IA de risco elevado, e salvo disposição em contrário no presente regulamento, deverão colaborar estreitamente com os prestadores dos sistemas de IA de risco elevado relevantes, a fim de permitir a sua conformidade com as obrigações pertinentes previstas no presente regulamento e com as autoridades competentes criadas nos termos do presente regulamento.
(85)
Obecné systémy AI mohou být samy o sobě používány jako vysoce rizikové systémy AI nebo mohou být součástí jiných vysoce rizikových systémů AI. Vzhledem k zvláštní povaze těchto systémů a v zájmu zajištění spravedlivého rozdělení odpovědností v celém hodnotovém řetězci AI bez ohledu na to, zda mohou být dané systémy jinými poskytovateli používány jako vysoce rizikové systémy AI jako takové, nebo jako součásti vysoce rizikových systémů AI, a není-li v tomto nařízení stanoveno jinak, měli by poskytovatelé těchto systémů úzce spolupracovat s poskytovateli příslušných vysoce rizikových systémů AI, aby mohli plnit příslušné povinnosti podle tohoto nařízení, a s příslušnými orgány zřízenými podle tohoto nařízení.
(86)
Se, nas condições estabelecidas no presente regulamento, o prestador que colocou inicialmente o sistema de IA no mercado ou o colocou em serviço deixar de ser considerado prestador para efeitos do presente regulamento, e se não tiver excluído expressamente a mudança do sistema de IA para um sistema de IA de risco elevado, o primeiro prestador deverá, no entanto, cooperar estreitamente e disponibilizar as informações necessárias e prestar o acesso técnico razoavelmente esperado e outra assistência necessária para o cumprimento das obrigações estabelecidas no presente regulamento, em especial no que diz respeito ao cumprimento da avaliação da conformidade dos sistemas de IA de risco elevado.
(86)
Pokud by poskytovatel, který původně uvedl systém AI na trh nebo do provozu, za podmínek stanovených v tomto nařízení již neměl být považován za poskytovatele pro účely tohoto nařízení a pokud výslovně nevyloučil změnu systému AI na vysoce rizikový systém AI, měl by tento bývalý poskytovatel přesto úzce spolupracovat, zpřístupnit nezbytné informace a poskytnout rozumně očekávaný technický přístup a další pomoc, které jsou nezbytné pro splnění povinností stanovených v tomto nařízení, zejména pokud jde o soulad s posuzováním shody vysoce rizikových systémů AI.
(87)
Além disso, caso um sistema de IA de risco elevado que seja um componente de segurança de um produto abrangido pelo âmbito de aplicação da legislação de harmonização da União com base no novo regime jurídico não seja colocado no mercado ou colocado em serviço independentemente desse produto, o fabricante do produto, conforme definido na referida legislação deverá cumprir as obrigações dos prestadores previstas no presente regulamento e deverá, nomeadamente, assegurar que o sistema de IA integrado no produto final cumpre os requisitos do presente regulamento.
(87)
Kromě toho pokud vysoce rizikový systém AI, který je bezpečnostní komponentou produktu, jenž spadá do oblasti působnosti harmonizačních právních předpisů Unie založených na novém legislativním rámci, není uveden na trh nebo do provozu nezávisle na tomto produktu, měl by výrobce produktu definovaného v uvedených právních předpisech splňovat povinnosti poskytovatele stanovené v tomto nařízení, a zejména zajistit, aby systém AI zabudovaný do konečného produktu splňoval požadavky tohoto nařízení.
(88)
Na cadeia de valor da IA, várias entidades disponibilizam frequentemente sistemas de IA, ferramentas e serviços, mas também componentes ou processos que são incorporados pelo prestador no sistema de IA com vários objetivos, nomeadamente o treino de modelos, a reciclagem do treino de modelos, a testagem e a avaliação de modelos, a integração em software ou outros aspetos do desenvolvimento de modelos. Essas entidades desempenham um papel importante na cadeia de valor para com o prestador do sistema de IA de risco elevado no qual os seus sistemas de IA, ferramentas, serviços, componentes ou processos estão integrados, e deverão facultar a esse prestador, mediante acordo escrito, as informações, capacidades, acesso técnico e demais assistência necessários com base no estado da arte geralmente reconhecido, a fim de permitir que o prestador cumpra plenamente as obrigações estabelecidas no presente regulamento, sem comprometer os seus próprios direitos de propriedade intelectual ou segredos comerciais.
(88)
V celém hodnotovém řetězci AI mnoho stran často dodává systémy, nástroje a služby AI, ale také komponenty nebo procesy, které poskytovatel začleňuje do systému AI s různými cíli, včetně trénování modelu, opětovného trénování modelu, testování a hodnocení modelu, integrace do softwaru nebo jiných aspektů vývoje modelu. Tyto strany hrají důležitou úlohu v hodnotovém řetězci ve vztahu k poskytovateli vysoce rizikového systému AI, do něhož jsou jejich systémy, nástroje, služby, součásti nebo procesy AI začleňovány, a měly by na základě písemné dohody tomuto poskytovateli poskytnout nezbytné informace, schopnosti, technický přístup a další pomoc na základě obecně uznávaného stavu techniky, aby poskytovatel mohl plně plnit povinnosti stanovené v tomto nařízení, aniž by byla ohrožena jejich práva duševního vlastnictví nebo obchodní tajemství.
(89)
Os terceiros que tornam acessíveis ao público ferramentas, serviços, processos ou componentes de IA que não sejam modelos de IA de finalidade geral não deverão ser obrigados a cumprir requisitos que visem as responsabilidades ao longo da cadeia de valor da IA, em especial para com o prestador que os utilizou ou os integrou, quando essas ferramentas, serviços, processos ou componentes de IA são disponibilizados ao abrigo de uma licença gratuita e aberta. Os criadores de ferramentas, serviços, processos ou componentes de IA gratuitos e de fonte aberta que não sejam modelos de IA de finalidade geral deverão ser incentivados a aplicar práticas de documentação amplamente adotadas, como modelos de cartões e folhas de dados, como forma de acelerar a partilha de informações ao longo da cadeia de valor da IA, permitindo a promoção de sistemas de IA de confiança na União.
(89)
Třetí strany, které zpřístupňují veřejnosti nástroje, služby, procesy nebo součásti AI jiné než obecné modely AI, by neměly být povinny dodržovat požadavky vztahující se k odpovědnosti vůči celému hodnotovému řetězci AI, zejména vůči poskytovateli, který tyto nástroje, služby, procesy nebo součásti AI použil nebo začlenil, pokud jsou zpřístupněny na základě svobodné a otevřené licence. Vývojáři svobodných nástrojů, služeb, procesů nebo komponent AI a s otevřeným zdrojovým kódem jiných než obecné modely AI by měli být vybízeni, aby zavedli široce přijaté dokumentační postupy, například modelové karty a datové listy, jako způsob rychlejšího sdílení informací v celém hodnotovém řetězci AI, což umožní podporu důvěryhodných systémů AI v Unii.
(90)
A Comissão poderá desenvolver e recomendar modelos voluntários de cláusulas contratuais entre prestadores de sistemas de IA de risco elevado e terceiros que disponibilizem ferramentas, serviços, componentes ou processos utilizados ou integrados em sistemas de IA de risco elevado, a fim de facilitar a cooperação ao longo da cadeia de valor. Ao elaborar modelos de cláusulas contratuais voluntárias, a Comissão deverá também ter em conta eventuais requisitos contratuais aplicáveis em setores ou casos comerciais específicos.
(90)
Komise by mohla vypracovat a doporučit dobrovolné vzorové smluvní podmínky mezi poskytovateli vysoce rizikových systémů AI a třetími stranami, které dodávají nástroje, služby, komponenty nebo procesy, jež jsou ve vysoce rizikových systémech AI používány nebo jsou do nich integrovány, a v celém hodnotovém řetězci tak usnadnit spolupráci. Při vypracovávání dobrovolných vzorových smluvních podmínek by Komise měla také zohlednit možné smluvní požadavky použitelné v konkrétních odvětvích nebo obchodních případech.
(91)
Dada a natureza dos sistemas de IA e os riscos para a segurança e os direitos fundamentais possivelmente associados à sua utilização, nomeadamente no que respeita à necessidade de assegurar um controlo adequado do desempenho de um sistema de IA num cenário real, é apropriado determinar responsabilidades específicas para os responsáveis pela implantação. Em particular, os responsáveis pela implantação deverão tomar medidas técnicas e organizacionais adequadas para assegurar que utilizam os sistemas de IA de risco elevado de acordo com as instruções de utilização e deverão ser equacionadas outras obrigações relativas ao controlo do funcionamento dos sistemas de IA e à manutenção de registos, se for caso disso. Além disso, os responsáveis pela implantação deverão assegurar que as pessoas encarregadas de aplicar as instruções de utilização e de supervisão humana, tal como estabelecido no presente regulamento, têm as competências necessárias, em especial um nível adequado de literacia, formação e autoridade no domínio da IA para desempenhar adequadamente essas funções. Essas obrigações não deverão prejudicar outras obrigações do responsável pela implantação em relação a sistemas de IA de risco elevado nos termos do direito da União ou do direito nacional.
(91)
Vzhledem k povaze systémů AI a rizikům z hlediska bezpečnosti a základních práv, která mohou souviset s jejich používáním, a to i pokud jde o potřebu zajistit řádné monitorování výkonnosti daného systému AI v reálných podmínkách, je vhodné stanovit konkrétní odpovědnost zavádějících subjektů. Zavádějící subjekty by zejména měly přijmout vhodná technická a organizační opatření, aby zajistily, že budou vysoce rizikové systémy AI používat v souladu s návodem k použití, a měly by být stanoveny některé další povinnosti týkající se monitorování fungování systémů AI a případně uchovávání záznamů. Zavádějící subjekty by dále měly zajistit, aby osoby pověřené uplatňováním návodů k použití a lidským dohledem, jak je stanoveno v tomto nařízení, měly nezbytnou způsobilost, zejména odpovídající úroveň gramotnosti, odborné přípravy a pravomoci v oblasti AI, aby mohly tyto úkoly řádně plnit. Těmito povinnostmi by neměly být dotčeny jiné povinnosti zavádějících subjektů v souvislosti s vysoce rizikovými systémy AI podle práva Unie nebo vnitrostátního práva.
(92)
O presente regulamento não prejudica a obrigação de os empregadores informarem ou de informarem e consultarem os trabalhadores ou os seus representantes, nos termos do direito e das práticas da União ou nacionais, incluindo a Diretiva 2002/14/CE do Parlamento Europeu e do Conselho (39), sobre as decisões de colocação em serviço ou de utilização de sistemas de IA. Continua a ser necessário garantir a informação dos trabalhadores e dos seus representantes sobre a implantação prevista de sistemas de IA de risco elevado no local de trabalho quando não estiverem cumpridas as condições para essas obrigações de informação ou de informação e consulta previstas noutros instrumentos jurídicos. Além disso, esse direito de informação é acessório e necessário ao objetivo de proteção dos direitos fundamentais subjacente ao presente regulamento. Por conseguinte, o presente regulamento deverá estabelecer um requisito de informação para esse efeito, sem afetar os direitos existentes dos trabalhadores.
(92)
Tímto nařízením nejsou dotčeny povinnosti zaměstnavatelů týkající se informování zaměstnanců nebo informování zaměstnanců a projednávání se zaměstnanci nebo jejich zástupci podle práva a praxe Unie nebo vnitrostátního práva a praxe, včetně směrnice Evropského parlamentu a Rady 2002/14/ES (39), o rozhodnutích o uvedení do provozu nebo používání systémů AI. Je i nadále nezbytné zajistit informování zaměstnanců a jejich zástupců o plánovaném zavádění vysoce rizikových systémů AI na pracovišti v případech, kdy nejsou splněny podmínky pro tyto povinnosti týkající se informování nebo informování a projednávání stanovené v jiných právních nástrojích. Toto právo na informace je navíc doplňkové a nezbytné k dosažení cíle ochrany základních práv, na němž je toto nařízení založeno. Proto by měl být v tomto nařízení stanoven požadavek na informování, aniž by byla dotčena stávající práva zaměstnanců.
(93)
Ainda que os riscos relacionados com os sistemas de IA possam resultar da forma como esses sistemas são concebidos, tais riscos também podem decorrer da forma como os sistemas de IA são utilizados. Os responsáveis pela implantação de sistemas de IA de risco elevado desempenham, por conseguinte, um papel fundamental na garantia da proteção dos direitos fundamentais, complementando as obrigações do prestador aquando do desenvolvimento do sistema de IA. Os responsáveis pela implantação estão em melhor posição para entender de que forma o sistema de IA de risco elevado será utilizado em concreto, pelo que, graças a um conhecimento mais preciso do contexto de utilização, das pessoas ou grupos de pessoas suscetíveis de serem afetados, incluindo os grupos vulneráveis, conseguem identificar potenciais riscos significativos que não foram previstos na fase de desenvolvimento. Os responsáveis pela implantação de sistemas de IA de risco elevado enumerados num anexo do presente regulamento também desempenham um papel crítico na informação de pessoas singulares e deverão, quando tomam decisões ou ajudam a tomar decisões relacionadas com pessoas singulares, conforme o caso, informar as pessoas singulares de que estão sujeitas à utilização do sistema de IA de risco elevado. Essas informações deverão incluir a finalidade prevista e o tipo de decisões que toma. O responsável pela implantação deverá também informar as pessoas singulares do seu direito à explicação a que se refere o presente regulamento. No que diz respeito aos sistemas de IA de risco elevado utilizados para fins de aplicação da lei, essa obrigação deverá ser aplicada em conformidade com o artigo 13.o da Diretiva (UE) 2016/680.
(93)
Rizika spojená se systémy AI mohou vyplývat ze způsobu, jakým jsou tyto systémy navrhovány, avšak mohou rovněž vzniknout v souvislosti s tím, jak jsou tyto systémy používány. Subjekty zavádějící vysoce rizikový systém AI proto hrají zásadní úlohu při zajišťování ochrany základních práv a doplňují povinnosti poskytovatele při vývoji systému AI. Zavádějící subjekty mají nejlepší předpoklady k tomu, aby posoudily, jak bude vysoce rizikový systém AI konkrétně používán, a mohou proto identifikovat potenciální rizika, která se ve fázi vývoje nepředpokládala, a to díky přesnější znalosti kontextu používání a osob nebo skupin osob, na které bude mít systém pravděpodobně dopad, včetně zranitelných skupin. Subjekty zavádějící vysoce rizikové systémy AI uvedené v příloze tohoto nařízení rovněž hrají zásadní úlohu při informování fyzických osob a měly by při přijímání rozhodnutí nebo pomoci při přijímání rozhodnutí týkajících se fyzických osob v příslušných případech tyto fyzické osoby informovat, že jsou použití vysoce rizikového systému AI vystaveny. Tyto informace by měly zahrnovat zamýšlený účel a druh přijímaných rozhodnutí. Zavádějící subjekt by měl rovněž informovat danou fyzickou osobu o jejím právu na vysvětlení uvedeném v tomto nařízení. Pokud jde o vysoce rizikové systémy AI používané pro účely vymáhání práva, měla by být tato povinnost provedena v souladu s článkem 13 směrnice (EU) 2016/680.
(94)
Qualquer tratamento de dados biométricos envolvido na utilização de sistemas de IA destinados à identificação biométrica para efeitos de aplicação da lei tem de cumprir o disposto no artigo 10.o da Diretiva (UE) 2016/680, segundo o qual tal tratamento só é autorizado se for estritamente necessário, se estiver sujeito a garantias adequadas dos direitos e liberdades do titular dos dados e se for autorizado pelo direito da União ou de um Estado-Membro. Essa utilização, quando autorizada, também tem de respeitar os princípios estabelecidos no artigo 4.o, n.o 1, da Diretiva (UE) 2016/680, nomeadamente a licitude, a lealdade e a transparência, a limitação da finalidade, a exatidão e a limitação da conservação.
(94)
Jakékoli zpracování biometrických údajů související s používáním systémů AI pro biometrickou identifikaci pro účely vymáhání práva musí být v souladu s článkem 10 směrnice (EU) 2016/680, který takové zpracování povoluje pouze ve zcela nezbytných případech, s výhradou vhodných záruk pro práva a svobody subjektů údajů, a pokud je povoleno právem Unie nebo členského státu. Je-li takové použití povoleno, musí rovněž splňovat zásady stanovené v čl. 4 odst. 1 směrnice (EU) 2016/680, včetně zákonnosti, spravedlnosti a transparentnosti, účelového omezení, přesnosti a omezení uložení.
(95)
Sem prejuízo do direito da União aplicável, nomeadamente do Regulamento (UE) 2016/679 e da Diretiva (UE) 2016/680, tendo em conta a natureza intrusiva dos sistemas de identificação biométrica à distância em diferido, a utilização de sistemas de identificação biométrica à distância em diferido deverá estar sujeita a salvaguardas. Os sistemas de identificação biométrica à distância em diferido deverão ser sempre utilizados de uma forma proporcionada, legítima e estritamente necessária e, por conseguinte, orientada, em termos das pessoas a identificar, da localização, do âmbito temporal e com base num conjunto de dados fechados de imagens vídeo captadas licitamente. Em qualquer caso, os sistemas de identificação biométrica à distância em diferido não deverão ser utilizados no âmbito da aplicação da lei para conduzir a uma vigilância indiscriminada. As condições para a identificação biométrica à distância em diferido não deverão, em caso algum, constituir uma base para contornar as condições da proibição e as exceções rigorosas aplicáveis à identificação biométrica à distância em tempo real.
(95)
Aniž je dotčeno platné právo Unie, zejména nařízení (EU) 2016/679 a směrnice (EU) 2016/680, vzhledem k rušivé povaze systémů následné biometrické identifikace na dálku by používání systémů následné biometrické identifikace na dálku mělo podléhat zárukám. Systémy následné biometrické identifikace by měly být vždy používány způsobem, který je přiměřený, legitimní a nezbytně nutný, a tudíž cílený, pokud jde o osoby, které mají být identifikovány, místo, časový rozsah, a založeny na uzavřeném souboru údajů legálně získaných videozáznamů. V žádném případě by systémy následné biometrické identifikace na dálku neměly být používány v rámci vymáhání práva, aby vedly k nerozlišujícímu sledování. Podmínky pro následnou biometrickou identifikaci na dálku by v žádném případě neměly sloužit jako základ pro obcházení podmínek zákazu a přísných výjimek pro biometrickou identifikaci na dálku v reálném čase.
(96)
A fim de assegurar de forma eficiente a proteção dos direitos fundamentais, os responsáveis pela implantação de sistemas de IA de risco elevado que sejam organismos de direito público, ou as entidades privadas que prestam serviços públicos e os responsáveis pela implantação de determinados sistemas de IA de risco elevado enumerados num anexo do presente regulamento, como as entidades bancárias ou seguradoras, deverão realizar uma avaliação do seu impacto nos direitos fundamentais antes da sua colocação em serviço. Os serviços de natureza pública importantes para as pessoas também podem ser prestados por entidades privadas. As entidades privadas que prestam esses serviços públicos estão ligados a funções de interesse público, designadamente nos domínios da educação, dos cuidados de saúde, dos serviços sociais, da habitação e da administração da justiça. O objetivo da avaliação do impacto nos direitos fundamentais é que o responsável pela implantação identifique os riscos específicos para os direitos das pessoas ou grupos de pessoas suscetíveis de serem afetados e identifique as medidas a tomar em caso de concretização desses riscos. A avaliação de impacto deverá ser efetuada antes da implantação do sistema de IA de risco elevado e deverá ser atualizada quando o responsável pela implantação considerar que qualquer um dos fatores pertinentes se alterou. A avaliação de impacto deverá identificar os processos pertinentes do responsável pela implantação em que o sistema de IA de risco elevado será utilizado em conformidade com a sua finalidade prevista e deverá incluir uma descrição do período e da frequência em que o sistema se destina a ser utilizado, bem como de categorias específicas de pessoas singulares e grupos suscetíveis de serem afetados no contexto específico de utilização. A avaliação deverá também incluir a identificação de riscos específicos de danos suscetíveis de ter impacto nos direitos fundamentais dessas pessoas ou grupos. Ao realizar esta avaliação, o responsável pela implantação deverá ter em conta as informações pertinentes para uma avaliação adequada do impacto, incluindo, mas não exclusivamente, as informações facultadas pelo prestador do sistema de IA de risco elevado nas instruções de utilização. À luz dos riscos identificados, os responsáveis pela implantação deverão determinar as medidas a tomar em caso de concretização desses riscos, incluindo, por exemplo, mecanismos de governação nesse contexto específico de utilização, tais como mecanismos de supervisão humana de acordo com as instruções de utilização ou procedimentos de tratamento de queixas e de reparação, uma vez que poderão ser fundamentais para atenuar os riscos para os direitos fundamentais em casos concretos de utilização. Após a realização dessa avaliação de impacto, o responsável pela implantação deverá notificar a autoridade de fiscalização do mercado competente. Se for caso disso, para recolher as informações pertinentes necessárias para realizar a avaliação de impacto, os responsáveis pela implantação de sistemas de IA de risco elevado, em especial quando os sistemas de IA são utilizados no setor público, poderão implicar as partes interessadas pertinentes, incluindo os representantes de grupos de pessoas suscetíveis de serem afetadas pelo sistema de IA, peritos independentes e organizações da sociedade civil, na realização dessas avaliações de impacto e na conceção de medidas a tomar em caso de concretização dos riscos. O Serviço Europeu para a Inteligência Artificial («Serviço para a IA») deverá desenvolver um modelo de questionário, a fim de facilitar a conformidade e reduzir os encargos administrativos para os responsáveis pela implantação.
(96)
Aby byla účinně zajištěna ochrana základních práv, měly by subjekty zavádějící vysoce rizikové systémy AI, které jsou veřejnoprávními subjekty, nebo soukromé subjekty poskytující veřejné služby a subjekty zavádějící určité vysoce rizikové systémy AI uvedené v příloze tohoto nařízení, jako jsou bankovní nebo pojišťovací subjekty, provést před jejich uvedením do provozu posouzení dopadů na základní práva. Služby důležité pro jednotlivce, které jsou veřejné povahy, mohou poskytovat i soukromé subjekty. Soukromé subjekty poskytující takové veřejné služby jsou spojeni s úkoly ve veřejném zájmu, například v oblastech vzdělávání, zdravotní péče, sociálních služeb, bydlení či výkonu spravedlnosti. Cílem posouzení dopadů na základní práva je, aby zavádějící subjekt určil konkrétní rizika pro práva jednotlivců nebo skupin jednotlivců, která mohou být dotčena, a určil opatření, která je třeba přijmout v případě naplnění tohoto rizika. Posouzení dopadů by mělo být provedeno před prvním zavedením vysoce rizikového systému AI a mělo by být aktualizováno, pokud se zavádějící subjekt domnívá, že se kterýkoli z relevantních faktorů změnil. Posouzení dopadů by mělo určit příslušné procesy zavádějícího subjektu, v nichž bude vysoce rizikový systém AI používán v souladu s jeho zamýšleným účelem, a mělo by zahrnovat popis časového období a četnosti, v nichž má být systém používán, jakož i konkrétní kategorie fyzických osob a skupin, které budou pravděpodobně dotčeny v konkrétním kontextu použití. Posouzení by mělo rovněž zahrnovat identifikaci konkrétních rizik újmy, která by mohla mít dopad na základní práva těchto osob nebo skupin. Při provádění tohoto posouzení by měl zavádějící subjekt zohlednit informace relevantní pro řádné posouzení dopadu, mimo jiné včetně informací uvedených poskytovatelem vysoce rizikového systému AI v návodu k použití. S ohledem na zjištěná rizika by zavádějící subjekty měly určit opatření, která je třeba přijmout v případě naplnění těchto rizik, například systémy správy a řízení v tomto konkrétním kontextu použití včetně opatření pro lidský dohled v souladu s návodem k použití nebo postupů pro vyřizování stížností a zjednávání nápravy, neboť taková opatření by mohla přispět ke zmírnění rizik pro základní práva v konkrétních případech použití. Po provedení tohoto posouzení dopadů by měl zavádějící subjekt informovat příslušný orgán dozoru nad trhem. Za účelem shromáždění relevantních informací nezbytných k provedení posouzení dopadů by subjekty zavádějící vysoce rizikový systém AI, zejména pokud jsou systémy AI používány ve veřejném sektoru, mohly do provádění těchto posouzení dopadů a navrhování opatření, která je třeba přijmout v případě naplnění rizik, případně zapojit příslušné zúčastněné strany, včetně zástupců skupin osob, které by mohly být systémem AI dotčeny, nezávislých odborníků a organizací občanské společnosti. Evropský úřad pro umělou inteligenci (dále jen „úřad pro AI“) by měl vypracovat vzor dotazníku s cílem usnadnit dodržování předpisů a snížit administrativní zátěž pro zavádějící subjekty.
(97)
O conceito de modelos de IA de finalidade geral deverá ser claramente definido e distinguido do conceito de sistemas de IA, a fim de proporcionar segurança jurídica. A definição deverá basear-se nas principais características funcionais de um modelo de IA de finalidade geral, em especial na generalidade e na capacidade de desempenhar com competência uma vasta gama de funções distintas. Estes modelos são normalmente treinados com grandes quantidades de dados, através de vários métodos, como a aprendizagem autossupervisionada, não supervisionada ou por reforço. Os modelos de IA de finalidade geral podem ser colocados no mercado de várias formas, nomeadamente através de bibliotecas, interfaces de programação de aplicações, para descarregamento direto ou como cópia física. Estes modelos podem ser alterados ou aperfeiçoados em novos modelos. Embora os modelos de IA sejam componentes essenciais dos sistemas de IA, não constituem, por si só, sistemas de IA. Os modelos de IA exigem a adição de outros componentes, como, por exemplo, uma interface de utilizador, para se tornarem sistemas de IA. Os modelos de IA são tipicamente integrados e fazem parte integrante dos sistemas de IA. O presente regulamento estabelece regras específicas para os modelos de IA de finalidade geral e para os modelos de IA de finalidade geral que apresentam riscos sistémicos, as quais se deverão aplicar também quando estes modelos são integrados ou fazem parte integrante de um sistema de IA. Deverá entender-se que as obrigações dos prestadores de modelos de IA de finalidade geral deverão aplicar-se assim que os modelos de IA de finalidade geral sejam colocados no mercado. Quando o prestador de um modelo de IA de finalidade geral integra um modelo próprio no seu próprio sistema de IA que é disponibilizado no mercado ou colocado em serviço, esse modelo deverá ser considerado colocado no mercado e, por conseguinte, as obrigações previstas no presente regulamento para os modelos deverão continuar a aplicar-se para além das obrigações aplicáveis aos sistemas de IA. As obrigações estabelecidas para os modelos não deverão, em caso algum, aplicar-se quando um modelo próprio for utilizado para processos puramente internos não essenciais para disponibilizar um produto ou um serviço a terceiros e os direitos das pessoas singulares não forem afetados. Tendo em conta os seus potenciais efeitos significativamente negativos, os modelos de IA de finalidade geral com risco sistémico deverão estar sempre sujeitos às obrigações pertinentes nos termos do presente regulamento. A definição não deverá abranger os modelos de IA utilizados antes da sua colocação no mercado exclusivamente para fins de atividades de investigação, desenvolvimento e prototipagem. Tal não prejudica a obrigação de cumprir o presente regulamento quando, na sequência dessas atividades, um modelo for colocado no mercado.
(97)
Měl by být jasně definován pojem „obecné modely AI“ a měl by být odlišen od pojmu „systémy AI“, aby byla zajištěna právní jistota. Definice by měla být založena na klíčových funkčních vlastnostech obecného modelu AI, zejména na obecnosti a schopnosti kompetentně plnit širokou škálu různých úkolů. Tyto modely jsou obvykle trénovány na velkém množství dat, a to prostřednictvím různých metod, jako je učení s učitelem, bez učitele nebo posilované učení. Obecné modely AI mohou být uváděny na trh různými způsoby, mimo jiné prostřednictvím knihoven, aplikačních programovacích rozhraní (API), jako přímé stahování nebo jako fyzická kopie. Tyto modely lze dále upravovat nebo dolaďovat do nových modelů. Ačkoli jsou modely AI základními součástmi systémů AI, nepředstavují samy o sobě systémy AI. Modely AI vyžadují doplnění dalších součástí, jako je například uživatelské rozhraní, aby se z nich staly systémy AI. Modely AI jsou obvykle začleněny do systémů AI a tvoří jejich součást. Toto nařízení stanoví zvláštní pravidla pro obecné modely AI a pro obecné modely AI, které představují systémová rizika, jež by se měla použít i v případě, že jsou tyto modely začleněny nebo jsou součástí systému AI. Mělo by se mít za to, že povinnosti poskytovatelů obecných modelů AI by měly platit, jakmile budou obecné modely AI uvedeny na trh. Pokud poskytovatel obecného modelu AI do svého vlastního systému AI, který je dodáván na trh nebo uváděn do provozu, začlení vlastní model, měl by být tento model považován za uvedený na trh, a proto by se kromě povinností pro systémy AI měly i nadále uplatňovat povinnosti stanovené v tomto nařízení pro modely. Povinnosti stanovené pro modely by se v žádném případě neměly vztahovat na případy, kdy se vlastní model používá pro čistě interní postupy, které nejsou nezbytné pro poskytování produktu nebo služby třetím stranám, a kdy nejsou dotčena práva fyzických osob. Vzhledem k jejich možným výrazně negativním účinkům by se na obecné modely AI se systémovým rizikem vždy měly vztahovat příslušné povinnosti podle tohoto nařízení. Definice by se neměla vztahovat na modely AI používané před jejich uvedením na trh výhradně za účelem výzkumu, vývoje a tvorby prototypů. Tím není dotčena povinnost dodržovat toto nařízení, pokud je model v návaznosti na tyto činnosti na trh uveden.
(98)
Embora a generalidade de um modelo possa, entre outros critérios, ser também determinada por vários parâmetros, deverá considerar-se os modelos com, pelo menos, mil milhões de parâmetros e treinados com uma grande quantidade de dados utilizando a autossupervisão em escala para apresentar uma generalidade significativa e executar com competência uma vasta gama de tarefas distintas.
(98)
Jelikož obecná povaha modelu by mohla být mimo jiné určena také počtem parametrů, modely s alespoň miliardou parametrů a trénované s velkým množstvím dat za použití rozsáhlé sebekontroly by měly být považovány za modely, které vykazují značnou obecnost a kompetentně plní širokou škálu specifických úkolů.
(99)
Os grandes modelos generativos de IA são um exemplo típico de um modelo de IA de finalidade geral, uma vez que permitem a geração flexível de conteúdos, por exemplo, sob a forma de texto, áudio, imagens ou vídeo, que podem facilmente adaptar-se a uma vasta gama de tarefas distintas.
(99)
Typickým příkladem obecného modelu AI jsou velké generativní modely AI, umožňující flexibilní tvorbu obsahu (například ve formě textu, zvuku, obrázků nebo videa), který může snadno plnit širokou škálu specifických úkolů.
(100)
Quando um modelo de IA de finalidade geral é integrado num sistema de IA ou dele faz parte integrante, este sistema deverá ser considerado um sistema de IA de finalidade geral se, graças a esta integração, tiver a capacidade de servir uma variedade de finalidades. Um sistema de IA de finalidade geral pode ser utilizado diretamente ou ser integrado em outros sistemas de IA.
(100)
Je-li obecný model AI začleněn do systému AI nebo je jeho součástí, měl by být tento systém považován za obecný systém AI, pokud je tento systém díky tomuto začlenění schopen sloužit různým účelům. Obecný systém AI se může používat přímo nebo může být součástí jiných systémů AI.
(101)
Os prestadores de modelos de IA de finalidade geral têm um papel e uma responsabilidade específicos na cadeia de valor da IA, uma vez que os modelos que facultam podem constituir a base de uma série de sistemas a jusante, muitas vezes disponibilizados por prestadores a jusante que precisam de ter uma boa compreensão dos modelos e das suas capacidades, tanto para permitir a integração desses modelos nos seus produtos como para cumprir as suas obrigações nos termos deste ou de outros regulamentos. Por conseguinte, deverão ser previstas medidas de transparência proporcionadas, incluindo a elaboração e a atualização da documentação e a prestação de informações sobre o modelo de IA de finalidade geral para a sua utilização pelos prestadores a jusante. A documentação técnica deverá ser elaborada e mantida atualizada pelo prestador do modelo de IA de finalidade geral para efeitos da sua disponibilização, mediante pedido, ao Serviço para a IA e às autoridades nacionais competentes. O conjunto mínimo de elementos a incluir nessa documentação deverá ser estabelecido em anexos específicos do presente regulamento. A Comissão deverá estar habilitada a alterar esses anexos por meio de atos delegados à luz da evolução tecnológica.
(101)
Poskytovatelé obecných modelů AI mají v celém hodnotovém řetězci AI zvláštní úlohu a odpovědnost, neboť modely, které poskytují, mohou tvořit základ pro řadu navazujících systémů, často poskytovaných navazujícími poskytovateli, kteří musejí těmto modelům a jejich schopnostem dobře rozumět, a to jak pro účely začlenění těchto modelů do vlastních produktů, tak v zájmu plnění svých povinností podle tohoto nebo jiných nařízení. Proto by měla být stanovena přiměřená opatření v oblasti transparentnosti, včetně vypracování a aktualizace dokumentace a poskytování informací o obecném modelu AI pro jeho používání navazujícími poskytovateli. Poskytovatel obecného modelu AI by měl technickou dokumentaci připravit a aktualizovat, aby ji na požádání zpřístupnil úřadu pro AI a příslušným vnitrostátním orgánům. Minimální soubor prvků, které mají být v takové dokumentaci obsaženy, by měl být stanoven v konkrétních přílohách tohoto nařízení. Komise by měla být zmocněna měnit tyto přílohy prostřednictvím aktů v přenesené pravomoci s ohledem na vývoj technologií.
(102)
O software e os dados, incluindo os modelos, lançados ao abrigo de uma licença gratuita e de fonte aberta que lhes permita serem partilhados abertamente e que permita aos utilizadores aceder-lhes livremente, utilizá-los, modificá-los e redistribuí-los, ou a versões modificadas dos mesmos, podem contribuir para a investigação e a inovação no mercado e podem proporcionar oportunidades de crescimento significativas para a economia da União. Deverá considerar-se que os modelos de IA de finalidade geral lançados ao abrigo de licenças gratuitas e de fonte aberta asseguram elevados níveis de transparência e abertura se os seus parâmetros, incluindo as ponderações, as informações sobre a arquitetura do modelo e as informações sobre a utilização do modelo, forem disponibilizados ao público. A licença deverá também ser considerada gratuita e de fonte aberta quando permite aos utilizadores executar, copiar, distribuir, estudar, alterar e melhorar o software e os dados, incluindo os modelos, na condição de serem atribuídos os créditos ao prestador original do modelo e de serem respeitadas as condições de distribuição idênticas ou comparáveis.
(102)
Software a data, včetně modelů, zpřístupněné na základě svobodné licence s otevřeným zdrojovým kódem, která umožňuje jejich otevřené sdílení a v jejichž rámci mohou uživatelé k nim nebo jejich změněným verzím volně přistupovat, používat je, upravovat a přerozdělovat, mohou přispět k výzkumu a inovacím na trhu a mohou hospodářství Unie poskytnout významné příležitosti k růstu. Obecné modely AI zpřístupněné na základě svobodných licencí s otevřeným zdrojovým kódem by měly být považovány za modely zajišťující vysokou úroveň transparentnosti a otevřenosti, pokud jsou jejich parametry, včetně vah, informací o architektuře modelu a informací o používání modelů veřejně dostupné. Licence by měla být považována za svobodnou s otevřeným zdrojovým kódem i v případě, že umožňuje uživatelům provozovat, kopírovat, distribuovat, studovat, měnit a vylepšovat software a data, včetně modelů za podmínky, že je připsána původnímu poskytovateli modelu a že jsou dodrženy totožné nebo srovnatelné podmínky distribuce.
(103)
Componentes de IA gratuitos e de fonte aberta abrangem o software e os dados, incluindo modelos e modelos de IA de finalidade geral, ferramentas, serviços ou processos de um sistema de IA. Os componentes de IA gratuitos e de fonte aberta podem ser disponibilizados através de diferentes canais, nomeadamente o seu desenvolvimento em repositórios abertos. Para efeitos do presente regulamento, os componentes de IA disponibilizados por um preço ou convertidos em dinheiro de outra forma, nomeadamente no âmbito da prestação de apoio técnico ou de outros serviços (inclusive através de uma plataforma de software) relacionados com o componente de IA, ou a utilização de dados pessoais por motivos que não sejam exclusivamente para melhorar a segurança, a compatibilidade ou a interoperabilidade do software, com exceção das transações entre microempresas, não deverão beneficiar das exceções previstas para os componentes de IA gratuitos e de fonte aberta. O facto de disponibilizar componentes de IA através de repositórios abertos não deverá, por si só, constituir uma conversão em dinheiro.
(103)
Svobodné komponenty AI s otevřeným zdrojovým kódem zahrnují software a data, včetně modelů a obecných modelů AI, nástrojů, služeb nebo procesů systému AI. Svobodné komponenty AI s otevřeným zdrojovým kódem lze poskytovat prostřednictvím různých kanálů, včetně jejich vývoje na otevřených úložištích. Pro účely tohoto nařízení by se výjimky poskytované pro svobodné komponenty AI s otevřeným zdrojovým kódem neměly vztahovat na součásti AI, které jsou poskytovány za cenu nebo jinak zpeněženy, včetně poskytování technické podpory nebo jiných služeb souvisejících s předmětnou komponentou AI, a to i prostřednictvím softwarové platformy, nebo používání osobních údajů z jiných důvodů než výhradně za účelem zlepšení bezpečnosti, kompatibility nebo interoperability softwaru, s výjimkou transakcí mezi mikropodniky. Zpřístupnění komponent AI prostřednictvím otevřených úložišť by samo o sobě nemělo představovat zpeněžení.
(104)
Os prestadores de modelos de IA de finalidade geral lançados ao abrigo de uma licença gratuita e de fonte aberta e cujos parâmetros, incluindo as ponderações, as informações sobre a arquitetura do modelo e as informações sobre a utilização de modelos, são disponibilizados ao público deverão ser objeto de exceções no que diz respeito aos requisitos relacionados com a transparência impostos aos modelos de IA de finalidade geral, a menos que se possa considerar que apresentam um risco sistémico, caso em que a circunstância de o modelo ser transparente e acompanhado de uma licença de fonte aberta não deverá ser considerada um motivo suficiente para excluir o cumprimento das obrigações previstas no presente regulamento. Em todo o caso, uma vez que o lançamento de modelos de IA de finalidade geral ao abrigo de licenças gratuitas e de fonte aberta não revela necessariamente informações substanciais sobre o conjunto de dados utilizado para o treino ou aperfeiçoamento do modelo nem sobre a forma como foi assegurada a conformidade da legislação em matéria de direitos de autor, a exceção prevista para os modelos de IA de finalidade geral ao cumprimento dos requisitos relacionados com a transparência não deverá dizer respeito à obrigação de elaborar um resumo sobre os conteúdos utilizados para o treino de modelos nem à obrigação de aplicar uma política de cumprimento da legislação da União em matéria de direitos de autor, em especial para identificar e cumprir a reserva de direitos prevista no artigo 4.o, n.o 3, da Diretiva (UE) 2019/790 do Parlamento Europeu e do Conselho (40).
(104)
Na poskytovatele obecných modelů AI, které jsou zpřístupňovány na základě svobodné licence s otevřeným zdrojovým kódem a jejichž parametry, včetně vah, informací o architektuře modelu a informací o používání modelu, jsou veřejně dostupné, by se měly vztahovat výjimky, pokud jde o požadavky týkající se transparentnosti kladené na obecné modely AI, ledaže je lze považovat za modely představující systémové riziko; v takovém případě by okolnost, že model je transparentní a doprovázený licencí s otevřeným zdrojovým kódem, neměla být považována za dostatečný důvod pro upuštění od souladu s povinnostmi podle tohoto nařízení. V každém případě vzhledem k tomu, že zpřístupnění obecných modelů AI na základě svobodné licence s otevřeným zdrojovým kódem nemusí nutně odhalit podstatné informace o souboru dat použitém pro trénování nebo doladění modelu a o tom, jak bylo zajištěno dodržování autorského práva, neměla by se výjimka stanovená pro obecné modely AI z dodržování požadavků souvisejících s transparentností týkat povinnosti vypracovat shrnutí obsahu použitého pro trénování modelu a povinnosti zavést politiku dodržování autorského práva Unie, zejména pokud jde o identifikaci a dodržování výhrad práv podle čl. 4 odst. 3 směrnice Evropského parlamentu a Rady (EU) 2019/790 (40).
(105)
Os modelos de IA de finalidade geral, em especial os grandes modelos generativos de IA, capazes de gerar texto, imagens e outros conteúdos, apresentam oportunidades de inovação únicas, mas também desafios para artistas, autores e outros criadores e para a forma como os seus conteúdos criativos são criados, distribuídos, utilizados e consumidos. O desenvolvimento e o treino de tais modelos exigem o acesso a grandes quantidades de texto, imagens, vídeos e outros dados. As técnicas de prospeção de textos e dados podem ser amplamente utilizadas neste contexto para recuperar e analisar esses conteúdos, que podem ser protegidos por direitos de autor e direitos conexos. Qualquer utilização de conteúdos protegidos por direitos de autor exige a autorização dos titulares dos direitos em causa, a menos que se apliquem exceções e limitações pertinentes em matéria de direitos de autor. A Diretiva (UE) 2019/790 introduziu exceções e limitações que permitem reproduções e extrações de obras ou outro material para efeitos de prospeção de textos e dados, sob determinadas condições. Ao abrigo destas regras, os titulares de direitos podem optar por reservar os seus direitos sobre as suas obras ou outro material para impedir a prospeção de textos e dados, a menos que tal seja feito para fins de investigação científica. Sempre que os direitos de exclusão tenham sido expressamente reservados de forma adequada, os prestadores de modelos de IA de finalidade geral têm de obter uma autorização dos titulares de direitos caso pretendam realizar uma prospeção de textos e dados nessas obras.
(105)
Obecné modely AI, zejména velké generativní modely AI schopné vytvářet text, obrázky a další obsah, představují jedinečné inovační příležitosti, ale také výzvy pro umělce, autory a další tvůrce i pro způsoby, jimiž je jejich tvůrčí obsah vytvářen, distribuován, používán a zužitkováván. Vývoj a trénování těchto modelů vyžaduje přístup k obrovskému množství textů, obrázků, videí a dalších dat. V této souvislosti mohou být pro vyhledávání a analýzu takového obsahu, který může být chráněn autorským právem a právy s ním souvisejícími, hojně využívány techniky vytěžování textů a dat. Jakékoli užití obsahu chráněného autorským právem vyžaduje svolení dotčeného nositele práv, pokud neplatí výjimky a omezení z autorských práv. Směrnice (EU) 2019/790 zavedla výjimky a omezení umožňující za určitých podmínek rozmnožování a extrakce děl nebo jiných předmětů ochrany pro účely vytěžování textů a dat. Podle těchto pravidel se nositelé práv mohou rozhodnout, že si práva ke svým dílům nebo jiným předmětům ochrany vyhradí, aby zabránili vytěžování textů a dat, pokud vytěžování neprobíhá pro účely vědeckého výzkumu. Jestliže byla práva na výjimku výslovně a vhodným způsobem vyhrazena, musí poskytovatelé obecných modelů AI od nositelů práv získat povolení, pokud chtějí vytěžování textů a dat u těchto děl provádět.
(106)
Os prestadores que colocam modelos de IA de finalidade geral no mercado da União deverão assegurar o cumprimento das obrigações pertinentes previstas no presente regulamento. Para o efeito, os prestadores de modelos de IA de finalidade geral deverão pôr em prática uma política que cumpra o direito da União em matéria de direitos de autor e direitos conexos, em especial para identificar e cumprir a reserva de direitos expressa pelos titulares de direitos nos termos do artigo 4.o, n.o 3, da Diretiva (UE) 2019/790. Qualquer prestador que coloque um modelo de IA de finalidade geral no mercado da União deverá cumprir esta obrigação, independentemente da jurisdição em que têm lugar os atos relevantes em matéria de direitos de autor subjacentes ao treino desses modelos de IA de finalidade geral. Tal é necessário para assegurar condições de concorrência equitativas entre os prestadores de modelos de IA de finalidade geral em que nenhum prestador possa obter uma vantagem competitiva no mercado da União aplicando normas de direitos de autor menos rigorosas do que as previstas na União.
(106)
Poskytovatelé, kteří uvádějí na trh Unie obecné modely AI, by měli zajistit dodržování příslušných povinností stanovených v tomto nařízení. Za tímto účelem by poskytovatelé obecných modelů AI měli zavést politiky k dodržování práva Unie v oblasti autorského práva a práv s ním souvisejících, zejména s cílem identifikovat a dodržovat výhradu práv vyjádřenou nositeli práv podle čl. 4 odst. 3 směrnice (EU) 2019/790. Každý poskytovatel, který uvádí na trh Unie obecný model AI, by měl tuto povinnost splnit bez ohledu na jurisdikci, v níž dochází k úkonům souvisejícím s autorským právem, na jejichž základě se tyto obecné modely AI trénují. Toto je nezbytné k zajištění rovných podmínek mezi poskytovateli obecných modelů AI, kdy by žádný poskytovatel neměl být schopen získat konkurenční výhodu na trhu Unie tím, že bude uplatňovat nižší standardy autorského práva, než jaké jsou v Unii stanoveny.
(107)
A fim de aumentar a transparência dos dados utilizados no treino prévio e no treino de modelos de IA de finalidade geral, incluindo textos e dados protegidos pela legislação em matéria de direitos de autor, é adequado que os prestadores desses modelos elaborem e disponibilizem ao público um resumo suficientemente pormenorizado dos conteúdos utilizados para o treino do modelo de IA de finalidade geral. Embora tendo devidamente em conta a necessidade de proteger os segredos comerciais e as informações comerciais de caráter confidencial, esse resumo deverá, de um modo geral, ser abrangente no seu âmbito de aplicação, em vez de ser tecnicamente pormenorizado, a fim de facilitar às partes com interesses legítimos, incluindo os titulares de direitos de autor, o exercício e a aplicação dos seus direitos ao abrigo do direito da União, por exemplo, enumerando as principais coleções ou conjuntos de dados que entraram no treino do modelo, como grandes bases de dados públicas ou privadas ou arquivos de dados, e oferecendo uma explicação narrativa sobre outras fontes de dados utilizadas. É conveniente que o Serviço para a IA disponibilize um modelo para o resumo, que deverá ser simples e eficaz, e permita ao prestador facultar o resumo exigido sob a forma narrativa.
(107)
V zájmu zvýšení transparentnosti dat, která se používají v předběžném trénování a trénování obecných modelů AI, včetně textů a dat chráněných autorským právem, je vhodné, aby poskytovatelé těchto modelů vypracovali a zveřejnili dostatečně podrobné shrnutí obsahu, jenž byl pro trénování obecného modelu AI použit. Při řádném zohlednění potřeby chránit obchodní tajemství a důvěrné obchodní informace by toto shrnutí mělo být ve svém rozsahu obecně komplexní, a nikoli technicky podrobné, aby stranám s oprávněnými zájmy, včetně nositelů autorských práv, usnadnilo výkon a prosazování jejich práv podle práva Unie, a například by v něm tak měly být uvedeny hlavní sady nebo soubory dat, které byly při trénování modelu použity, jako jsou rozsáhlé soukromé nebo veřejné databáze nebo datové archivy, a mělo by v něm být obsaženo narativní vysvětlení jiných použitých zdrojů údajů. Je vhodné, aby úřad pro AI poskytl vzor takového shrnutí, který by měl být jednoduchý a účinný a měl by poskytovateli umožnit poskytnout požadované shrnutí v podobě souvislého textu.
(108)
No que diz respeito às obrigações impostas aos prestadores de modelos de IA de finalidade geral para que ponham em prática uma política de cumprimento da legislação da União em matéria de direitos de autor e disponibilizem ao público um resumo dos conteúdos utilizados para o treino, o Serviço para a IA deverá controlar se o prestador cumpriu essas obrigações sem verificar ou proceder a uma avaliação obra a obra dos dados de treino no que respeita aos direitos de autor. O presente regulamento não afeta a aplicação das regras em matéria de direitos de autor previstas no direito da União.
(108)
Pokud jde o povinnost poskytovatelů obecných modelů AI zavést politiku dodržování autorského práva Unie a o jejich povinnost zveřejnit shrnutí obsahu použitého pro trénování, měl by úřad pro AI sledovat, zda daný poskytovatel tyto povinnosti splnil, aniž by z hlediska dodržování autorského práva ověřoval nebo přistupoval k posuzování trénovacích dat podle jednotlivých činností. Tímto nařízením není dotčeno prosazování pravidel v oblasti autorského práva, jak je stanoveno v právu Unie.
(109)
O cumprimento das obrigações aplicáveis aos prestadores de modelos de IA de finalidade geral deverá ser consentâneo e proporcionado ao tipo de prestador do modelo, excluindo a necessidade de conformidade para as pessoas que desenvolvem ou utilizam modelos para fins de investigação não profissional ou científica, que deverão, no entanto, ser incentivadas a cumprir voluntariamente esses requisitos. Sem prejuízo do direito da União em matéria de direitos de autor, o cumprimento dessas obrigações deverá ter devidamente em conta a dimensão do prestador e permitir formas simplificadas de conformidade para as PME, incluindo as empresas em fase de arranque, que não deverão representar um custo excessivo nem desencorajar a utilização de tais modelos. Em caso de alteração ou aperfeiçoamento de um modelo, as obrigações dos prestadores de modelos de IA de finalidade geral deverão limitar-se a essa alteração ou aperfeiçoamento, por exemplo, complementando a documentação técnica já existente com informações sobre as alterações, nomeadamente novas fontes de dados de treino, como forma de cumprir as obrigações da cadeia de valor previstas no presente regulamento.
(109)
Dodržování povinností, které se vztahují na poskytovatele obecných modelů AI, by mělo být úměrné a přiměřené typu poskytovatele modelu, aniž by tyto povinnosti musely dodržovat osoby, které vyvíjejí nebo používají modely pro nekomerční účely nebo pro účely vědeckého výzkumu; tyto osoby by měly být nicméně vybízeny k tomu, aby uvedené požadavky plnily dobrovolně. Aniž je dotčeno právo Unie v oblasti autorského práva, dodržování těchto povinností by mělo náležitě zohlednit velikost poskytovatele a umožnit zjednodušené způsoby jejich dodržování malým a středním podnikům, včetně podniků začínajících, přičemž tyto způsoby by neměly představovat nadměrné náklady a neměly by od používání takových modelů odrazovat. V případě změny nebo doladění modelu by povinnosti poskytovatelů obecných modelů AI měly být omezeny na tuto změnu nebo doladění, například doplněním již existující technické dokumentace o informace o změnách, včetně nových zdrojů trénovacích dat, jako prostředku ke splnění povinností hodnotového řetězce stanovených v tomto nařízení.
(110)
Os modelos de IA de finalidade geral poderão representar riscos sistémicos que incluem, entre outros, quaisquer efeitos negativos reais ou razoavelmente previsíveis em relação a acidentes graves, perturbações de setores críticos e consequências graves para a saúde e a segurança públicas; quaisquer efeitos negativos, reais ou razoavelmente previsíveis, em processos democráticos e na segurança pública e económica; a divulgação de conteúdos ilegais, falsos ou discriminatórios. Os riscos sistémicos deverão ser entendidos como aumentando as capacidades e o alcance do modelo, podendo surgir ao longo de todo o ciclo de vida do modelo e ser influenciados por condições de utilização indevida, fiabilidade do modelo, equidade e segurança do modelo, pelo nível de autonomia do modelo, pelo seu acesso a ferramentas, modalidades novas ou combinadas, estratégias de lançamento e distribuição, pelo potencial de remoção de barreiras de segurança e outros fatores. Em especial, as abordagens internacionais identificaram, até à data, a necessidade de prestar atenção aos riscos decorrentes de uma potencial utilização indevida intencional ou de problemas não intencionais de controlo relacionados com o alinhamento com a intenção humana; os riscos químicos, biológicos, radiológicos e nucleares, tais como as formas como as barreiras à entrada podem ser baixadas, inclusive para o desenvolvimento, a conceção, a aquisição ou a utilização de armas; as capacidades cibernéticas ofensivas, tais como as formas em que a descoberta, exploração ou utilização operacional de vulnerabilidades pode ser permitida; os efeitos da interação e da utilização de ferramentas, incluindo, por exemplo, a capacidade de controlar os sistemas físicos e de interferir com as infraestruturas críticas; os riscos decorrentes de os modelos fazerem cópias de si próprios ou de «autorreplicação», ou de treinarem outros modelos; a forma como os modelos podem dar origem a enviesamentos prejudiciais e a discriminação, com riscos para os indivíduos, as comunidades ou as sociedades; a facilitação da desinformação ou o prejuízo para a privacidade, com ameaças para os valores democráticos e os direitos humanos; o risco de que um acontecimento específico conduza a uma reação em cadeia com efeitos negativos consideráveis que possam afetar até uma cidade inteira, uma atividade num domínio inteiro ou uma comunidade inteira.
(110)
Obecné modely AI by mohly představovat systémová rizika, která zahrnují mimo jiné jakékoli skutečné nebo rozumně předvídatelné negativní dopady v souvislosti se závažnými haváriemi, narušením kritických odvětví a závažnými důsledky pro veřejné zdraví a bezpečnost; jakékoli skutečné nebo rozumně předvídatelné negativní dopady na demokratické procesy, veřejnou a hospodářskou bezpečnost; šíření nezákonného, nepravdivého nebo diskriminačního obsahu. Systémová rizika by měla být chápána tak, že se zvyšují se schopnostmi a dosahem modelu, mohou vzniknout během celého životního cyklu modelu a jsou ovlivněna podmínkami zneužití, spolehlivostí modelu, poctivostí modelu a bezpečností modelu, úrovní autonomie modelu, jeho přístupem k nástrojům, novými nebo kombinovanými způsoby, strategiemi zpřístupňování a distribuce, potenciálem k odstranění ochranných opatření a dalšími faktory. Mezinárodní přístupy dosud zejména zjistily, že je třeba zaměřit pozornost na rizika vyplývající z možného úmyslného zneužití nebo z nezamýšlených problémů s ovládáním souvisejících se sladěním s lidským záměrem; chemická, biologická, radiologická a jaderná rizika, například způsoby snížení překážek v přístupu, a to i pokud jde o vývoj zbraní, pořizování konstrukce nebo použití; mohou být umožněny ofenzivní kybernetické schopnosti, jako jsou způsoby odhalování zranitelností, zneužívání nebo operační využití; účinky interakce a používání nástrojů, například schopnost ovládat fyzické systémy a zasahovat do kritické infrastruktury; rizika, že modely budou vytvářet kopie sebe sama neboli se „samoreplikovat“ nebo že budou trénovat jiné modely; způsoby, jakými mohou modely vést ke škodlivé předpojatosti a diskriminaci s rizikem pro jednotlivce, komunity nebo společnosti; napomáhání dezinformacím nebo poškozování soukromí s ohrožením demokratických hodnot a lidských práv; riziko, že by konkrétní událost mohla vést k řetězové reakci se značnými negativními dopady, které by mohly ovlivnit až celé město, celou oblast činnosti nebo celou komunitu.
(111)
É conveniente estabelecer uma metodologia para a classificação de modelos de IA de finalidade geral como modelos de IA de finalidade geral com riscos sistémicos. Uma vez que os riscos sistémicos resultam de capacidades particularmente elevadas, deverá considerar-se que um modelo de IA de finalidade geral apresenta riscos sistémicos se tiver capacidades de elevado impacto, avaliadas com base em ferramentas e metodologias técnicas adequadas ou um impacto significativo no mercado interno devido ao seu alcance. Entende-se por capacidades de elevado impacto em modelos de IA de finalidade geral as capacidades que correspondam ou excedam as capacidades registadas nos modelos de IA de finalidade geral mais avançados. O conjunto completo de capacidades num modelo poderá ser mais bem compreendido após a sua colocação no mercado ou quando os responsáveis pela implantação interagirem com o modelo. De acordo com o estado da arte no momento da entrada em vigor do presente regulamento, a quantidade acumulada de cálculo utilizado para o treino do modelo de IA de finalidade geral medido em operações de vírgula flutuante é uma das aproximações pertinentes para as capacidades do modelo. A quantidade acumulada de cálculo utilizado para o treino inclui o cálculo utilizado nas atividades e métodos destinados a reforçar as capacidades do modelo antes da implantação, como o treino prévio, a geração de dados sintéticos e o aperfeiçoamento. Por conseguinte, deverá ser estabelecido um limiar inicial de operação de vírgula flutuante que, se for cumprido por um modelo de IA de finalidade geral, conduz à presunção de que o modelo é um modelo de IA de finalidade geral com riscos sistémicos. Este limiar deverá ser ajustado ao longo do tempo para refletir as mudanças tecnológicas e industriais, tais como as melhorias algorítmicas ou uma maior eficiência do hardware, e deverá ser complementado com parâmetros de referência e indicadores da capacidade dos modelos. Para o fundamentar, o Serviço para a IA deverá colaborar com a comunidade científica, a indústria, a sociedade civil e outros peritos. Os limiares, bem como as ferramentas e os parâmetros de referência para a avaliação das capacidades de elevado impacto, deverão ser indicadores fortes da generalidade, das suas capacidades e do risco sistémico associado dos modelos de IA de finalidade geral, e poderão ter em conta a forma como o modelo será colocado no mercado ou o número de utilizadores que pode afetar. Para complementar este sistema, a Comissão deverá ter a possibilidade de tomar decisões individuais que designem um modelo de IA de finalidade geral como sendo um modelo de IA de finalidade geral com risco sistémico, caso se verifique que esse modelo tem capacidades ou impacto equivalentes aos captados pelo limiar estabelecido. Essa decisão deverá ser tomada com base numa avaliação global dos critérios de designação do modelo de IA de finalidade geral com risco sistémico estabelecidos num anexo do presente regulamento, tais como a qualidade ou a dimensão do conjunto de dados de treino, o número de utilizadores profissionais e finais, as suas modalidades de entrada e saída, o seu nível de autonomia e escalabilidade ou as ferramentas a que tem acesso. Mediante pedido fundamentado de um prestador cujo modelo tenha sido designado um modelo de IA de finalidade geral com risco sistémico, a Comissão deverá ter em conta o pedido e pode decidir reavaliar se ainda é possível considerar que o modelo de IA de finalidade geral apresenta riscos sistémicos.
(111)
Je vhodné stanovit metodiku klasifikace obecných modelů AI jako obecných modelů AI se systémovými riziky. Vzhledem k tomu, že systémová rizika vyplývají ze schopností s obzvláště velkým dopadem, měl by být obecný model AI považován za model představující systémová rizika, pokud má schopnosti s velkým dopadem, hodnocené na základě vhodných technických nástrojů a metodik, nebo významný dopad na vnitřní trh v důsledku svého dosahu. Schopnostmi s velkým dopadem v obecných modelech AI se rozumí schopnosti, které odpovídají schopnostem zaznamenaným v nejpokročilejších obecných modelech AI nebo je překračují. Po uvedení modelu na trh nebo při interakci zavádějících subjektů s modelem by bylo možné lépe porozumět celé škále schopností modelu. Podle aktuálního stavu vývoje v době vstupu tohoto nařízení v platnost je jednou z relevantních aproximací schopností modelu kumulativní množství výpočetních operací použité pro trénování obecného modelu AI, měřené při operacích s pohyblivou řádovou čárkou. Kumulativní množství výpočetních operací použitých pro trénování zahrnuje výpočty používané v rámci činností a metod, které jsou určeny k posílení schopností modelu před zavedením, jako je předběžné trénování, vytváření syntetických dat a doladění. Proto by měla být stanovena počáteční prahová hodnota operací s pohyblivou řádovou čárkou, která v případě, že ji určitý obecný model AI splňuje, vede k domněnce, že daný model je obecným modelem AI se systémovými riziky. Tato prahová hodnota by měla být v průběhu času upravována tak, aby odrážela technologické a průmyslové změny, jako jsou algoritmická zlepšení nebo zvýšená účinnost hardwaru, a měla by být doplněna referenčními hodnotami a ukazateli schopnosti modelu. Za tímto účelem by měl úřad pro AI spolupracovat s vědeckou obcí, průmyslem, občanskou společností a dalšími odborníky. Prahové hodnoty, jakož i nástroje a referenční hodnoty pro posuzování schopností s velkým dopadem by měly být silnými prediktory obecnosti, jejích schopností a souvisejícího systémového rizika obecných modelů AI a mohly by zohledňovat způsob, jakým bude daný model uveden na trh, nebo počet uživatelů, na něž může mít vliv. Za účelem doplnění tohoto systému by Komise měla mít možnost přijímat individuální rozhodnutí určující obecný model AI jako obecný model AI se systémovým rizikem, pokud se zjistí, že tento model má schopnosti nebo dopad odpovídající těm, které jsou zachyceny stanovenou prahovou hodnotou. Toto rozhodnutí by mělo být přijato na základě celkového posouzení kritérií pro určování obecných modelů AI se systémovým rizikem stanovených v příloze tohoto nařízení, jako je kvalita nebo velikost souboru trénovacích dat, počet podnikatelských a koncových uživatelů, způsoby jejich vstupů a výstupů, úroveň autonomie a škálovatelnosti nebo nástroje, k nimž má přístup. Komise by měla zohlednit odůvodněnou žádost poskytovatele, jehož model byl určen jako obecný model AI se systémovým rizikem, a může rozhodnout o přehodnocení, zda lze mít nadále za to, že tento model představuje systémová rizika.
(112)
É igualmente necessário tornar claro um procedimento para a classificação de um modelo de IA de finalidade geral com riscos sistémicos. Deverá presumir-se que um modelo de IA de finalidade geral que cumpra o limiar aplicável às capacidades de elevado impacto é um modelo de IA de finalidade geral com risco sistémico. O mais tardar duas semanas após o cumprimento dos requisitos ou após ter conhecimento de que um modelo de IA de finalidade geral cumprirá os requisitos que conduzem à presunção, o prestador deverá notificar o Serviço para a IA. Este aspeto é especialmente pertinente em relação ao limiar de operações de vírgula flutuante, uma vez que o treino de modelos de IA de finalidade geral exige um planeamento considerável, que inclui a afetação inicial de recursos de cálculo e, por conseguinte, os prestadores de modelos de IA de finalidade geral conseguem saber se o seu modelo cumprirá o limiar antes da conclusão do treino. No contexto dessa notificação, o prestador deverá poder demonstrar que um modelo de IA de finalidade geral, devido às suas características específicas, excecionalmente não apresenta riscos sistémicos e que, por conseguinte, não deverá ser classificado como sendo um modelo de IA de finalidade geral com riscos sistémicos. Essas informações são úteis para o Serviço para a IA antecipar a colocação no mercado de modelos de IA de finalidade geral com riscos sistémicos e os prestadores poderem começar a dialogar com o Serviço para a IA numa fase precoce. Essas informações são especialmente importantes no que diz respeito aos modelos de IA de finalidade geral que se prevê sejam lançados como fonte aberta, uma vez que, após o lançamento de modelos de fonte aberta, as medidas necessárias para assegurar o cumprimento das obrigações decorrentes do presente regulamento podem ser mais difíceis de aplicar.
(112)
Je rovněž třeba vyjasnit postup pro klasifikaci obecných modelů AI se systémovými riziky. Za obecný model AI se systémovým rizikem by měl být předběžně považován obecný model AI, který splňuje příslušnou prahovou hodnotu pro schopnosti s velkým dopadem. Pokud určitý obecný model AI splnil podmínky dávající vyvstat takové předběžné domněnce nebo pokud začne být zřejmé, že tyto podmínky splní, měl by poskytovatel tuto skutečnost nejpozději do dvou týdnů oznámit úřadu pro AI. To je obzvláště důležité ve vztahu k prahové hodnotě operací s pohyblivou řádovou čárkou, protože trénování obecných modelů AI vyžaduje značné plánování, které zahrnuje předběžné přidělování výpočetních zdrojů, a poskytovatelé obecných modelů AI jsou proto schopni zjistit již před ukončením trénování, zda jejich model prahové hodnoty dosáhne. V souvislosti s tímto oznámením by poskytovatel měl být schopen prokázat, že vzhledem ke svým specifickým vlastnostem daný obecný model AI výjimečně nepředstavuje systémová rizika, a neměl by proto být jako obecný model AI se systémovými riziky klasifikován. Tyto informace jsou cenné pro úřad pro AI, aby mohl předvídat uvádění obecných modelů AI se systémovými riziky na trh, a poskytovatelé tak mohou začít s úřadem pro AI již zkraje spolupracovat. Tyto informace jsou obzvláště důležité, pokud jde o obecné modely AI, které mají být zpřístupněny jako modely s otevřeným zdrojovým kódem, jelikož po zveřejnění modelu s otevřeným zdrojovým kódem může být provádění nezbytných opatření k zajištění souladu s povinnostmi podle tohoto nařízení obtížnější.
(113)
Se a Comissão tomar conhecimento de que um modelo de IA de finalidade geral cumpre os requisitos para se classificar como modelo de IA de finalidade geral com risco sistémico, facto que anteriormente não era conhecido ou sobre o qual o prestador em causa não notificou a Comissão, a Comissão deverá ficar habilitada a designá-lo como tal. Um sistema de alertas qualificados deverá assegurar que o Serviço para a IA é informado pelo painel científico sobre modelos de IA de finalidade geral que possivelmente deverão ser classificados como modelos de IA de finalidade geral com risco sistémico, a par das atividades de acompanhamento do Serviço para a IA.
(113)
Pokud se Komise dozví, že určitý obecný model AI splňuje požadavky na to, aby byl klasifikován jako obecný model AI se systémovým rizikem, což dříve buď nebylo známo, nebo o této skutečnosti příslušný poskytovatel Komisi neinformoval, měla by mít Komise pravomoc jej takto označit. Mělo by být zajištěno systémem kvalifikovaných výstrah, aby byl úřad pro AI informován vědeckou komisí o obecných modelech AI, které by případně měly být klasifikovány jako obecné modely AI se systémovým rizikem, a to nad rámec monitorovacích činností úřadu pro AI.
(114)
Os prestadores de modelos de IA de finalidade geral que apresentem riscos sistémicos deverão estar sujeitos, para além das obrigações previstas para os prestadores de modelos de IA de finalidade geral, a obrigações que visem identificar e atenuar esses riscos e assegurar um nível adequado de proteção da cibersegurança, independentemente de serem disponibilizados como modelos autónomos ou incorporados num sistema de IA ou num produto. Para alcançar esses objetivos, o presente regulamento deverá exigir que os prestadores realizem as avaliações necessárias dos modelos, em especial antes da sua primeira colocação no mercado, incluindo a realização de testagens antagónicas dos modelos e a respetiva documentação, se for caso disso também por meio de testagens internas ou externas independentes. Além disso, os prestadores de modelos de IA de finalidade geral com riscos sistémicos deverão avaliar e atenuar continuamente os riscos sistémicos, nomeadamente pondo em prática políticas de gestão de riscos, como processos de responsabilização e governação, executando o acompanhamento pós-comercialização, adotando medidas adequadas ao longo de todo o ciclo de vida do modelo e cooperando com os intervenientes pertinentes ao longo de toda a cadeia de valor da IA.
(114)
Poskytovatelé obecných modelů AI, které představují systémová rizika, by měli kromě povinností stanovených poskytovatelům obecných modelů AI podléhat povinnostem zaměřeným na identifikaci a zmírnění těchto rizik a na zajištění odpovídající úrovně ochrany kybernetické bezpečnosti bez ohledu na to, zda jsou dotyčné modely poskytovány jako modely samostatné, nebo jsou začleněny do určitého systému nebo produktu AI. Za účelem dosažení těchto cílů by toto nařízení mělo vyžadovat, aby poskytovatelé prováděli nezbytná hodnocení modelů, zejména před jejich prvním uvedením na trh, včetně provádění a dokumentace kontradiktorního testování modelů, případně i prostřednictvím interního nebo nezávislého externího testování. Kromě toho by poskytovatelé obecných modelů AI se systémovými riziky měli systémová rizika průběžně posuzovat a zmírňovat, například zavedením politik řízení rizik, jako jsou procesy odpovědnosti a správy, prováděním monitorování po uvedení na trh, přijímáním vhodných opatření v průběhu celého životního cyklu modelu a prostřednictvím spolupráce s příslušnými subjekty v celém hodnotovém řetězci AI.
(115)
Os prestadores de modelos de IA de finalidade geral com riscos sistémicos deverão avaliar e atenuar eventuais riscos sistémicos. Se, apesar dos esforços para identificar e prevenir riscos relacionados com um modelo de IA de finalidade geral que possa apresentar riscos sistémicos, o desenvolvimento ou a utilização do modelo causar um incidente grave, o prestador do modelo de IA de finalidade geral deverá, sem demora injustificada, acompanhar o incidente e comunicar quaisquer informações pertinentes e eventuais medidas corretivas à Comissão e às autoridades nacionais competentes. Além disso, os prestadores deverão assegurar um nível adequado de proteção do modelo e das suas infraestruturas físicas em termos de cibersegurança, se for caso disso ao longo de todo o ciclo de vida do modelo. A proteção em termos de cibersegurança relacionada com os riscos sistémicos associados à utilização maliciosa ou a ataques deverá ter devidamente em conta as fugas acidentais de modelos, os lançamentos não autorizados, o contornamento de medidas de segurança e a defesa contra ciberataques, o acesso não autorizado ou o roubo de modelos. Essa proteção poderá ser facilitada garantindo as ponderações dos modelos, algoritmos, servidores e conjuntos de dados, nomeadamente por intermédio de medidas de segurança operacional para a segurança da informação, de políticas específicas em matéria de cibersegurança, de soluções técnicas e estabelecidas adequadas e de controlos informáticos e físicos do acesso, adequados às circunstâncias pertinentes e aos riscos envolvidos.
(115)
Poskytovatelé obecných modelů AI se systémovými riziky by měli posuzovat a zmírňovat možná systémová rizika. Pokud navzdory úsilí o identifikaci a prevenci rizik souvisejících s obecným modelem AI, která mohou představovat rizika systémová, vývoj nebo používání modelu způsobí závažný incident, měl by poskytovatel obecného modelu AI bez zbytečného odkladu incident sledovat a oznámit veškeré relevantní informace a případná nápravná opatření Komisi a příslušným vnitrostátním orgánům. Poskytovatelé by dále během celého životního cyklu daného modelu měli zajišťovat náležitou úroveň ochrany jeho kybernetické bezpečnosti a případně jeho fyzické infrastruktury. Ochrana kybernetické bezpečnosti související se systémovými riziky spojenými se zneužitím nebo útoky by měla řádně zohledňovat nahodilý únik modelu, neoprávněné zpřístupnění, obcházení bezpečnostních opatření a obranu před kybernetickými útoky, neoprávněným přístupem nebo krádeží modelu. Tato ochrana by mohla být usnadněna zajištěním modelových vah, algoritmů, serverů a datových souborů, například prostřednictvím provozních bezpečnostních opatření pro bezpečnost informací, specifických politik kybernetické bezpečnosti, odpovídajících technických a zavedených řešení a kontrol kybernetického a fyzického přístupu, které odpovídají příslušným okolnostem a souvisejícím rizikům.
(116)
O Serviço para a IA deverá incentivar e facilitar a elaboração, a revisão e a adaptação de códigos de práticas, tendo em conta as abordagens internacionais. Todos os prestadores de modelos de IA de finalidade geral poderão ser convidados a participar. A fim de assegurar que os códigos de práticas refletem o estado da arte e têm devidamente em conta um conjunto diversificado de perspetivas, o Serviço para a IA deverá colaborar com as autoridades nacionais competentes pertinentes e poderá, se for caso disso, consultar organizações da sociedade civil e outras partes interessadas e peritos pertinentes, incluindo o painel científico, para a elaboração desses códigos. Os códigos de práticas deverão abranger as obrigações dos prestadores de modelos de IA de finalidade geral e de modelos de IA de finalidade geral que apresentem riscos sistémicos. Além disso, no que diz respeito aos riscos sistémicos, os códigos de práticas deverão ajudar a estabelecer uma taxonomia do tipo e da natureza dos riscos sistémicos a nível da União, incluindo das suas fontes. Os códigos de práticas deverão também centrar-se na avaliação específica dos riscos e em medidas de atenuação.
(116)
Úřad pro AI by měl podporovat a usnadňovat vypracování, přezkum a úpravu kodexů správné praxe s přihlédnutím k mezinárodním přístupům. K účasti by mohli být přizváni všichni poskytovatelé obecných modelů AI. Aby bylo zajištěno, že kodexy správné praxe odrážejí aktuální stav vývoje a náležitě zohledňují různorodý soubor perspektiv, měl by úřad pro AI při vypracovávání těchto kodexů spolupracovat s příslušnými vnitrostátními orgány a případně by mohl konzultovat organizace občanské společnosti a další příslušné zúčastněné strany a odborníky, včetně vědecké komise. Kodexy správné praxe by se měly vztahovat na povinnosti poskytovatelů obecných modelů AI a obecných modelů, které představují systémová rizika. Kromě toho, pokud jde o systémová rizika, měly by kodexy správné praxe pomoci stanovit taxonomii rizik týkající se druhu a povahy systémových rizik na úrovni Unie, včetně jejich zdrojů. Kodexy správné praxe by se měly rovněž zaměřit na konkrétní posouzení rizik a opatření k jejich zmírnění.
(117)
Os códigos de práticas deverão representar um instrumento central para o cumprimento adequado das obrigações previstas no presente regulamento para os prestadores de modelos de IA de finalidade geral. Os prestadores deverão poder recorrer a códigos de práticas para demonstrar o cumprimento das obrigações. Por meio de atos de execução, a Comissão pode decidir aprovar um código de práticas e conferir-lhe uma validade geral na União ou, em alternativa, estabelecer regras comuns para a execução das obrigações pertinentes, se, no momento em que o presente regulamento se tornar aplicável, não for possível finalizar um código de práticas ou este não for considerado adequado pelo Serviço para a IA. Uma vez publicada uma norma harmonizada e considerada adequada para abranger as obrigações pertinentes do Serviço para a IA, a conformidade com uma norma europeia harmonizada deverá conferir aos prestadores a presunção de conformidade. Os prestadores de modelos de IA de finalidade geral deverão, além disso, ser capazes de demonstrar a conformidade utilizando meios alternativos adequados, se não estiverem disponíveis códigos de práticas nem normas harmonizadas, ou se os prestadores optarem por não se basear neles.
(117)
Kodexy správné praxe by měly představovat ústřední nástroj pro řádné dodržování povinností stanovených tímto nařízením pro poskytovatele obecných modelů AI. Poskytovatelé by měli mít možnost kodexy správné praxe využívat, aby dodržování povinností prokázali. Komise může prostřednictvím prováděcích aktů rozhodnout o schválení kodexu správné praxe a o jeho obecné platnosti v rámci Unie, nebo případně o stanovení společných pravidel pro plnění příslušných povinností, pokud v době, kdy se toto nařízení stane použitelným, nemůže být kodex správné praxe dokončen nebo jej úřad pro AI nepovažuje za vhodný. Jakmile je zveřejněna harmonizovaná norma a úřad pro AI ji posoudí jako vhodnou k pokrytí příslušných povinností, měl by soulad s evropskou harmonizovanou normou poskytnout poskytovatelům předpoklad shody. Poskytovatelé obecných modelů AI by dále měli být schopni prokázat soulad přiměřenými alternativními prostředky, nejsou-li kodexy správné praxe nebo harmonizované normy k dispozici nebo rozhodnou-li se je tito poskytovatelé nevyužít.
(118)
O presente regulamento regula os sistemas de IA e modelos de IA, impondo determinados requisitos e obrigações aos intervenientes pertinentes no mercado que os colocam no mercado, colocam em serviço ou em utilização na União, complementando assim as obrigações dos prestadores de serviços intermediários que incorporam esses sistemas ou modelos nos seus serviços regulados pelo Regulamento (UE) 2022/2065. Na medida em que esses sistemas ou modelos estejam incorporados naquelas que são designadas por plataformas em linha de muito grande dimensão ou motores de pesquisa em linha de muito grande dimensão, estão sujeitos ao regime de gestão de riscos previsto no Regulamento (UE) 2022/2065. Por conseguinte, deverá presumir-se que as obrigações correspondentes do presente Regulamento foram cumpridas, a menos que surjam e sejam identificados nesses modelos riscos sistémicos significativos não abrangidos pelo Regulamento (UE) 2022/2065. Neste contexto, os prestadores de plataformas em linha de muito grande dimensão e de motores de pesquisa em linha de muito grande dimensão são obrigados a avaliar os potenciais riscos sistémicos decorrentes da conceção, do funcionamento e da utilização dos seus serviços, incluindo a forma como a conceção dos sistemas algorítmicos utilizados no serviço pode contribuir para esses riscos, bem como os riscos sistémicos decorrentes de potenciais utilizações indevidas. Esses prestadores são igualmente obrigados a tomar medidas de atenuação adequadas no respeito dos direitos fundamentais.
(118)
Toto nařízení upravuje systémy AI a modely AI tím, že ukládá určité požadavky a povinnosti relevantním účastníkům trhu, kteří je uvádějí na trh, do provozu nebo používají v Unii, a doplňuje tak povinnosti poskytovatelů zprostředkovatelských služeb, kteří tyto systémy nebo modely začleňují do svých služeb upravených nařízením (EU) 2022/2065. Pokud jsou tyto systémy nebo modely začleněny do určených velmi velkých online platforem nebo velmi velkých internetových vyhledávačů, podléhají rámci pro řízení rizik stanovenému v nařízení (EU) 2022/2065. V důsledku by se tak příslušné povinnosti podle tohoto nařízení měly považovat za splněné, pokud se v těchto modelech neobjeví a nejsou identifikována významná systémová rizika, na něž se nařízení (EU) 2022/2065 nevztahuje. V tomto rámci jsou poskytovatelé velmi velkých online platforem a velmi velkých internetových vyhledávačů povinni posoudit potenciální systémová rizika vyplývající z navrhování, fungování a využívání jejich služeb, včetně toho, jak může k těmto rizikům přispět návrh algoritmických systémů používaných v určité službě, jakož i systémová rizika vyplývající z možného zneužití. Tito poskytovatelé jsou rovněž povinni přijmout vhodná zmírňující opatření při dodržování základních práv.
(119)
Tendo em conta o ritmo rápido da inovação e a evolução tecnológica dos serviços digitais no âmbito dos diferentes instrumentos do direito da União, em especial tendo em conta a utilização e a perceção dos seus destinatários, os sistemas de IA abrangidos pelo presente regulamento podem ser prestados como serviços intermediários ou partes dos mesmos, na aceção do Regulamento (UE) 2022/2065, que deverão ser interpretados de forma tecnologicamente neutra. Por exemplo, os sistemas de IA podem ser utilizados para a disponibilização de motores de pesquisa em linha, em especial na medida em que um sistema de IA, como um robô de conversação em linha, efetua em princípio pesquisas em todos os sítios Web, depois incorpora os resultados nos conhecimentos que já tem e utiliza os conhecimentos atualizados para gerar um resultado único que combina diferentes fontes de informação.
(119)
Vzhledem k rychlému tempu inovací a technologickému vývoji digitálních služeb v oblasti působnosti různých nástrojů práva Unie, zejména s ohledem na používání a vnímání ze strany jejich příjemců, mohou být systémy AI, na něž se toto nařízení vztahuje, poskytovány jako zprostředkovatelské služby nebo jejich části ve smyslu nařízení (EU) 2022/2065, které by mělo být vykládáno technologicky neutrálním způsobem. Systémy AI lze například využít k poskytování internetových vyhledávačů, a to zejména do té míry, že systém AI, jako je online chatbot, v zásadě provádí vyhledávání na všech internetových stránkách, poté výsledky začleňuje do svých stávajících znalostí a využívá aktualizované znalosti k vytvoření jediného výstupu, který kombinuje různé zdroje informací.
(120)
Além disso, a fim de facilitar a aplicação efetiva do Regulamento (UE) 2022/2065, as obrigações impostas por força do presente regulamento aos prestadores e responsáveis pela implantação de determinados sistemas de IA são particularmente relevantes para permitir detetar e divulgar se os resultados desses sistemas são artificialmente gerados ou manipulados. Tal aplica-se, em especial, às obrigações dos prestadores de plataformas em linha de muito grande dimensão ou de motores de pesquisa em linha de muito grande dimensão que consistem em identificar e atenuar os riscos sistémicos que possam resultar da divulgação de conteúdos artificialmente gerados ou manipulados, em especial o risco de efeitos negativos reais ou previsíveis nos processos democráticos, no debate público e nos processos eleitorais, nomeadamente através da desinformação.
(120)
Kromě toho jsou pro usnadnění účinného provádění nařízení (EU) 2022/2065 obzvláště důležité povinnosti, které toto nařízení ukládá poskytovatelům a subjektům zavádějícím systémy AI, aby bylo možné odhalit a zveřejnit, že výstupy těchto systémů jsou uměle generovány nebo s nimi bylo manipulováno. To platí zejména pro povinnost poskytovatelů velmi velkých online platforem nebo velmi velkých internetových vyhledávačů identifikovat a jejich povinnost zmírňovat systémová rizika, která mohou vyplývat z šíření obsahu, který byl uměle vytvořen nebo s nímž bylo manipulováno, zejména riziko skutečných nebo předvídatelných negativních dopadů na demokratické procesy, občanský diskurz a volební procesy, a to i prostřednictvím dezinformací.
(121)
A normalização deverá desempenhar um papel fundamental, disponibilizando aos prestadores soluções técnicas que assegurem a conformidade com o presente regulamento, em consonância com o estado da arte, a fim de promover a inovação, a competitividade e o crescimento no mercado único. O cumprimento de normas harmonizadas conforme definido no artigo 2.o, ponto 1, alínea c), do Regulamento (UE) n.o 1025/2012 do Parlamento Europeu e do Conselho (41), das quais normalmente se espera que reflitam o estado da arte, deverá constituir um meio de os prestadores demonstrarem a conformidade com os requisitos do presente regulamento. Por conseguinte, deverá ser incentivada uma representação equilibrada de interesses que implique todas as partes interessadas na elaboração de normas, em especial as PME, as organizações de consumidores e as partes interessadas ambientalistas e da sociedade civil, em conformidade com os artigos 5.o e 6.o do Regulamento (UE) n.o 1025/2012. A fim de facilitar a conformidade, os pedidos de normalização deverão ser emitidos pela Comissão sem demora injustificada. Quando preparar o pedido de normalização, a Comissão deverá consultar o fórum consultivo e o Comité, a fim de recolher conhecimentos especializados pertinentes. No entanto, na ausência de referências pertinentes a normas harmonizadas, a Comissão deverá poder estabelecer, através de atos de execução e após consulta do fórum consultivo, especificações comuns para determinados requisitos ao abrigo do presente regulamento. A especificação comum deverá ser uma solução excecional de recurso para facilitar a obrigação do prestador de cumprir os requisitos do presente regulamento caso o pedido de normalização não tenha sido aceite por nenhuma das organizações europeias de normalização, caso as normas harmonizadas pertinentes não respondam de forma suficiente às preocupações em matéria de direitos fundamentais, caso as normas harmonizadas não satisfaçam o pedido ou caso haja atrasos na adoção de uma norma harmonizada adequada. Se esse atraso na adoção de uma norma harmonizada se dever à complexidade técnica dessa norma, a Comissão deverá tomar esse facto em consideração antes de ponderar o estabelecimento de especificações comuns. Ao elaborar especificações comuns, a Comissão é incentivada a cooperar com os parceiros internacionais e os organismos internacionais de normalização.
(121)
Klíčovou úlohu při poskytování technických řešení zajišťujících dodržování tohoto nařízení poskytovatelům by měla hrát normalizace, v souladu s aktuálním stavem vývoje, aby se podpořily inovace a konkurenceschopnost a růst na jednotném trhu. Jeden z prostředků, které poskytovatelům umožní prokázat soulad s požadavky tohoto nařízení, by mělo představovat dodržování harmonizovaných norem, jež by měly obvykle odrážet aktuální stav vývoje, definovaných v čl. 2 odst. 1 písm. c) nařízení Evropského parlamentu a Rady (EU) č. 1025/2012 (41). Proto by mělo být podporováno vyvážené zastoupení zájmů se zapojením všech příslušných zúčastněných stran do tvorby norem, zejména malých a středních podniků, spotřebitelských organizací a zúčastněných stran v oblasti životního prostředí a v sociální oblasti v souladu s články 5 a 6 nařízení (EU) č. 1025/2012. Aby se usnadnilo dodržování předpisů, měla by Komise žádosti o normalizaci vydávat bez zbytečného odkladu. Při přípravě žádosti o normalizaci by Komise měla konzultovat poradní fórum a radu s cílem shromáždit příslušné odborné znalosti. Pokud však příslušné odkazy na harmonizované normy neexistují, měla by mít Komise možnost stanovit prostřednictvím prováděcích aktů a po konzultaci s poradním fórem společné specifikace pro určité požadavky podle tohoto nařízení. Společná specifikace by měla být výjimečným záložním řešením, které usnadní povinnost poskytovatele splnit požadavky tohoto nařízení, pokud žádost o normalizaci nebyla přijata žádnou z evropských normalizačních organizací nebo pokud příslušné harmonizované normy dostatečně neřeší obavy týkající se základních práv nebo pokud harmonizované normy nejsou v souladu s žádostí nebo pokud při přijímání vhodné harmonizované normy dochází ke zpoždění. Pokud je toto zpoždění při přijímání harmonizované normy způsobeno technickou složitostí dané normy, Komise by před posuzováním možnosti stanovit společné specifikace měla tuto skutečnost zohlednit. Komise vyzývá, aby při vypracovávání společných specifikací spolupracovala s mezinárodními partnery a mezinárodními normalizačními orgány.
(122)
Sem prejuízo da utilização de normas harmonizadas e especificações comuns, é conveniente presumir que os prestadores de um sistema de IA de risco elevado que tenha sido treinado e testado em dados que reflitam o cenário geográfico, comportamental, contextual ou funcional específico no qual o sistema de IA se destina a ser utilizado cumprem a medida pertinente prevista no requisito de governação de dados estabelecido no presente regulamento. Sem prejuízo dos requisitos relacionados com a solidez e a exatidão estabelecidos no presente regulamento, em conformidade com o artigo 54.o, n.o 3, do Regulamento (UE) 2019/881, deverá presumir-se que os sistemas de IA de risco elevado que tenham sido certificados ou relativamente aos quais tenha sido emitida uma declaração de conformidade no âmbito de um sistema de certificação da cibersegurança estabelecido nos termos desse regulamento, e cujas referências tenham sido publicadas no Jornal Oficial da União Europeia, cumprem os requisitos de cibersegurança do presente regulamento, contanto que o certificado de cibersegurança ou a declaração de conformidade ou partes dos mesmos abranjam os requisitos de cibersegurança do presente regulamento. Tal não prejudica a natureza voluntária desse sistema de certificação da cibersegurança.
(122)
Aniž je dotčeno používání harmonizovaných norem a společných specifikací, je vhodné předpokládat, že poskytovatelé vysoce rizikového systému AI, který byl trénován a testován na datech odrážejících specifické zeměpisné, behaviorální, kontextuální nebo funkční prostředí, v němž má být systém AI používán, splňují příslušné opatření stanovené v rámci požadavku na správu dat stanoveného v tomto nařízení. Aniž jsou dotčeny požadavky týkající se spolehlivosti a přesnosti stanovené v tomto nařízení, mělo by se v souladu s čl. 54 odst. 3 nařízení (EU) 2019/881 předpokládat, že vysoce rizikové systémy AI, které byly certifikovány nebo pro něž bylo vydáno prohlášení o shodě v rámci systému kybernetické bezpečnosti podle uvedeného nařízení a na něž byly zveřejněny odkazy v Úředním věstníku Evropské unie, splňují požadavek tohoto nařízení na kybernetickou bezpečnost, pokud se certifikát kybernetické bezpečnosti nebo prohlášení o shodě nebo jejich části vztahují na požadavek na kybernetickou bezpečnost stanovený v tomto nařízení. Tím není dotčena dobrovolná povaha tohoto systému kybernetické bezpečnosti.
(123)
A fim de assegurar um nível elevado de fiabilidade dos sistemas de IA de risco elevado, estes deverão ser sujeitos a uma avaliação da conformidade antes de serem colocados no mercado ou colocados em serviço.
(123)
Aby byla zajištěna vysoká úroveň důvěryhodnosti vysoce rizikových systémů AI, mělo by být u těchto systémů před jejich uvedením na trh nebo do provozu provedeno posouzení shody.
(124)
Para minimizar os encargos impostos aos operadores e evitar possíveis duplicações, é conveniente que, no caso dos sistemas de IA de risco elevado relacionados com produtos abrangidos por legislação de harmonização da União com base no novo regime jurídico, o cumprimento dos requisitos do presente regulamento por parte desses sistemas de IA seja aferido no âmbito da avaliação da conformidade já prevista nessa lei. Como tal, a aplicabilidade dos requisitos do presente regulamento não deverá afetar a lógica, a metodologia ou a estrutura geral específicas da avaliação da conformidade nos termos da legislação de harmonização da União pertinente.
(124)
V případě vysoce rizikových systémů AI vztahujících se k produktům upraveným stávajícími harmonizačními právními předpisy Unie na základě nového legislativního rámce je v zájmu minimalizace zátěže provozovatelů a předcházení případnému zdvojování vhodné, aby byl soulad těchto systémů AI s požadavky tohoto nařízení posuzován v rámci posuzování shody, které uvedené právo již stanovují. Použitelnost požadavků tohoto nařízení by tedy neměla mít vliv na konkrétní logiku, metodiku nebo obecnou strukturu posuzování shody podle příslušných harmonizačních právních předpisů Unie.
(125)
Dada a complexidade dos sistemas de IA de risco elevado e os riscos que lhes estão associados, é importante desenvolver um procedimento de avaliação da conformidade adequado para sistemas de IA de risco elevado que envolvam organismos notificados, a chamada avaliação da conformidade por terceiros. Contudo, dada a atual experiência dos certificadores de pré-comercialização profissionais no domínio da segurança dos produtos e a diferente natureza dos riscos inerentes, é apropriado limitar, pelo menos numa fase inicial da aplicação do presente regulamento, o âmbito da avaliação da conformidade por terceiros aos sistemas de IA de risco elevado que não estejam relacionados com produtos. Por conseguinte, a avaliação da conformidade desses sistemas deverá ser realizada, regra geral, pelo prestador sob a sua própria responsabilidade, com a única exceção dos sistemas de IA concebidos para utilização em biometria.
(125)
Vzhledem ke složitosti vysoce rizikových systémů AI a rizikům, která jsou s nimi spojena, je důležité vyvinout pro vysoce rizikové systémy AI odpovídající postup posuzování shody zahrnující oznámené subjekty, tzv. posuzování shody třetí stranou. Vzhledem ke stávajícím zkušenostem profesionálních ověřovatelů před uvedením na trh v oblasti bezpečnosti produktů a k odlišné povaze souvisejících rizik je však vhodné alespoň v počáteční fázi uplatňování tohoto nařízení omezit oblast působnosti posuzování shody vysoce rizikových systémů AI třetími stranami v případech, které se netýkají produktů. Posuzování shody těchto systémů by proto měl provádět zpravidla poskytovatel na vlastní odpovědnost s jedinou výjimkou, kterou tvoří systémy AI určené pro biometriku.
(126)
Sempre que seja necessário realizar avaliações da conformidade por terceiros, os organismos notificados deverão ser notificados por força do presente regulamento pelas autoridades nacionais competentes, desde que cumpram uma série de requisitos, nomeadamente em termos de independência, competência, ausência de conflitos de interesse e requisitos de cibersegurança adequados. A notificação desses organismos deverá ser enviada pelas autoridades nacionais competentes à Comissão e aos outros Estados-Membros por meio do instrumento de notificação eletrónica desenvolvido e gerido pela Comissão nos termos do artigo R23 do anexo I da Decisão n.o 768/2008/CE.
(126)
Příslušné vnitrostátní orgány by v souladu s tímto nařízením měly, pokud je to požadováno, oznámit oznámené subjekty pro účely posouzení shody třetími stranami pod podmínkou, že splňují určitý soubor požadavků, zejména požadavku na nezávislost, způsobilost a neexistenci střetu zájmů a vhodných požadavků na kybernetickou bezpečnost. Oznámení těchto subjektů by měly příslušné vnitrostátní orgány zasílat Komisi a ostatním členským státům prostřednictvím elektronického nástroje pro oznamování vyvinutého a spravovaného Komisí podle článku R23 přílohy I rozhodnutí č. 768/2008/ES.
(127)
Em conformidade com os compromissos assumidos pela União no âmbito do Acordo sobre os Obstáculos Técnicos ao Comércio da Organização Mundial do Comércio, é adequado facilitar o reconhecimento mútuo dos resultados da avaliação da conformidade produzidos pelos organismos de avaliação da conformidade competentes, independentes do território em que se encontram estabelecidos, desde que esses organismos de avaliação da conformidade estabelecidos ao abrigo da legislação de um país terceiro cumpram os requisitos aplicáveis do presente regulamento e que a União tenha celebrado um acordo nessa medida. Neste contexto, a Comissão deverá explorar ativamente possíveis instrumentos internacionais para esse efeito e, em especial, celebrar acordos de reconhecimento mútuo com países terceiros.
(127)
V souladu se závazky Unie podle Dohody Světové obchodní organizace o technických překážkách obchodu je vhodné usnadnit vzájemné uznávání výsledků posuzování shody vypracovaných příslušnými subjekty posuzování shody nezávisle na území, na němž jsou usazeny, za předpokladu, že tyto subjekty posuzování shody zřízené podle práva třetí země splňují příslušné požadavky tohoto nařízení a že Unie v tomto ohledu uzavřela dohodu. V této souvislosti by Komise měla za uvedeným účelem aktivně prozkoumat možné mezinárodní nástroje, a zejména usilovat o uzavření dohod o vzájemném uznávání se třetími zeměmi.
(128)
Em consonância com a noção comummente estabelecida de modificação substancial de produtos regulamentados pela legislação de harmonização da União, sempre que ocorra uma alteração que possa afetar a conformidade de um sistema de IA de risco elevado com o presente Regulamento (por exemplo, alteração do sistema operativo ou da arquitetura do software), ou sempre que a finalidade prevista do sistema se altere, é apropriado que esse sistema de IA seja considerado um novo sistema de IA que deverá ser submetido a uma nova avaliação da conformidade. No entanto, as alterações que ocorrem no algoritmo e no desempenho dos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou colocados em serviço, nomeadamente que adaptam automaticamente o modo de funcionamento, não deverão constituir uma modificação substancial, desde que tenham sido predeterminadas pelo prestador e examinadas aquando da avaliação da conformidade.
(128)
V souladu s obecně zavedeným pojmem „podstatná změna“ u produktů regulovaných harmonizačními právními předpisy Unie je vhodné aby pokaždé, když dojde ke změně, která může ovlivnit soulad vysoce rizikového systému AI s tímto nařízením (např. změna operačního systému nebo softwarové architektury), nebo pokud se změní zamýšlený účel tohoto systému, byl tento systém AI považován za nový systém AI, který by měl být podroben novému posouzení shody. Změny, k nimž dochází v algoritmu a výkonnosti systémů AI, které se i po uvedení na trh nebo do provozu dále „učí“, tj. automaticky přizpůsobují způsob výkonu funkcí, by však podstatnou změnu představovat neměly, pokud byly tyto změny předem stanoveny poskytovatelem a posouzeny v okamžiku posuzování shody.
(129)
Para que possam circular livremente dentro do mercado interno, os sistemas de IA de risco elevado deverão apresentar a marcação CE para indicar a sua conformidade com o presente regulamento. No caso dos sistemas de IA de risco elevado integrados num produto, deverá ser aposta uma marcação CE física, que pode ser complementada por uma marcação CE digital. No caso dos sistemas de IA de risco elevado disponibilizados apenas digitalmente, deverá ser utilizada uma marcação CE digital. Os Estados-Membros não poderão criar obstáculos injustificados à colocação no mercado nem à colocação em serviço de sistemas de IA de risco elevado que cumpram os requisitos previstos no presente regulamento e apresentem a marcação CE.
(129)
Vysoce rizikové systémy AI by měly být opatřeny označením CE prokazujícím jejich shodu s tímto nařízením, aby jim byl umožněn volný pohyb v rámci vnitřního trhu. Na vysoce rizikových systémech AI začleněných do produktu by mělo být připevněno fyzické označení CE, které může být doplněno digitálním označením CE. U vysoce rizikových systémů AI poskytovaných pouze digitálně by se mělo používat digitální označení CE. Členské státy by neměly vytvářet neodůvodněné překážky uvádění na trh nebo do provozu u vysoce rizikových systémů AI, které jsou v souladu s požadavky stanovenými v tomto nařízení a jsou opatřeny označením CE.
(130)
Em certas condições, uma disponibilização rápida de tecnologias inovadoras pode ser crucial para a saúde e a segurança das pessoas, para a proteção do ambiente e as alterações climáticas e para a sociedade em geral. Como tal, é apropriado que, por razões excecionais de segurança pública ou proteção da vida e da saúde das pessoas singulares, da proteção do ambiente e da proteção dos ativos industriais e infraestruturais essenciais, as autoridades de fiscalização do mercado possam autorizar a colocação no mercado ou a colocação em serviço de sistemas de IA que não tenham sido objeto de uma avaliação da conformidade. Em situações devidamente justificadas, tal como previsto no presente regulamento, as autoridade responsáveis pela aplicação da lei ou as autoridades de proteção civil podem colocar em serviço um sistema de IA de risco elevado específico sem autorização da autoridade de fiscalização do mercado, desde que essa autorização seja solicitada durante ou após a utilização sem demora injustificada.
(130)
Rychlá dostupnost inovativních technologií může mít za určitých podmínek zásadní význam pro zdraví a bezpečnost osob, ochranu životního prostředí a změnu klimatu i pro společnost jako celek. Je proto vhodné, aby orgány dozoru nad trhem mohly z výjimečných důvodů veřejné bezpečnosti nebo ochrany života a zdraví fyzických osob, ochrany životního prostředí a ochrany klíčových průmyslových a infrastrukturních aktiv povolit uvedení na trh nebo do provozu v případě systémů AI, u nichž posouzení shody nebylo provedeno. V řádně odůvodněných situacích, jak je stanoveno v tomto nařízení, mohou donucovací orgány nebo orgány civilní ochrany uvést konkrétní vysoce rizikový systém AI do provozu bez povolení orgánu dozoru nad trhem, pokud je o takové povolení požádáno během používání nebo po něm bez zbytečného odkladu.
(131)
Para facilitar o trabalho da Comissão e dos Estados-Membros no domínio da IA, bem como aumentar a transparência para o público, os prestadores de sistemas de IA de risco elevado que não os relacionados com produtos abrangidos pelo âmbito da legislação de harmonização da União em vigor aplicável, bem como os prestadores que consideram que um sistema de IA de risco elevado enumerado nos casos concretos de risco elevado num anexo do presente regulamento não é de risco elevado com base numa derrogação, deverão ser obrigados a registarem-se a si mesmos e a registar as informações sobre o seu sistema de IA de risco elevado numa base de dados da UE, a criar e gerir pela Comissão. Antes de um sistema de IA enumerado nos casos concretos de risco elevado de risco elevado num anexo do presente regulamento, os responsáveis pela implantação de sistemas de IA de risco elevado que sejam autoridades, agências ou organismos públicos, deverão registar-se nessa base de dados e selecionar o sistema que tencionam utilizar. Os outros responsáveis pela implantação deverão ter o direito de o fazer voluntariamente. Esta secção da base de dados da UE deverá ser acessível ao público, gratuitamente, e as informações deverão ser facilmente navegáveis, compreensíveis e legíveis por máquina. A base de dados da UE deverá também ser de fácil utilização, por exemplo oferecendo funcionalidades de pesquisa, nomeadamente através de palavras-chave, que permitam ao público em geral encontrar informações pertinentes a apresentar aquando do registo dos sistemas de IA de risco elevado e nos tipos de sistemas de IA de risco elevado, estabelecidas num anexo do presente regulamento a que os sistemas de IA de risco elevado correspondem. Qualquer modificação substancial de sistemas de IA de risco elevado também deverá ser registada na base de dados da UE. No caso dos sistemas de IA de risco elevado no domínio da aplicação da lei, da migração, do asilo e da gestão do controlo das fronteiras, as obrigações de registo deverão ser cumpridas numa secção não pública protegida da base de dados da UE. O acesso à secção segura não pública deverá ser estritamente limitado à Comissão e às autoridades de fiscalização do mercado no que diz respeito à respetiva secção nacional dessa base de dados. Os sistemas de IA de risco elevado no domínio das infraestruturas críticas só deverão ser registados a nível nacional. A Comissão deverá ser a responsável pelo tratamento da base de dados da UE, em conformidade com o Regulamento (UE) 2018/1725. Para assegurar que a base de dados esteja plenamente operacional à data de implantação, o procedimento para a criação da base de dados da UE deverá incluir o desenvolvimento de especificações funcionais pela Comissão e um relatório de auditoria independente. A Comissão deverá ter em conta os riscos para a cibersegurança e os riscos no exercício das suas funções de responsável pelo tratamento de dados na base de dados da UE. A fim de maximizar a disponibilidade e a utilização da base de dados pelo público, a base de dados da UE, incluindo as informações disponibilizadas através da mesma, deverá cumprir os requisitos estabelecidos na Diretiva (UE) 2019/882.
(131)
Pro usnadnění práce Komise a členských států v oblasti AI a zvýšení transparentnosti vůči veřejnosti by poskytovatelé vysoce rizikových systémů AI s výjimkou těch, které se vztahují k produktům spadajícím do oblasti působnosti příslušných stávajících harmonizačních právních předpisů Unie, jakož i poskytovatelé, kteří se domnívají, že systém AI uvedený mezi příklady vysoce rizikového použití v příloze tohoto nařízení není vysoce rizikový na základě výjimky, měli mít povinnost se zaregistrovat, jakož i zaregistrovat informace o svém vysoce rizikovém systému AI do databáze EU, kterou zřídí a bude spravovat Komise. Před použitím systému AI uvedeného mezi příklady vysoce rizikového použití by se subjekty zavádějící vysoce rizikové systémy AI, které jsou veřejnými orgány, agenturami nebo subjekty, měly zaregistrovat do této databáze a vybrat systém, který hodlají používat. Ostatní zavádějící subjekty by měly mít právo tak učinit dobrovolně. Tento oddíl databáze EU by měl být veřejně přístupný, bezplatný, informace by měly být snadno dohledatelné, srozumitelné a strojově čitelné. Databáze EU by rovněž měla být uživatelsky přívětivá, například tím, že bude poskytovat funkce vyhledávání, a to i prostřednictvím klíčových slov, což umožní široké veřejnosti nalézt relevantní informace, které mají být předloženy při registraci vysoce rizikových systémů AI a o příkladech vysoce rizikového použití systémů AI stanovených v přílohách tohoto nařízení, jimž vysoce rizikové systémy AI odpovídají. Veškeré podstatné změny vysoce rizikových systémů AI by se rovněž měly zaregistrovat v databázi EU. U vysoce rizikových systémů AI v oblasti vymáhání práva, migrace, azylu a řízení ochrany hranic by registrační povinnosti měly být splněny v zabezpečeném neveřejném oddílu databáze EU. Přístup k zabezpečenému neveřejnému oddílu by měl být přísně omezen na Komisi, jakož i na orgány dozoru nad trhem, pokud jde o jejich vnitrostátní část této databáze. Vysoce rizikové systémy AI v oblasti kritické infrastruktury by měly být registrovány pouze na vnitrostátní úrovni. V souladu s nařízením 2018/1725 by správcem databáze EU pro přeshraniční výměnu informací měla být Komise. Aby byla zajištěna plná funkčnost databáze EU při jejím zavedení, měl by postup při vytváření databáze zahrnovat vytvoření funkčních specifikací ze strany Komise a nezávislou zprávu o auditu. Komise by měla při plnění svých úkolů správce údajů v databázi EU zohlednit rizika spojená s kybernetickou bezpečností. Aby byla databáze EU co nejvíce dostupná a využívaná veřejností, měla by spolu s informacemi, které jsou jejím prostřednictvím zpřístupňovány, splňovat požadavky směrnice (EU) 2019/882.
(132)
Determinados sistemas de IA concebidos para interagir com pessoas singulares ou para criar conteúdos podem representar riscos específicos de usurpação de identidade ou dissimulação, independentemente de serem considerados de risco elevado ou não. Como tal, em certas circunstâncias, a utilização desses sistemas deverá ser sujeita a obrigações de transparência específicas, sem prejuízo dos requisitos e obrigações aplicáveis aos sistemas de IA de risco elevado, e a exceções específicas, a fim de ter em conta a necessidade especial da aplicação da lei. Em particular, as pessoas singulares deverão ser informadas de que estão a interagir com um sistema de IA, salvo se tal for óbvio do ponto de vista de uma pessoa singular razoavelmente informada, atenta e advertida, tendo em conta as circunstâncias e o contexto de utilização. Ao aplicar essa obrigação, as características das pessoas singulares pertencentes a grupos vulneráveis devido à sua idade ou deficiência deverão ser tidas em conta na medida em que o sistema de IA também se destine a interagir com esses grupos. Além disso, as pessoas singulares deverão ser notificadas quando forem expostas a sistemas de IA que, através do tratamento dos seus dados biométricos, possam identificar ou inferir as emoções ou intenções dessas pessoas ou atribuí-las a categorias específicas. Essas categorias específicas podem dizer respeito a aspetos como sexo, idade, cor do cabelo, cor dos olhos, tatuagens, traços de personalidade, origem étnica, preferências e interesses pessoais. Essas informações e notificações deverão ser apresentadas em formatos acessíveis a pessoas com deficiência.
(132)
Určité systémy AI určené k interakci s fyzickými osobami nebo ke generování obsahu mohou představovat specifická rizika vydávání se za jinou osobu nebo podvodu bez ohledu na to, zda je lze, či nelze označit za vysoce rizikové. Na používání těchto systémů by se proto měly za určitých okolností vztahovat zvláštní povinnosti transparentnosti, aniž by tím byly dotčeny požadavky a povinnosti kladené na vysoce rizikové systémy AI, a s výhradou cílených výjimek, které zohledňují zvláštní potřeby spojené s vymáháním práva. Zejména fyzické osoby by měly být upozorněny, že komunikují se systémem AI, není-li tato skutečnost zřejmá z pohledu fyzické osoby, která je přiměřeně informovaná, pozorná a obezřetná, při zohlednění okolností a kontextu použití. Při plnění této povinnosti by měly být zohledněny vlastnosti fyzických osob náležejících ke zranitelným skupinám vzhledem k jejich věku nebo zdravotnímu postižení, a to v rozsahu, v jakém je systém AI určen i pro komunikaci s těmito skupinami. Fyzické osoby by navíc měly být informovány v případě, že jsou vystaveny systémům AI, které zpracováním jejich biometrických údajů mohou identifikovat nebo odvodit jejich emoce nebo záměry nebo je zařadit do konkrétních kategorií. Tyto konkrétní kategorie se mohou týkat takových aspektů, jako je pohlaví, věk, barva vlasů, barva očí, tetování, osobnostní rysy, etnický původ, osobní preference a zájmy. Tyto informace a oznámení by měly být poskytovány ve formátech přístupných pro osoby se zdravotním postižením.
(133)
Um número de sistemas de IA consegue gerar grandes quantidades de conteúdos sintéticos que se tornam cada vez mais difíceis para os seres humanos de distinguir dos conteúdos gerados por seres humanos e autênticos. A ampla disponibilidade e o aumento das capacidades desses sistemas têm um impacto significativo na integridade e na confiança no ecossistema da informação, suscitando novos riscos de desinformação e manipulação em grande escala, fraude, usurpação de identidade e dissimulação dos consumidores. À luz desses impactos, do rápido ritmo tecnológico e da necessidade de novos métodos e técnicas para rastrear a origem das informações, é adequado exigir que os prestadores desses sistemas incorporem soluções técnicas que permitam a marcação num formato legível por máquina e a deteção de que o resultado foi gerado ou manipulado por um sistema de IA e não por um ser humano. Essas técnicas e métodos deverão ser suficientemente fiáveis, interoperáveis, eficazes e robustos, na medida em que tal seja tecnicamente viável, tendo em conta as técnicas disponíveis ou uma combinação de técnicas, tais como marcas de água, identificações de metadados, métodos criptográficos para comprovar a proveniência e autenticidade do conteúdo, métodos de registo, impressões digitais ou outras técnicas, conforme seja adequado. Ao aplicar essa obrigação, os prestadores deverão ter igualmente em conta as especificidades e as limitações dos diferentes tipos de conteúdos e a evolução tecnológica e do mercado no terreno, tal como refletido no estado da arte geralmente reconhecido. Essas técnicas e métodos podem ser aplicados ao nível do sistema de IA ou ao nível do modelo de IA, incluindo modelos de IA de finalidade geral que geram conteúdos, facilitando assim o cumprimento desta obrigação pelo prestador a jusante do sistema de IA. É adequado prever que, para que se mantenha proporcionada, esta obrigação de marcação não deva abranger os sistemas de IA que desempenhem principalmente uma função de apoio à edição normalizada ou aos sistemas de IA que não alterem substancialmente os dados de entrada apresentados pelo responsável pela implantação nem a semântica dos mesmos.
(133)
Různé systémy AI mohou generovat velké množství syntetického obsahu, který je pro člověka stále obtížnější odlišit od autentického obsahu vytvořeného člověkem. Široká dostupnost a rostoucí schopnosti těchto systémů mají významný dopad na integritu a důvěru v informační ekosystém, neboť zvyšují nová rizika zavádějících informací a manipulace ve velkém měřítku, podvodů, vydávání se za jinou osobu a klamání spotřebitelů. Vzhledem k těmto dopadům, rychlému technologickému tempu a potřebě nových metod a technik pro vysledování původu informací je vhodné požadovat, aby poskytovatelé těchto systémů zavedli technická řešení, která umožňují označení ve strojově čitelném formátu a zjištění, že výstup vytvořil nebo s ním manipuloval systém AI, a nikoli člověk. Tyto techniky a metody by měly být dostatečně spolehlivé, interoperabilní, účinné a robusní, pokud je to technicky proveditelné, s přihlédnutím k dostupným technikám nebo kombinaci těchto technik, jako jsou vodoznaky, identifikace metadat, kryptografické metody prokazování původu a pravosti obsahu, metody vedení protokolů, otisky prstů nebo případně jiné techniky. Při plnění této povinnosti by poskytovatelé měli rovněž zohlednit specifika a omezení různých typů obsahu a příslušný technologický a tržní vývoj v této oblasti, jak se odráží v obecně uznávaném aktuálním stavu vývoje. Tyto techniky a metody lze uplatňovat na úrovni systému AI nebo na úrovni modelu AI, včetně obecných modelů AI, které generují obsah, čímž se usnadní plnění této povinnosti navazujícímu poskytovateli systému AI. V zájmu zachování proporcionality je vhodné předpokládat, že by se tato povinnost označování neměla vztahovat na systémy AI, které plní především asistenční funkci pro standardní editaci, nebo na systémy AI, které podstatně nemění vstupní údaje poskytnuté zavádějícím subjektem nebo jejich sémantiku.
(134)
Além das soluções técnicas utilizadas pelos prestadores do sistema de IA, os responsáveis pela implantação que recorrem a um sistema de IA para gerar ou manipular conteúdos de imagem, áudio ou vídeo cuja semelhança considerável com pessoas, objetos, locais, entidades ou eventos reais possa levar uma pessoa a crer, erroneamente, que são autênticos ou verdadeiros («falsificações profundas»), deverão também revelar de forma clara e percetível que os conteúdos foram artificialmente criados ou manipulados, identificando os resultados da IA como tal e divulgando a sua origem artificial. O cumprimento desta obrigação de transparência não deverá ser interpretado como indicando que a utilização do sistema de IA ou dos seus resultados entrava o direito à liberdade de expressão e o direito à liberdade das artes e das ciências consagrados na Carta, em especial se os conteúdos fizerem parte de uma obra ou programa de natureza manifestamente criativa, satírica, artística, ficcional ou análoga, sob reserva de garantias adequadas dos direitos e liberdades de terceiros. Nesses casos, a obrigação de transparência para as falsificações profundas estabelecida no presente regulamento limita-se à divulgação da existência de tais conteúdos gerados ou manipulados, de uma forma adequada que não prejudique a exibição ou a fruição da obra, incluindo a sua exploração e utilização normais, mantendo simultaneamente a sua utilidade e qualidade. Além disso, é igualmente adequado prever uma obrigação semelhante de divulgação em relação ao texto gerado ou manipulado por IA, na medida em que seja publicado com o objetivo de informar o público sobre questões de interesse público, a menos que o conteúdo gerado por IA tenha sido submetido a um processo de análise ou controlo editorial humano e uma pessoa singular ou coletiva detenha a responsabilidade editorial pela publicação do conteúdo.
(134)
Kromě technických řešení používaných poskytovateli systému by zavádějící subjekty, které používají systém AI k vytváření obrazového, zvukového nebo video obsahu nebo k manipulaci s ním, přičemž tento obsah se znatelně podobá existujícím osobám, objektům, místům, subjektům nebo událostem, a určité osobě by se falešně jevil jako autentický nebo pravdivý (deep fakes), měly rovněž jasně a zřetelně uvádět, že obsah byl vytvořen uměle nebo s ním bylo manipulováno, a to tak, že odpovídajícím způsobem označí výstup umělé inteligence a zveřejní jeho umělý původ. Splnění této povinnosti týkající se transparentnosti by nemělo být vykládáno tak, že naznačuje, že používání systému AI nebo jeho výstupu brání právu na svobodu projevu a právu na svobodu umění a vědy zaručeným Listinou, zejména pokud je obsah součástí zjevně tvůrčího, satirického, uměleckého nebo fiktivního nebo obdobného díla nebo programu, s výhradou vhodných záruk práv a svobod třetích osob. V těchto případech je povinnost transparentnosti pro „deep fakes“ stanovená v tomto nařízení omezena na zveřejnění existence takového vytvořeného nebo zmanipulovaného obsahu vhodným způsobem, který nebrání zobrazení díla nebo požitku z něj, včetně jeho běžného využívání a používání, při zachování užitečnosti a kvality díla. Kromě toho je rovněž vhodné stanovit podobnou povinnost zveřejňování v souvislosti s textem vytvořeným nebo zmanipulovaným umělou inteligencí, pokud je zveřejněn za účelem informování veřejnosti o záležitostech veřejného zájmu, pokud obsah vytvořený umělou inteligencí neprošel procesem lidského přezkumu nebo redakční kontroly a redakční odpovědnost za zveřejnění obsahu nese fyzická nebo právnická osoba.
(135)
Sem prejuízo da natureza obrigatória e da plena aplicabilidade das obrigações de transparência, a Comissão pode também incentivar e facilitar a elaboração de códigos de práticas a nível da União, a fim de facilitar a aplicação efetiva das obrigações em matéria de deteção e identificação de conteúdos artificialmente gerados ou manipulados, incluindo o apoio a disposições práticas para tornar acessíveis, se for caso disso, os mecanismos de deteção e facilitar a cooperação com outros intervenientes ao longo da cadeia de valor, a divulgação de conteúdos ou o controlo da sua autenticidade e proveniência, com vista a permitir que o público distinga eficazmente os conteúdos gerados por IA.
(135)
Aniž je dotčena závazná povaha a plná použitelnost povinností týkajících se transparentnosti, může Komise rovněž podporovat a usnadňovat vypracování kodexů správné praxe na úrovni Unie s cílem usnadnit účinné provádění povinností týkajících se odhalování a označování uměle vytvořeného nebo zmanipulovaného obsahu, včetně podpory praktických opatření pro případné zpřístupnění detekčních mechanismů a usnadnění spolupráce s dalšími subjekty v celém hodnotovém řetězci, šíření obsahu nebo ověřování jeho pravosti a původu, aby veřejnost mohla obsah vytvořený umělou inteligencí účinně odlišit.
(136)
A fim de facilitar a aplicação efetiva do Regulamento (UE) 2022/2065, as obrigações impostas por força do presente regulamento aos prestadores e responsáveis pela implantação de determinados sistemas de IA são particularmente pertinentes para permitir detetar e divulgar se os resultados desses sistemas são artificialmente gerados ou manipulados. Tal aplica-se, em especial, às obrigações dos prestadores de plataformas em linha de muito grande dimensão ou de motores de pesquisa em linha de muito grande dimensão que consistem em identificar e atenuar os riscos sistémicos que possam resultar da divulgação de conteúdos artificialmente gerados ou manipulados, em especial o risco de efeitos negativos reais ou previsíveis nos processos democráticos, no debate público e nos processos eleitorais, nomeadamente através da desinformação. O requisito de identificar conteúdos gerados por sistemas de IA nos termos do presente regulamento não prejudica a obrigação prevista no artigo 16.o, n.o 6, do Regulamento (UE) 2022/2065 de os prestadores de serviços de alojamento virtual procederem ao tratamento de notificações sobre conteúdos ilegais recebidas nos termos do artigo 16.o, n.o 1 desse regulamento, e não deverá influenciar a avaliação e a decisão sobre a ilegalidade dos conteúdos específicos. Essa avaliação deverá ser efetuada unicamente à luz das regras que regem a legalidade do conteúdo.
(136)
Pro usnadnění účinného provádění nařízení (EU) 2022/2065 jsou obzvláště důležité povinnosti, které toto nařízení ukládá poskytovatelům a subjektům zavádějícím systémy AI, aby bylo možné odhalit a zveřejnit, že výstupy těchto systémů jsou uměle generovány nebo s nimi bylo manipulováno. Toto platí zejména pro povinnost poskytovatelů velmi velkých online platforem nebo velmi velkých internetových vyhledávačů identifikovat a zmírňovat systémová rizika, která mohou vyplývat z šíření obsahu, který byl uměle vytvořen nebo s nímž bylo manipulováno, zejména riziko skutečných nebo předvídatelných negativních dopadů na demokratické procesy, občanský diskurz a volební procesy, a to i prostřednictvím dezinformací. Požadavkem na označování obsahu vytvořeného systémy AI podle tohoto nařízení není dotčena povinnost uvedená v čl. 16. odst. 6 nařízení (EU) 2022/2065, podle něhož poskytovatelé hostingových služeb musejí zpracovávat oznámení o nezákonném obsahu obdržená podle čl. 16 odst. 1 uvedeného nařízení, a tento požadavek by neměl ovlivňovat posouzení a rozhodnutí o nezákonnosti konkrétního obsahu. Toto posouzení by mělo být provedeno výhradně s ohledem na pravidla upravující legalitu obsahu.
(137)
O cumprimento das obrigações de transparência aplicáveis aos sistemas de IA abrangidas pelo presente regulamento não deverá ser interpretado como indicando que a utilização do sistema de IA ou dos seus resultados é lícita ao abrigo do presente regulamento ou de outra legislação da União e dos Estados-Membros e não deverá prejudicar outras obrigações de transparência dos responsáveis pela implantação de sistemas de IA estabelecidas no direito da União ou do direito nacional.
(137)
Dodržování povinností týkajících se transparentnosti pro systémy AI, na něž se vztahuje toto nařízení, by nemělo být vykládáno tak, že se uvádí, že používání daného systému AI nebo jeho výstupu je podle tohoto nařízení nebo jiného práva Unie a členských států zákonné, a neměly by jím být dotčeny jiné povinnosti týkající se transparentnosti pro subjekty zavádějící systémy AI stanovené v unijním nebo vnitrostátním právu.
(138)
A IA é uma família de tecnologias em rápida evolução que exige supervisão regulamentar e um espaço seguro e controlado para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas. Para assegurar um regime jurídico que promova a inovação, preparado para o futuro e resistente a perturbações, os Estados-Membros deverão assegurar que as respetivas autoridades nacionais competentes criem pelo menos um ambiente de testagem da regulamentação da IA a nível nacional que facilite o desenvolvimento e a testagem de sistemas de IA inovadores sob uma supervisão regulamentar rigorosa, antes de estes sistemas serem colocados no mercado ou colocados em serviço. Os Estados-Membros poderão também cumprir esta obrigação participando em ambientes de testagem da regulamentação já existentes ou criando conjuntamente um ambiente de testagem com uma ou mais autoridades competentes dos Estados-Membros, na medida em que essa participação proporcione um nível equivalente de cobertura nacional para os Estados-Membros participantes. Os ambientes de testagem da regulamentação da IA poderão ser criados sob forma física, digital ou híbrida e podem acolher produtos físicos e digitais. As autoridades responsáveis pela criação deverão também assegurar que os ambientes de testagem da regulamentação da IA dispõem dos recursos adequados para o seu funcionamento, nomeadamente recursos financeiros e humanos.
(138)
AI je rychle se vyvíjející skupina technologií, která vyžaduje regulační dohled a bezpečný a kontrolovaný prostor pro experimentování při současném zajištění odpovědných inovací a integrace vhodných záruk a opatření ke zmírnění rizika. Aby byl zajištěn právní rámec, který inovace podporuje, obstojí i v budoucnu a je odolný vůči narušení, měly by členské státy zajistit, aby jejich příslušné vnitrostátní orgány zřídily alespoň jeden regulační sandbox pro AI na vnitrostátní úrovni s cílem usnadnit vývoj a testování inovativních systémů AI pod přísným regulačním dohledem, než budou tyto systémy uvedeny na trh nebo jiným způsobem do provozu. Členské státy by mohly tuto povinnost splnit také účastí v již existujících regulačních sandboxech nebo společným zřízením sandboxu s příslušnými orgány jednoho nebo více členských států, pokud tato účast poskytuje zúčastněným členským státům rovnocennou úroveň vnitrostátního pokrytí. Regulační sandboxy pro AI by mohly být zřízeny ve fyzické, digitální nebo hybridní podobě a mohou být určeny pro fyzické i digitální produkty. Zřizující orgány by rovněž měly zajistit, aby regulační sandboxy pro AI měly odpovídající zdroje pro své fungování, včetně finančních a lidských zdrojů.
(139)
Os ambientes de testagem da regulamentação da IA deverão ter os seguintes objetivos: fomentar a inovação no domínio da IA, mediante a criação de um ambiente controlado de experimentação e testagem na fase de desenvolvimento e pré-comercialização, com vista a assegurar que os sistemas de IA inovadores são conformes com o presente regulamento e com outras disposições pertinentes do direito da União e do direito nacional. Além disso, os ambientes de testagem da regulamentação da IA deverão visar melhorar a segurança jurídica para os inovadores, bem como a supervisão e compreensão, por parte das autoridades competentes, das oportunidades, dos riscos emergentes e dos impactos da utilização da IA, facilitar a aprendizagem da regulamentação para as autoridades e as empresas, nomeadamente com vista a futuras adaptações do regime jurídico, apoiar a cooperação e a partilha de boas práticas com as autoridades envolvidas no ambiente de testagem da regulamentação da IA, e acelerar o acesso aos mercados, nomeadamente eliminando os entraves para as PME, incluindo as empresas em fase de arranque. Os ambientes de testagem da regulamentação da IA deverão estar amplamente disponíveis em toda a União, devendo ser prestada especial atenção à sua acessibilidade para as PME, incluindo as empresas em fase de arranque. A participação nos ambientes de testagem da regulamentação da IA deverá centrar-se em problemas que criam incerteza jurídica para os prestadores e potenciais prestadores ao inovarem, fazerem experiências com a IA na União e contribuírem para uma aprendizagem regulamentar baseada em dados concretos. A supervisão dos sistemas de IA nos ambientes de testagem da regulamentação da IA deverá, por conseguinte, abranger o seu desenvolvimento, treino, testagem e validação antes de os sistemas serem colocados no mercado ou colocados em serviço, bem como a noção e a ocorrência de modificações substanciais que possam exigir um novo procedimento de avaliação da conformidade. A identificação de quaisquer riscos significativos durante o desenvolvimento e a testagem desses sistemas de IA deverá resultar na atenuação adequada dos riscos e, na sua falta, na suspensão do processo de desenvolvimento e testagem. Se for caso disso, as autoridades nacionais competentes que criam ambientes de testagem da regulamentação da IA deverão cooperar com outras autoridades pertinentes, incluindo as que supervisionam a proteção dos direitos fundamentais, e poderão permitir a participação de outros intervenientes no ecossistema da IA, tais como organizações de normalização, organismos notificados, instalações de ensaio e experimentação, laboratórios de investigação e experimentação, polos europeus de inovação digital e organizações pertinentes das partes interessadas e da sociedade civil, quer nacionais quer europeus. Para garantir uma aplicação uniforme em toda a União e assegurar economias de escala, é apropriado criar regras comuns para a implantação dos ambientes de testagem da regulamentação da IA e um regime para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes. Os ambientes de testagem da regulamentação da IA criados ao abrigo do presente regulamento não deverão prejudicar outras disposições pertinentes do direito que preveja a criação de outros ambientes de testagem destinados a assegurar o cumprimento do direito que não o presente regulamento. Se for caso disso, as autoridades competentes responsáveis por esses outros ambientes de testagem da regulamentação deverão ter em conta os benefícios da utilização desses ambientes de testagem também com o objetivo de assegurar a conformidade dos sistemas de IA com o presente regulamento. Mediante acordo entre as autoridades nacionais competentes e os participantes no ambiente de testagem da regulamentação da IA, a testagem em condições reais também pode ser efetuada e supervisionada no âmbito do ambiente de testagem da regulamentação da IA.
(139)
Cílem těchto regulačních sandboxů pro AI by měla být podpora inovací AI na základě vytvoření kontrolovaného experimentálního a testovacího prostředí ve fázi vývoje a před uvedením na trh, aby byl zajištěn soulad inovativních systémů AI s tímto nařízením a s dalšími příslušným právem Unie i s vnitrostátním právem. Regulační sandboxy pro AI by dále měly vést k posílení právní jistoty inovátorů, dohledu příslušných orgánů a jejich porozumění příležitostem, vznikajícím rizikům a dopadům používání AI, usnadnění regulačního učení orgánů a podniků, a to i s ohledem na budoucí úpravy právního rámce, podpora spolupráce a sdílení osvědčených postupů s orgány zapojenými do regulačního sandboxu pro AI, jakož i urychlení přístupu na trhy, mimo jiné odstraněním překážek pro malé a střední podniky včetně podniků začínajících. Regulační sandboxy pro AI by měly být široce dostupné v celé Unii a zvláštní pozornost by měla být věnována jejich dostupnosti pro malé a střední podniky, včetně podniků začínajících. Účast v regulačním sandboxu pro AI by se měla zaměřit na otázky, které zvyšují právní nejistotu pro poskytovatele a potenciální poskytovatele, pokud jde o inovace, experimentování s AI v Unii a přispívání k fakticky podloženému regulačnímu učení. Dohled nad systémy AI v regulačním sandboxu pro AI by proto měl zahrnovat jejich vývoj, trénování, testování a validaci před uvedením systémů na trh nebo do provozu, jakož i pojem podstatných změn, které mohou vyžadovat nový postup posuzování shody, a výskyt takových změn. Veškerá významná rizika, která budou zjištěna během vývoje a testování těchto systémů AI, by měla být následně náležitě zmírněna, přičemž v případě neúspěchu by měl být proces vývoje a testování pozastaven.Příslušné vnitrostátní orgány, které zřizují regulační sandboxy pro AI, by případně měly spolupracovat s dalšími příslušnými orgány, včetně těch, které dohlížejí na ochranu základních práv, a mohly by umožnit zapojení dalších subjektů v rámci ekosystému AI, jako jsou vnitrostátní nebo evropské normalizační organizace, oznámené subjekty, testovací a experimentální zařízení, výzkumné a experimentální laboratoře, evropská centra pro digitální inovace a příslušné zúčastněné strany a organizace občanské společnosti. Aby bylo zajištěno jednotné provádění v celé Unii a úspory z rozsahu, je vhodné stanovit společná pravidla pro zavádění regulačních sandboxů pro AI a rámec spolupráce mezi příslušnými orgány, které se podílejí na dohledu nad těmito sandboxy. Regulačními sandboxy pro AI zřízenými podle tohoto nařízení by nemělo být dotčeno jiné právo umožňující zřízení jiných sandboxů, jejichž cílem je zajistit soulad s jiným právem, než je toto nařízení. Příslušné orgány odpovědné za tyto jiné regulační sandboxy by případně měly zvážit přínosy používání těchto sandboxů rovněž pro účely zajištění souladu systémů AI s tímto nařízením. Na základě dohody mezi příslušnými vnitrostátními orgány a účastníky regulačního sandboxu pro AI může být v rámci regulačního sandboxu pro AI rovněž prováděno a kontrolováno testování v reálných podmínkách.
(140)
O presente regulamento deverá estabelecer o fundamento jurídico para a utilização, pelos prestadores e potenciais prestadores no ambiente de testagem da regulamentação da IA, de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de determinados sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA, apenas em condições específicas, em conformidade com o artigo 6.o, n.o 4, e artigo 9.o, n.o 2, alínea g), do Regulamento (UE) 2016/679 e com os artigos 5.o, 6.o e 10.o do Regulamento (UE) 2018/1725, e sem prejuízo do artigo 4.o, n.o 2, e do artigo 10.o da Diretiva (UE) 2016/680. Todas as outras obrigações dos responsáveis pelo tratamento de dados e todos os outros direitos dos titulares dos dados ao abrigo dos Regulamentos (UE) 2016/679 e (UE) 2018/1725 e da Diretiva (UE) 2016/680 continuam a ser aplicáveis. Em especial, o presente regulamento não deverá constituir uma base jurídica na aceção do artigo 22.o, n.o 2, alínea b), do Regulamento (UE) 2016/679 e do artigo 24.o, n.o 2, alínea b), do Regulamento (UE) 2018/1725. Os prestadores e potenciais prestadores no ambiente de testagem da regulamentação da IA deverão assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações e atuando de forma célere e de boa-fé para atenuar adequadamente eventuais riscos significativos identificados para a segurança, a saúde e os direitos fundamentais que possam revelar-se durante o desenvolvimento, a testagem e a experimentação nesse ambiente de testagem.
(140)
Toto nařízení by mělo poskytovatelům a potenciálním poskytovatelům v regulačním sandboxu pro AI poskytnout právní základ pro to, aby v rámci regulačního sandboxu pro AI mohli k vývoji určitých systémů AI ve veřejném zájmu použít osobní údaje shromážděné pro jiné účely, a to pouze za určitých podmínek, v souladu s čl. 6 odst. 4 a čl. 9 odst. 2 písm. g) nařízení (EU) 2016/679 a s článkem 5, 6 a 10 nařízení (EU) 2018/1725, aniž je dotčen čl. 4 odst. 2 a článek 10 směrnice (EU) 2016/680. Nadále platí všechny ostatní povinnosti správců údajů a práva subjektů údajů podle nařízení (EU) 2016/679, nařízení (EU) 2018/1725 a směrnice (EU) 2016/680. Toto nařízení by zejména nemělo poskytovat právní základ ve smyslu čl. 22 odst. 2 písm. b) nařízení (EU) 2016/679 a čl. 24 odst. 2 písm. b) nařízení (EU) 2018/1725. Poskytovatelé a potenciální poskytovatelé by v regulačních sandboxech pro AI by měli zajistit vhodné záruky a spolupracovat s příslušnými orgány, mimo jiné postupovat podle jejich pokynů a jednat rychle a v dobré víře, aby náležitě zmírnili veškerá zjištěná významná rizika pro bezpečnost, zdraví a základní práva, která v průběhu vývoje, testování a experimentování v rámci sandboxu případně vzniknou.
(141)
A fim de acelerar o processo de desenvolvimento e colocação no mercado dos sistemas de IA de risco elevado enumerados num anexo do presente regulamento, é importante que os prestadores ou potenciais prestadores desses sistemas também possam beneficiar de um regime específico para testar esses sistemas em condições reais, sem participarem num ambiente de testagem da regulamentação da IA. Contudo, nesses casos, tendo em conta as possíveis consequências dessas testagens para as pessoas singulares, deverá ser assegurado que o presente regulamento introduz garantias e condições adequadas e suficientes para os prestadores ou potenciais prestadores. Essas garantias deverão incluir, nomeadamente, o pedido de consentimento informado às pessoas singulares para participarem na testagem em condições reais, salvo no que respeita à aplicação da lei em que a tentativa de obtenção do consentimento informado impediria o sistema de IA de ser testado. O consentimento das pessoas singulares para participar nessa testagem ao abrigo do presente regulamento é distinto e sem prejuízo do consentimento dos titulares dos dados para o tratamento dos seus dados pessoais ao abrigo da legislação aplicável em matéria de proteção de dados. É igualmente importante minimizar os riscos e permitir a supervisão pelas autoridades competentes e, por conseguinte, exigir que os potenciais prestadores tenham um plano de testagem em condições reais apresentado à autoridade de fiscalização do mercado competente, registar a testagem em secções específicas da base de dados da UE, sob reserva de algumas exceções limitadas, estabelecer limitações ao período durante o qual as testagens podem ser realizadas e exigir garantias adicionais para pessoas pertencentes a certos grupos vulneráveis, bem como um acordo escrito que defina as funções e responsabilidades dos potenciais prestadores e responsáveis pela implantação e uma supervisão eficaz por parte do pessoal competente envolvido na testagem em condições reais. Além disso, é conveniente prever salvaguardas adicionais para assegurar que as previsões, recomendações ou decisões do sistema de IA possam ser efetivamente revertidas e ignoradas e que os dados pessoais sejam protegidos e apagados quando os titulares tiverem retirado o seu consentimento para participar na testagem, sem prejuízo dos seus direitos enquanto titulares de dados ao abrigo da legislação da União em matéria de proteção de dados. No que diz respeito à transferência de dados, é igualmente conveniente prever que os dados recolhidos e tratados para efeitos de testagem em condições reais só sejam transferidos para países terceiros quando forem estabelecidas garantias adequadas e aplicáveis ao abrigo do direito da União, nomeadamente em conformidade com as bases para a transferência de dados pessoais nos termos do direito da União em matéria de proteção de dados, ao passo que, para os dados não pessoais, sejam estabelecidas garantias adequadas em conformidade com o direito da União, como os Regulamentos (UE) 2022/868 (42) e (UE) 2023/2854 (43) do Parlamento Europeu e do Conselho.
(141)
V zájmu urychlení procesu vývoje vysoce rizikových systémů AI uvedených v příloze tohoto nařízení a jejich uvádění na trh je důležité, aby poskytovatelé nebo potenciální poskytovatelé těchto systémů mohli rovněž využívat zvláštního režimu pro testování těchto systémů v reálných podmínkách, aniž by se účastnili regulačního sandboxu pro AI. V takových případech, s ohledem na možné důsledky takového testování pro jednotlivce by však mělo být zajištěno, aby toto nařízení pro poskytovatele nebo potenciální poskytovatele zavedlo vhodné a dostatečné záruky a podmínky. Tyto záruky by měly mimo jiné zahrnovat požadavek na informovaný souhlas fyzických osob s účastí na testování v reálných podmínkách, s výjimkou vymáhání práva v případech, kdy by získání informovaného souhlasu bránilo testování systému AI. Souhlas subjektů údajů s účastí na takovém testování podle tohoto nařízení je odlišný od souhlasu subjektů údajů se zpracováním jejich osobních údajů podle příslušného práva v oblasti ochrany údajů, který jím není dotčen. Je rovněž důležité minimalizovat rizika a umožnit dohled ze strany příslušných orgánů, a proto požadovat, aby potenciální poskytovatelé předložili příslušnému orgánu dozoru nad trhem plán testování v reálných podmínkách, zaregistrovali testování ve specializovaných oddílech v databázi EU s výhradou určitých omezených výjimek, stanovili omezení doby, po kterou lze testování provádět, a vyžadovali další záruky pro osoby patřící do některé ze zranitelných skupin, jakož i písemnou dohodu vymezující úlohy a povinnosti potenciálních poskytovatelů a zavádějících subjektů a účinný dohled ze strany příslušných pracovníků zapojených do testování v reálném provozu. Dále je vhodné stanovit další záruky, které zajistí, aby predikce, doporučení nebo rozhodnutí systému AI mohly být účinně zrušeny a ignorovány a aby byly osobní údaje chráněny a vymazány, pokud subjekty odvolají svůj souhlas s účastí na testování, aniž by byla dotčena jejich práva jakožto subjektů údajů podle práva Unie o ochraně údajů. Pokud jde o předávání údajů, je rovněž vhodné předpokládat, že údaje shromážděné a zpracovávané pro účely testování v reálných podmínkách by měly být předávány do třetích zemí pouze v případě, že jsou zavedeny vhodné a použitelné záruky podle práva Unie, zejména v souladu se základy pro předávání osobních údajů podle práva Unie o ochraně údajů, zatímco pro neosobní údaje jsou zavedeny vhodné záruky v souladu s právem Unie, jako jsou nařízení Evropského parlamentu a Rady (EU) 2022/868 (42) a (EU) 2023/2854 (43).
(142)
A fim de garantir que a IA conduza a resultados benéficos do ponto de vista social e ambiental, os Estados-Membros são incentivados a apoiar e promover a investigação e o desenvolvimento de soluções de IA em prol de resultados social e ambientalmente benéficos, tais como soluções baseadas na IA para aumentar a acessibilidade para as pessoas com deficiência, combater as desigualdades socioeconómicas ou cumprir as metas ambientais, através da afetação de recursos suficientes, incluindo financiamento público e da União e, se for caso disso e desde que os critérios de elegibilidade e seleção sejam cumpridos, tendo em conta, em especial, projetos que prossigam esses objetivos. Esses projetos deverão ser baseados no princípio da cooperação interdisciplinar entre criadores de IA, especialistas em matéria de desigualdade, não discriminação, acessibilidade e direitos do consumidor, ambientais e digitais, bem como do meio académico.
(142)
V zájmu zajištění sociálně a environmentálně prospěšných výsledků AI se členské státy vybízejí, aby podporovaly a prosazovaly výzkum a vývoj řešení v oblasti AI, která sociálně a environmentálně prospěšné výsledky podporují, jako jsou řešení založená na AI, jejichž cílem je zvýšit přístupnost pro osoby se zdravotním postižením, řešit socioekonomické nerovnosti nebo plnit environmentální cíle, a aby za tímto účelem přidělily dostatečné zdroje, včetně veřejných a unijních finančních prostředků, a případně aby se zaměřily zejména na projekty, které sledují uvedené cíle, jsou-li splněna kritéria způsobilosti a výběru. Tyto projekty by měly být založeny na zásadě interdisciplinární spolupráce mezi vývojáři AI, odborníky na nerovnost a nediskriminaci, přístupnost, spotřebitelská, environmentální a digitální práva, jakož i akademickými pracovníky.
(143)
A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses das PME, incluindo as empresas em fase de arranque, que sejam prestadores e responsáveis pela implantação de sistemas de IA. Para esse efeito, os Estados-Membros deverão desenvolver iniciativas dirigidas a esses operadores, incluindo ações de sensibilização e comunicação de informações. Os Estados-Membros deverão proporcionar às PME, incluindo às empresas em fase de arranque, com sede social ou sucursal na União acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que aquelas cumpram as condições de elegibilidade e os critérios de seleção e sem impedir que outros prestadores e potenciais prestadores tenham acesso aos ambientes de testagem, contanto que estejam preenchidas as mesmas condições e critérios. Os Estados-Membros deverão utilizar os canais existentes e, se for caso disso, criar novos canais específicos para comunicar com as PME, incluindo as empresas em fase de arranque, os responsáveis pela implantação, outros inovadores e, conforme adequado, as autoridades públicas locais, a fim de apoiar as PME ao longo da sua trajetória de desenvolvimento, facultando orientações e respondendo a perguntas sobre a aplicação do presente regulamento. Sempre que adequado, esses canais deverão trabalhar em conjunto para criar sinergias e assegurar a homogeneidade da sua orientação às PME, inclusive às empresas em fase de arranque, e aos responsáveis pela implantação. Paralelamente, os Estados-Membros deverão facilitar a participação das PME e de outras partes interessadas pertinentes nos processos de desenvolvimento de normalização. Além disso, os interesses e as necessidades específicos dos prestadores que são PME, incluindo empresas em fase de arranque, deverão ser tidos em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. A Comissão deverá avaliar periodicamente os custos de certificação e de conformidade para as PME, incluindo as empresas em fase de arranque, através de consultas transparentes, e deverá trabalhar com os Estados-Membros para baixar esses custos. Por exemplo, os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um encargo substancial para os prestadores e outros operadores, nomeadamente para os prestadores de menor dimensão. Os Estados-Membros deverão eventualmente assegurar que uma das línguas por si determinadas e aceites para a documentação pertinente dos prestadores e para a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de responsáveis pela implantação transfronteiriça. A fim de dar resposta às necessidades específicas das PME, incluindo as empresas em fase de arranque, a Comissão deverá disponibilizar modelos normalizados para os domínios abrangidos pelo presente regulamento, a pedido do Comité para a IA. Além disso, a Comissão deverá complementar os esforços dos Estados-Membros, disponibilizando uma plataforma única de informação com informações de fácil utilização sobre o presente regulamento para todos os prestadores e responsáveis pela implantação, organizando campanhas de comunicação adequadas para sensibilizar para as obrigações decorrentes do presente regulamento e avaliando e promovendo a convergência das melhores práticas em procedimentos de contratação pública relacionados com sistemas de IA. As empresas de média dimensão que eram até recentemente consideradas como de pequena dimensão, na aceção do anexo da Recomendação 2003/361/CE (44) da Comissão, deverão ter acesso a essas medidas de apoio, uma vez que essas novas empresas de média dimensão podem, por vezes, não dispor dos recursos jurídicos e da formação necessários para assegurar a compreensão e o cumprimento adequados do presente regulamento.
(143)
V zájmu podpory a ochrany inovací je důležité, aby byly obzvláště zohledněny zájmy malých a středních podniků, včetně podniků začínajících, které jsou poskytovateli nebo zavádějícími subjekty systémů AI. Za tímto účelem by členské státy měly vyvíjet iniciativy zaměřené na tyto provozovatele, a to včetně zvyšování povědomí a informační komunikace. Členské státy by měly poskytnout malým a středním podnikům, včetně podniků začínajících, které mají sídlo nebo pobočku v Unii, přednostní přístup k regulačním sandboxům pro AI za předpokladu, že splňují podmínky způsobilosti a kritéria výběru, a aniž by bránily jiným poskytovatelům a potenciálním poskytovatelům v přístupu k sandboxům za předpokladu, že jsou splněny stejné podmínky a kritéria. Členské státy by měly využít stávající kanály a případně vytvořit nové specializované kanály pro komunikaci s malými a středními podniky, včetně začínajících podniků, zavádějícími subjekty, dalšími inovátory a případně místními veřejnými orgány, aby podpořily malé a střední podniky v průběhu vývoje tím, že jim budou poskytovat pokyny a zodpovídat dotazy týkající se provádění tohoto nařízení. Tyto kanály by ve vhodných případech měly spolupracovat na vytváření synergií a zajištění jednotných pokynů pro malé a střední podniky, včetně podniků začínajících, a zavádějící subjekty. Členské státy by navíc měly usnadňovat účast malých a středních podniků a dalších příslušných zúčastněných stran na procesech rozvoje normalizace. Kromě toho by poskytovatelé měli při stanovování poplatků za posouzení shody oznámenými subjekty zohlednit zvláštní zájmy a potřeby poskytovatelů, kterými jsou malé a střední podniky včetně podniků začínajících. Komise by měla pravidelně posuzovat náklady malých a středních podniků, včetně podniků začínajících, na certifikaci a dodržování předpisů, mimo jiné na základě transparentních konzultací, a měla by spolupracovat s členskými státy na snižování těchto nákladů. Značné náklady pro poskytovatele a další provozovatele, zejména jedná-li se o poskytovatele a provozovatele menšího rozsahu, mohou představovat například náklady na překlady související s povinnou dokumentací a s komunikací s úřady. Členské státy by případně měly zajistit, aby jedním z jazyků, který určí a přijmou pro účely dokumentace příslušných poskytovatelů a komunikace s provozovateli, byl jazyk, kterému obecně rozumí co nejvyšší počet přeshraničních zavádějících subjektů. Za účelem řešení specifických potřeb malých a středních podniků, včetně podniků začínajících, by Komise měla na žádost rady poskytnout standardizované šablony pro oblasti, na něž se vztahuje toto nařízení. Kromě toho by Komise měla doplnit úsilí členských států tím, že všem poskytovatelům a zavádějícím subjektům poskytne jednotnou informační platformu se snadno použitelnými informacemi o tomto nařízení, uspořádá vhodné komunikační kampaně s cílem zvýšit povědomí o povinnostech vyplývajících z tohoto nařízení a vyhodnotí a podpoří sbližování osvědčených postupů při zadávání veřejných zakázek v souvislosti se systémy AI. K těmto podpůrným opatřením by měly mít přístup střední podniky, které donedávna splňovaly kritéria pro malé podniky ve smyslu přílohy doporučení Komise 2003/361/ES (44), neboť tyto nové střední podniky mohou někdy postrádat právní zdroje a odbornou přípravu nezbytnou k zajištění řádného porozumění tomuto nařízení a jeho dodržování.
(144)
A fim de promover e proteger a inovação, a plataforma IA a pedido, todos os programas e projetos de financiamento pertinentes da União — como o Programa Europa Digital e o Horizonte Europa — executados pela Comissão e pelos Estados-Membros a nível da União ou a nível nacional deverão, conforme o caso, contribuir para a consecução dos objetivos do presente regulamento.
(144)
Za účelem podpory a ochrany inovací by k dosažení cílů tohoto nařízení případně měly přispívat platforma AI na vyžádání, všechny příslušné unijní programy a projekty financování, jako je program Digitální Evropa a program Horizont Evropa, prováděné Komisí a členskými státy na unijní nebo vnitrostátní úrovni.
(145)
A fim de minimizar os riscos para a aplicação resultantes da falta de conhecimentos e competências especializadas no mercado, bem como para facilitar o cumprimento, por parte dos prestadores, nomeadamente das PME, incluindo as empresas em fase de arranque, e dos organismos notificados, das obrigações que lhes são impostas pelo presente regulamento, a plataforma IA a pedido, os polos europeus de inovação digital e as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados-Membros a nível da União ou a nível nacional poderão eventualmente contribuir para a aplicação do presente regulamento. No âmbito da respetiva missão e domínios de competência, a plataforma de IA a pedido, os polos europeus de inovação digital e as instalações de ensaio e experimentação podem prestar, em particular, apoio técnico e científico aos prestadores e aos organismos notificados.
(145)
K provádění tohoto nařízení s cílem minimalizovat rizika v oblasti provádění vyplývající z nedostatku věcných a odborných znalostí na trhu, jakož i usnadnit dodržování povinností poskytovatelů, zejména malých a středních podniků včetně podniků začínajících, a oznámených subjektů podle tohoto nařízení, by mohly potenciálně přispět platformy pro AI na vyžádání, evropská centra pro digitální inovace a zkušební a experimentální zařízení zřízená Komisí a členskými státy na unijní nebo vnitrostátní úrovni. Platforma pro AI na vyžádání, evropská centra pro digitální inovace a zkušební a experimentální zařízení mohou v rámci svých úkolů a oblastí působnosti poskytovatelům a oznámeným subjektům poskytovat zejména technickou a vědeckou podporu.
(146)
Além disso, tendo em conta a dimensão muito reduzida de alguns operadores e a fim de assegurar a proporcionalidade no que diz respeito aos custos da inovação, é conveniente permitir que as microempresas satisfaçam uma das obrigações mais onerosas, designadamente o estabelecimento de um sistema de gestão da qualidade, de uma forma simplificada que reduza os seus encargos administrativos e custos, sem afetar o nível de proteção nem a necessidade de cumprir os requisitos aplicáveis aos sistemas de IA de risco elevado. A Comissão deverá elaborar orientações para especificar os elementos do sistema de gestão da qualidade a cumprir desta forma simplificada pelas microempresas.
(146)
Kromě toho je s ohledem na velmi malou velikost některých provozovatelů a v zájmu zajištění proporcionality, pokud jde o náklady na inovace, vhodné umožnit mikropodnikům, aby jednu z nejnákladnějších povinností, konkrétně zavedení systému řízení kvality, splnily zjednodušeným způsobem, který by snížil jejich administrativní zátěž a náklady, aniž by to ovlivnilo úroveň ochrany a potřebu splňovat požadavky na vysoce rizikové systémy AI. Komise by měla vypracovat pokyny pro upřesnění prvků systému řízení kvality, které mohou mikropodniky realizovat tímto zjednodušeným způsobem.
(147)
É apropriado que a Comissão facilite, tanto quanto possível, o acesso a instalações de ensaio e experimentação aos organismos, grupos ou laboratórios criados ou acreditados nos termos da legislação de harmonização da União pertinente e que desempenham funções no contexto da avaliação da conformidade dos produtos ou dispositivos abrangidos por essa legislação de harmonização da União. É este o caso, nomeadamente, dos painéis de peritos, dos laboratórios especializados e dos laboratórios de referência no domínio dos dispositivos médicos, nos termos dos Regulamentos (UE) 2017/745 e (UE) 2017/746.
(147)
Je vhodné, aby Komise v maximální možné míře usnadnila přístup ke zkušebním a experimentálním zařízením orgánům, skupinám nebo laboratořím, které jsou zřízeny nebo akreditovány podle příslušných harmonizačních právních předpisů Unie a které plní úkoly v souvislosti s posuzováním shody produktů nebo zařízení, na něž se uvedené harmonizační právní předpisy Unie vztahují. To platí zejména pro odborné skupiny, odborné laboratoře a referenční laboratoře v oblasti zdravotnických prostředků podle nařízení (EU) 2017/745 a (EU) 2017/746.
(148)
O presente regulamento deverá estatuir um modelo de governação que permita coordenar e apoiar a aplicação do presente regulamento a nível nacional, bem como criar capacidades a nível da União e integrar as partes interessadas no domínio da IA. A aplicação e execução efetivas do presente regulamento exigem um modelo de governação que permita coordenar e desenvolver conhecimentos especializados centrais a nível da União. O Serviço para a IA foi criado por decisão da Comissão (45) e tem como missão desenvolver os conhecimentos especializados e as capacidades da União no domínio da IA e contribuir para a aplicação da legislação da União em matéria de IA. Os Estados-Membros deverão facilitar o desempenho das funções do Serviço para a IA com vista a apoiar o desenvolvimento dos conhecimentos especializados e das capacidades da União a nível da União e a reforçar o funcionamento do mercado único digital. Além disso, deverá ser criado um Comité composto por representantes dos Estados-Membros, um painel científico que integre a comunidade científica e um fórum consultivo que permita às partes interessadas darem o seu contributo para a aplicação do presente regulamento, tanto a nível da União como nacional. O desenvolvimento dos conhecimentos especializados e das capacidades da União deverão também incluir a utilização dos recursos e conhecimentos especializados existentes, nomeadamente através de sinergias com estruturas criadas no contexto da aplicação a nível da União de outra lei e de sinergias com iniciativas conexas a nível da União, como a Empresa Comum para a Computação Europeia de Alto Desempenho e as instalações de ensaio e experimentação no domínio da IA no âmbito do Programa Europa Digital.
(148)
Toto nařízení by mělo vytvořit rámec správy, který umožní koordinovat a podporovat uplatňování tohoto nařízení na vnitrostátní úrovni, jakož i budovat kapacity na úrovni Unie a integrovat zúčastněné strany v oblasti AI. Účinné provádění a prosazování tohoto nařízení vyžaduje rámec správy, který umožní koordinaci a budování ústředních odborných znalostí na úrovni Unie. Úřad pro AI byl zřízen rozhodnutím Komise (45) a jeho úkolem je rozvíjet odborné znalosti a schopnosti Unie v oblasti AI a přispívat k provádění práva Unie v oblasti AI. Členské státy by měly usnadnit úkoly úřadu pro AI s cílem podpořit rozvoj odborných znalostí a schopností Unie na úrovni Unie a posílit fungování jednotného digitálního trhu. Kromě toho by měla být zřízena rada složená ze zástupců členských států, vědecká komise pro integraci vědecké obce a poradní fórum, které bude přispívat prostřednictvím zúčastněných stran k provádění tohoto nařízení na unijní a vnitrostátní úrovni. Rozvoj odborných znalostí a schopností Unie by měl rovněž zahrnovat využití stávajících zdrojů a odborných znalostí, zejména prostřednictvím synergií se strukturami vytvořenými v souvislosti s vymáháním jiného práva na úrovni Unie a synergií se souvisejícími iniciativami na úrovni Unie, jako je společný podnik EuroHPC a zkušební a experimentální zařízení pro AI v rámci programu Digitální Evropa.
(149)
A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deverá ser criado um Comité. O Comité deverá refletir os vários interesses do ecossistema de IA e ser composto por representantes dos Estados-Membros. O Comité deverá ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações e conselhos, ou o contributo para orientações em questões relacionadas com a aplicação do presente regulamento, inclusive no tocante a questões de execução, especificações técnicas ou normas existentes relativas aos requisitos estabelecidos no presente regulamento, e a prestação de aconselhamento à Comissão a aos Estados-Membros e respetivas autoridades nacionais competentes sobre questões específicas relacionadas com a IA. A fim de dar alguma flexibilidade aos Estados-Membros na designação dos seus representantes no Comité, esses representantes podem ser quaisquer pessoas pertencentes a entidades públicas que deverão ter as competências e os poderes pertinentes para facilitar a coordenação a nível nacional e contribuir para o desempenho das funções do Comité. O Comité deverá criar dois subgrupos permanentes a fim de proporcionar uma plataforma de cooperação e intercâmbio entre as autoridades de fiscalização do mercado e as autoridades notificadoras sobre questões relacionadas, respetivamente, com a fiscalização do mercado e os organismos notificados. O subgrupo permanente para a fiscalização do mercado deverá atuar como grupo de cooperação administrativa (ADCO) para efeitos do presente regulamento, na aceção do artigo 30.o do Regulamento (UE) 2019/1020. Em consonância com o artigo 33.o do referido Regulamento, a Comissão deverá apoiar as atividades do subgrupo permanente para a fiscalização do mercado, realizando avaliações ou estudos de mercado, nomeadamente com vista a identificar aspetos do presente regulamento que exijam uma coordenação específica e urgente entre as autoridades de fiscalização do mercado. O Comité pode constituir outros subgrupos permanentes ou temporários consoante adequado para efeitos da análise de questões específicas. O Comité deverá também cooperar, se for caso disso, com os organismos, grupos de peritos e redes pertinentes da União ativos no contexto de outras disposições pertinentes do direito da União, incluindo, em especial, os que operam ao abrigo do direito pertinente da União em matéria de dados, produtos e serviços digitais.
(149)
V zájmu usnadnění hladkého, účinného a harmonizovaného provádění tohoto nařízení by měla být zřízena rada. Tato rada by měla odrážet různé zájmy ekosystému AI a měla by se skládat ze zástupců členských států. Tato rada by měla odpovídat za řadu poradenských úkolů, včetně vydávání stanovisek, doporučení, rad nebo příspěvků k pokynům v záležitostech souvisejících s prováděním tohoto nařízení, včetně otázek prosazování, technických specifikací nebo stávajících norem týkajících se požadavků stanovených v tomto nařízení a poskytování poradenství Komisi a členským státům a jejich vnitrostátních orgánům v konkrétních otázkách týkajících se AI. S cílem poskytnout členským státům určitou flexibilitu při jmenování svých zástupců do rady mohou být těmito zástupci jakékoli osoby patřící k veřejným subjektům, které by měly mít příslušné kompetence a pravomoci, aby usnadnily koordinaci na vnitrostátní úrovni a přispívaly k plnění úkolů rady. Rada by měla zřídit dvě stálé podskupiny, které by poskytovaly platformu pro spolupráci a výměnu mezi orgány dozoru nad trhem a oznamujícími orgány v otázkách týkajících se dozoru nad trhem a oznámených subjektů. Stálá podskupina pro dozor nad trhem by měla působit jako skupina pro správní spolupráci (ADCO) pro toto nařízení ve smyslu článku 30 nařízení (EU) 2019/1020. V souladu s článkem 33 uvedeného nařízení by Komise měla podporovat činnosti stálé podskupiny pro dozor nad trhem tím, že bude provádět hodnocení trhu nebo studie, zejména s cílem určit aspekty tohoto nařízení, které vyžadují zvláštní a naléhavou koordinaci mezi orgány dozoru nad trhem. Rada může podle potřeby zřizovat další stálé nebo dočasné podskupiny pro účely zkoumání konkrétních otázek. Rada by měla rovněž případně spolupracovat s příslušnými subjekty Unie, skupinami odborníků a sítěmi působícími v oblasti příslušného práva Unie, zejména s těmi, které působí v oblasti příslušného práva Unie upravujícího data, digitální produkty a služby.
(150)
A fim de assegurar a participação das partes interessadas na execução e aplicação do presente regulamento, deverá ser criado um fórum consultivo para aconselhar e disponibilizar conhecimentos técnicos especializados ao Comité e à Comissão. A fim de assegurar uma representação variada e equilibrada das partes interessadas entre interesses comerciais e não comerciais e, dentro da categoria de interesses comerciais, no que diz respeito às PME e a outras empresas, o fórum consultivo deverá englobar, nomeadamente, a indústria, as empresas em fase de arranque, as PME, o meio académico, a sociedade civil, incluindo os parceiros sociais, bem como a Agência dos Direitos Fundamentais, a ENISA, o Comité Europeu de Normalização (CEN), o Comité Europeu de Normalização Eletrotécnica (CENELEC) e o Instituto Europeu de Normalização das Telecomunicações (ETSI).
(150)
S cílem zajistit zapojení zúčastněných stran do provádění a uplatňování tohoto nařízení by mělo být zřízeno poradní fórum, které by poskytovalo poradenství a technické odborné znalosti radě a Komisi. Aby bylo zajištěno různorodé a vyvážené zastoupení zúčastněných stran mezi komerčními a nekomerčními zájmy, jakož i mezi středními a malými podniky a dalšími podniky v rámci kategorie komerčních zájmů, mělo by poradní fórum zahrnovat mimo jiné průmysl, začínající podniky, malé a střední podniky, akademickou obec, občanskou společnost, včetně sociálních partnerů, jakož i Agenturu pro základní práva, agenturu ENISA, Evropský výbor pro normalizaci (CEN), Evropský výbor pro normalizaci v elektrotechnice (CENELEC) a Evropský ústav pro telekomunikační normy (ETSI).
(151)
A fim de apoiar a aplicação e a execução do presente regulamento, em especial as atividades de acompanhamento do Serviço para a IA no que diz respeito aos modelos de IA de finalidade geral, deverá ser criado um painel científico de peritos independentes. Os peritos independentes que constituem o painel científico deverão ser selecionados com base em conhecimentos científicos ou técnicos atualizados no domínio da IA e deverão desempenhar as suas funções com imparcialidade e objetividade e assegurar a confidencialidade das informações e dos dados obtidos no desempenho das suas funções e atividades. A fim de permitir o reforço das capacidades nacionais necessárias para a execução efetiva do presente regulamento, os Estados-Membros deverão poder solicitar o apoio do grupo de peritos que constituem o painel científico para as suas atividades de execução.
(151)
Na podporu provádění a prosazování tohoto nařízení, zejména monitorovacích činností úřadu pro AI, pokud jde o obecné modely AI, by měla být zřízena vědecká komise složená z nezávislých odborníků. Nezávislí odborníci tvořící vědeckou komisi by měli být vybíráni na základě aktuálních vědeckých nebo technických odborných znalostí v oblasti AI a měli by plnit své úkoly nestranně, objektivně a zajišťovat důvěrnost informací a údajů získaných při plnění svých úkolů a činností. Aby bylo možné posílit vnitrostátní kapacity nezbytné pro účinné prosazování tohoto nařízení, měly by mít členské státy možnost požádat o podporu skupinu odborníků tvořících vědeckou komisi pro své činnosti v oblasti prosazování práva.
(152)
A fim de apoiar a execução adequada dos sistemas de IA e reforçar as capacidades dos Estados-Membros, deverão ser criadas e disponibilizadas aos Estados-Membros estruturas da União de apoio à testagem de IA.
(152)
S cílem podpořit odpovídající prosazování, pokud jde o systémy AI, a posílit kapacity členských států by měly být zřízeny podpůrné struktury Unie pro testování AI, které by měly být členským státům zpřístupněny.
(153)
Os Estados-Membros desempenham um papel fundamental na aplicação e execução do presente regulamento. Nesse sentido, cada Estado-Membro deverá designar pelo menos uma autoridade notificadora e pelo menos uma autoridade de fiscalização do mercado como autoridades nacionais competentes do mercado para efeitos de supervisão da aplicação e execução do presente regulamento. Os Estados-Membros podem decidir nomear qualquer tipo de entidade pública para desempenhar as funções das autoridades nacionais competentes na aceção do presente regulamento, de acordo com as suas características e necessidades específicas em matéria de organização nacional. A fim de aumentar a eficácia organizativa dos Estados-Membros e de criar um ponto de contacto oficial único para o público e as outras contrapartes a nível dos Estados-Membros e da União, cada Estado-Membro deverá designar uma autoridade de fiscalização do mercado que atue como um ponto de contacto único.
(153)
Při uplatňování a prosazování tohoto nařízení hrají klíčovou roli členské státy. V tomto ohledu by měl každý členský stát určit alespoň jeden oznamující orgán a alespoň jeden orgán dozoru nad trhem jako příslušné vnitrostátní orgány pro účely dohledu nad uplatňováním a prováděním tohoto nařízení. Členské státy mohou rozhodnout, že určí jakýkoli druh veřejného subjektu, který bude plnit úkoly příslušných vnitrostátních orgánů ve smyslu tohoto nařízení, v souladu s jejich specifickými vnitrostátními organizačními charakteristikami a potřebami. V zájmu zvýšení efektivity organizace na straně členských států a stanovení jednotného kontaktního místa pro veřejnost a další protistrany na úrovni členských států a Unie by měl každý členský stát určit orgán dozoru nad trhem, který bude působit jako jednotné kontaktní místo.
(154)
As autoridades nacionais competentes deverão exercer os seus poderes de forma independente, imparcial e sem enviesamentos, a fim de salvaguardar os princípios da objetividade das suas atividades e funções e de assegurar a aplicação e execução do presente regulamento. Os membros dessas autoridades deverão abster-se de qualquer ato incompatível com as suas funções e estar sujeitos às regras de confidencialidade previstas no presente regulamento.
(154)
Příslušné vnitrostátní orgány by měly vykonávat své pravomoci nezávisle, nestranně a nezaujatě, aby chránily zásady objektivity svých činností a úkolů a zajistily uplatňování a provádění tohoto nařízení. Členové těchto orgánů by se měli zdržet jakéhokoli jednání neslučitelného s jejich povinnostmi a měli by podléhat pravidlům důvěrnosti podle tohoto nařízení.
(155)
Para assegurar que os prestadores de sistemas de IA de risco elevado possam aproveitar a experiência adquirida na utilização de sistemas de IA de risco elevado para melhorarem os seus sistemas e o processo de conceção e desenvolvimento ou possam adotar eventuais medidas corretivas em tempo útil, todos os prestadores deverão dispor de um sistema de acompanhamento pós-comercialização. Se for caso disso, o acompanhamento pós-comercialização deverá incluir uma análise da interação com outros sistemas de IA, incluindo outros dispositivos e software. O acompanhamento pós-comercialização não deverá abranger os dados operacionais sensíveis dos responsáveis pela implantação que sejam autoridades responsáveis pela aplicação da lei. Este sistema também é fundamental para assegurar uma resolução mais eficaz e atempada dos eventuais riscos decorrentes dos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou colocados em serviço. Neste contexto, os prestadores também deverão ser obrigados a dispor de um sistema para comunicar às autoridades competentes quaisquer incidentes graves resultantes da utilização dos seus sistemas de IA, ou seja, incidentes ou anomalias que conduzam à morte ou a danos graves para a saúde, perturbações graves e irreversíveis da gestão e do funcionamento de infraestruturas críticas, violações das obrigações decorrentes do direito da União destinadas a proteger os direitos fundamentais ou danos graves à propriedade ou ao ambiente.
(155)
Všichni poskytovatelé vysoce rizikových systémů AI by měli mít zaveden systém monitorování po uvedení na trh s cílem zajistit, že budou schopni zohlednit zkušenosti s používáním vysoce rizikových systémů AI při zlepšování svých systémů a procesu návrhu a vývoje, případně že budou schopni včas přijmout veškerá případná nápravná opatření. Monitorování po uvedení na trh by mělo případně zahrnovat analýzu interakce s jinými systémy AI, včetně jiných zařízení a softwaru. Monitorování po uvedení na trh by se nemělo vztahovat na citlivé provozní údaje subjektů zavádějících systémy AI, které jsou donucovacími orgány. Tento systém je rovněž klíčovým předpokladem zajištění účinnějšího a včasnějšího řešení potenciálních rizik vyplývajících ze systémů AI, které se po uvedení na trh nebo do provozu dále „učí“. Poskytovatelé by měli mít v této souvislosti rovněž povinnost zavést systém oznamování veškerých závažných incidentů, k nimž dojde v důsledku používání jejich systémů AI, příslušným orgánům, čímž se rozumí incident nebo porucha vedoucí k úmrtí nebo vážnému poškození zdraví, vážnému a nevratnému narušení řízení a provozu kritické infrastruktury, porušení povinností podle práva Unie, jejichž cílem je ochrana základních práv, nebo vážné škody na majetku nebo životním prostředí.
(156)
Para assegurar uma execução adequada e eficaz dos requisitos e obrigações estabelecidos no presente regulamento, que faz parte da legislação de harmonização da União, o sistema de fiscalização do mercado e de conformidade dos produtos estabelecido no Regulamento (UE) 2019/1020 deverá ser aplicado na íntegra. As autoridades de fiscalização do mercado designadas nos termos do presente regulamento deverão dispor de todos os poderes de execução estabelecidos no presente regulamento e no Regulamento (UE) 2019/1020 e deverão exercer os seus poderes e desempenhar as suas funções de forma independente, imparcial e objetiva. Embora a maioria dos sistemas de IA não esteja sujeita a requisitos e obrigações específicos nos termos do presente regulamento, as autoridades de fiscalização do mercado podem tomar medidas em relação a todos os sistemas de IA que apresentem um risco em conformidade com o presente regulamento. Dada a natureza específica das instituições, órgãos e organismos da União abrangidos pelo âmbito de aplicação do presente regulamento, é conveniente designar a Autoridade Europeia para a Proteção de Dados como autoridade de fiscalização do mercado competente relativamente a essas instituições, órgãos e organismos. Tal não deverá prejudicar a designação das autoridades nacionais competentes pelos Estados-Membros. As atividades de fiscalização do mercado não deverão afetar a capacidade das entidades supervisionadas de desempenharem as suas funções de forma independente, quando essa independência for exigida pelo direito da União.
(156)
V zájmu zajištění náležitého a účinného vymáhání požadavků a povinností stanovených tímto nařízením, které představuje harmonizační právní předpis Unie, by se měl v plném rozsahu uplatňovat systém dozoru nad trhem a souladu výrobků s předpisy stanovený nařízením (EU) 2019/1020. Orgány dozoru nad trhem určené podle tohoto nařízení by měly mít veškeré donucovací pravomoci stanovené v tomto nařízení a v nařízení (EU) 2019/1020 a měly by vykonávat své pravomoci a plnit své povinnosti nezávisle, nestranně a nezaujatě. Ačkoli většina systémů AI nepodléhá zvláštním požadavkům a povinnostem podle tohoto nařízení, mohou orgány dozoru nad trhem přijmout opatření ve vztahu ke všem systémům AI, pokud představují riziko v souladu s tímto nařízením. Vzhledem ke zvláštní povaze orgánů, institucí a jiných subjektů Unie spadajících do oblasti působnosti tohoto nařízení je vhodné pro ně jmenovat jako příslušný orgán dozoru nad trhem evropského inspektora ochrany údajů. Tím by nemělo být dotčeno určení příslušných vnitrostátních orgánů členskými státy. Činnostmi v oblasti dozoru nad trhem by neměla být dotčena schopnost subjektů, nad nimiž je dozor vykonáván, plnit své úkoly nezávisle, pokud tuto nezávislost vyžaduje právo Unie.
(157)
O presente regulamento não prejudica as competências, as atribuições, os poderes nem a independência das autoridades ou organismos públicos nacionais competentes que supervisionam a aplicação do direito da União que protege direitos fundamentais, incluindo os organismos de promoção da igualdade e as autoridades de proteção de dados. Quando tal for necessário ao cumprimento do seu mandato, essas autoridades ou organismos públicos nacionais deverão também ter acesso à documentação elaborada por força do presente regulamento. Deverá ser estabelecido um procedimento de salvaguarda específico para assegurar uma aplicação adequada e atempada relativamente aos sistemas de IA que apresentem um risco para a saúde, a segurança e os direitos fundamentais. O procedimento aplicável a esses sistemas de IA que apresentam um risco deverá ser aplicado aos sistemas de IA de risco elevado que apresentem um risco, aos sistemas proibidos que tenham sido colocados no mercado, colocados em serviço ou utilizados em violação das disposições respeitantes a práticas proibidas estabelecidas no presente regulamento e aos sistemas de IA que tenham sido disponibilizados em violação dos requisitos de transparência estabelecidos no presente regulamento e que apresentem um risco.
(157)
Tímto nařízením nejsou dotčeny kompetence, úkoly, pravomoci a nezávislost příslušných vnitrostátních veřejných orgánů nebo subjektů veřejného sektoru, které dohlížejí na uplatňování práva Unie na ochranu základních práv, včetně orgánů pro rovné zacházení a úřadů pro ochranu osobních údajů. Pokud je to nutné pro výkon jejich pověření, tyto vnitrostátní veřejné orgány nebo subjekty veřejného sektoru by rovněž měly mít přístup k veškeré dokumentaci vytvořené podle tohoto nařízení. Měl by být stanoven zvláštní ochranný postup pro zajištění přiměřeného a včasného prosazování předpisů proti systémům AI, které představují riziko pro zdraví, bezpečnost a základní práva. Postup pro tyto systémy AI představující riziko by se měl vztahovat na vysoce rizikové systémy AI představující riziko, zakázané systémy, které byly uvedeny na trh nebo do provozu nebo používány v rozporu se zakázanými praktikami stanovenými v tomto nařízení, a na systémy AI, které byly dodány na trh v rozporu s požadavky na transparentnost stanovenými v tomto nařízení a představují riziko.
(158)
A legislação da União no domínio dos serviços financeiros inclui regras e requisitos relativos à governação interna e à gestão dos riscos aplicáveis às instituições financeiras regulamentadas durante a prestação desses serviços, inclusive quando estas utilizam sistemas de IA. Para assegurar a coerência na aplicação e na execução das obrigações previstas no presente regulamento e das regras e requisitos dos atos legais da União aplicáveis aos serviços financeiros, as autoridades competentes responsáveis pela supervisão e execução desses atos jurídicos, nomeadamente as autoridades competentes na aceção do Regulamento (UE) n.o 575/2013 do Parlamento Europeu e do Conselho (46) e as Diretivas 2008/48/CE (47), 2009/138/CE (48), 2013/36/UE (49), 2014/17/UE (50) e (UE) 2016/97 (51) do Parlamento Europeu e do Conselho, deverão ser designadas, no âmbito das respetivas competências, autoridades competentes para efeitos de supervisão da aplicação do presente regulamento, incluindo o exercício de funções de fiscalização do mercado, no que diz respeito aos sistemas de IA disponibilizados ou utilizados por instituições financeiras regulamentadas e supervisionadas, salvo se os Estados-Membros decidirem designar outra autoridade para desempenhar essas funções de fiscalização do mercado. Essas autoridades competentes deverão dispor de todos os poderes ao abrigo do presente regulamento e do Regulamento (UE) 2019/1020 para fazer cumprir os requisitos e obrigações do presente regulamento, incluindo poderes para levar a cabo atividades de fiscalização do mercado ex post que possam ser integradas, se for caso disso, nos seus mecanismos e procedimentos de supervisão existentes ao abrigo do direito da União aplicável no domínio dos serviços financeiros. É apropriado definir que, ao atuarem como autoridades de fiscalização do mercado ao abrigo do presente regulamento, as autoridades nacionais responsáveis por supervisionar as instituições de crédito regulamentadas pela Diretiva 2013/36/UE, que participam no Mecanismo Único de Supervisão estabelecido pelo Regulamento (UE) n.o 1024/2013 do Conselho (52), deverão comunicar sem demora ao Banco Central Europeu todas as informações identificadas no âmbito das suas atividades de fiscalização do mercado que possam ser de interesse potencial para as atribuições de supervisão prudencial do Banco Central Europeu especificadas nesse regulamento. A fim de reforçar a coerência entre o presente regulamento e as regras aplicáveis às instituições de crédito regulamentadas pela Diretiva 2013/36/UE, também é apropriado integrar algumas das obrigações processuais dos prestadores relativas à gestão de riscos, ao acompanhamento pós-comercialização e à documentação nas obrigações e procedimentos em vigor por força da referida diretiva. No intuito de evitar sobreposições, também deverão ser previstas derrogações limitadas no respeitante ao sistema de gestão da qualidade dos prestadores e à obrigação de controlo imposta aos responsáveis pela implantação de sistemas de IA de risco elevado, contanto que tal se aplique a instituições de crédito regulamentadas pela Diretiva 2013/36/UE. Deverá aplicar-se o mesmo regime às empresas de seguros e de resseguros e às sociedades gestoras de participações no setor dos seguros nos termos da Diretiva 2009/138/CE, aos mediadores de seguros nos termos da Diretiva (UE) 2016/97 e a outros tipos de instituições financeiras sujeitas a requisitos em matéria governação, mecanismos ou processos internos estabelecidos nos termos do direito da União aplicável no domínio dos serviços financeiros, a fim de assegurar a coerência e a igualdade de tratamento no setor financeiro.
(158)
Právo Unie týkající se finančních služeb zahrnují pravidla a požadavky vnitřní správy a řízení rizik, které se vztahují na regulované finanční instituce v průběhu poskytování těchto služeb, včetně případů, kdy využívají systémy AI. V zájmu zajištění jednotného uplatňování a vymáhání povinností vyplývajících z tohoto nařízení a příslušných pravidel a požadavků právních předpisů Unie o finančních službách by měly být v rámci svých příslušných pravomocí jako příslušné orgány pro účely dohledu nad prováděním tohoto nařízení, včetně činností dozoru nad trhem ve vztahu k systémům AI poskytovaným nebo používaným finančními institucemi, které jsou předmětem regulace nebo dozoru, určeny příslušné orgány pro účely dohledu nad právními předpisy o finančních službách a jejich vymáhání, zejména příslušné orgány definované v nařízení Evropského parlamentu a Rady (EU) č. 575/2013 (46) a ve směrnicích Evropského parlamentu a Rady 2008/48/ES (47), 2009/138/ES (48), 2013/36/EU (49), 2014/17/EU (50) a (EU) 2016/97 (51), ledaže se členské státy rozhodnou ke splnění těchto úkolů dozoru nad trhem určit orgán jiný. Tyto příslušné orgány by měly mít veškeré pravomoci podle tohoto nařízení a nařízení (EU) 2019/1020, aby mohly prosazovat požadavky a povinnosti podle tohoto nařízení, včetně pravomoci provádět následné činnosti dozoru nad trhem, které mohou být případně začleněny do jejich stávajících mechanismů a postupů dohledu podle příslušného práva Unie v oblasti finančních služeb. Je vhodné stanovit, že při jednání jakožto orgány dozoru nad trhem podle tohoto nařízení by vnitrostátní orgány odpovědné za dohled nad úvěrovými institucemi, na něž se vztahuje směrnice 2013/36/EU a které se účastní jednotného mechanismu dohledu zřízeného nařízením Rady (EU) č. 1024/2013 (52), měly neprodleně podat Evropské centrální bance zprávu o veškerých informacích zjištěných v průběhu své činností v oblasti dozoru nad trhem, které by mohly mít potenciální význam pro úkoly Evropské centrální banky v oblasti obezřetnostního dohledu podle uvedeného nařízení. V zájmu dalšího posílení souladu mezi tímto nařízením a pravidly platnými pro úvěrové instituce podléhající směrnici 2013/36/EU je rovněž vhodné začlenit některé procesní povinnosti poskytovatelů v souvislosti s řízením rizik, monitorováním po uvedení na trh a dokumentací do stávajících povinností a postupů podle směrnice 2013/36/EU. Aby nedocházelo k překrývání, je třeba počítat rovněž s omezenými výjimkami ve vztahu k systému řízení kvality poskytovatelů a k povinnosti monitorování uložené zavádějícím subjektům vysoce rizikových systémů AI v rozsahu, v jakém se vztahují na úvěrové instituce podléhající směrnici 2013/36/EU. Stejný režim by se měl vztahovat na pojišťovny, zajišťovny a pojišťovací holdingové společnosti podle směrnice 2009/138/ES a na zprostředkovatele pojištění podle směrnice (EU) 2016/97 a na další typy finančních institucí, na něž se vztahují požadavky týkající se vnitřní správy, opatření nebo postupů zavedených podle příslušného práva Unie v oblasti finančních služeb, aby byla zajištěna soudržnost a rovné zacházení ve finančním sektoru.
(159)
Todas as autoridades de fiscalização do mercado dos sistemas de IA de risco elevado enumerados no domínio da biométrica, conforme enumerado num anexo do presente regulamento, na medida em que esses sistemas sejam utilizados para fins de aplicação da lei, da migração, do asilo e da gestão do controlo das fronteiras, ou para a administração da justiça e processos democráticos, deverão dispor de poderes de investigação e de correção eficazes, incluindo, pelo menos, o poder de aceder a todos os dados pessoais que estão a ser tratados e a todas as informações necessárias ao desempenho das suas funções. As autoridades de fiscalização do mercado deverão poder exercer os seus poderes atuando com total independência. Quaisquer limitações ao seu acesso a dados operacionais sensíveis nos termos do presente regulamento não deverão prejudicar os poderes que lhes são conferidos pela Diretiva (UE) 2016/680. Nenhuma exclusão da divulgação de dados às autoridades nacionais de proteção de dados ao abrigo do presente regulamento deverá afetar os atuais ou futuros poderes dessas autoridades fora do âmbito de aplicação do presente regulamento.
(159)
Každý orgán dozoru nad trhem pro vysoce rizikové systémy AI v oblasti biometriky, který je uveden v příloze tohoto nařízení, pokud jsou tyto systémy používány pro účely vymáhání práva, řízení migrace, azylu a kontroly hranic nebo pro účely výkonu spravedlnosti a demokratických procesů, by měl mít účinné vyšetřovací a nápravné pravomoci, včetně přinejmenším pravomoci získat přístup ke všem zpracovávaným osobním údajům a ke všem informacím nezbytným pro plnění svých úkolů. Orgány dozoru nad trhem by měly mít možnost vykonávat své pravomoci zcela nezávisle. Jakýmkoli omezením jejich přístupu k citlivým provozním údajům podle tohoto nařízení by neměly být dotčeny pravomoci, které jim byly svěřeny směrnicí (EU) 2016/680. Žádnou výjimkou z poskytování údajů vnitrostátním úřadům pro ochranu osobních údajů podle tohoto nařízení by neměly být dotčeny stávající ani budoucí pravomoci těchto orgánů nad rámec tohoto nařízení.
(160)
As autoridades de fiscalização do mercado e a Comissão deverão poder propor atividades conjuntas, incluindo investigações conjuntas, a realizar quer pelas autoridades de fiscalização do mercado quer pelas autoridades de fiscalização do mercado em conjunto com a Comissão, que tenham por objetivo promover a conformidade, identificar situações de não conformidade, sensibilizar e disponibilizar orientações em relação ao presente regulamento no que diz respeito a categorias específicas de sistemas de IA de risco elevado consideradas como apresentando um risco grave em dois ou mais Estados-Membros. As atividades conjuntas para promover a conformidade deverão ser realizadas em conformidade com o artigo 9.o do Regulamento (UE) 2019/1020. O Serviço para a IA deverá prestar apoio à coordenação de investigações conjuntas.
(160)
Orgány dozoru nad trhem a Komise by měly mít možnost navrhovat společné činnosti, včetně společných šetření, prováděné orgány dozoru nad trhem nebo orgány dozoru nad trhem společně s Komisí, jejichž cílem je podporovat dodržování předpisů, zjišťovat nesoulad, zvyšovat povědomí a poskytovat pokyny v souvislosti s tímto nařízením, pokud jde o konkrétní kategorie vysoce rizikových systémů AI, u nichž se zjistí, že představují vážné riziko ve dvou nebo více členských státech. Společné činnosti na podporu dodržování předpisů by měly být prováděny v souladu s článkem 9 nařízení (EU) 2019/1020. Úřad pro AI by měl pro společná šetření poskytovat koordinační podporu.
(161)
É necessário clarificar as responsabilidades e competências a nível da União e a nível nacional no que diz respeito aos sistemas de IA que se baseiam em modelos de IA de finalidade geral. A fim de evitar a sobreposição de competências, sempre que um sistema de IA se baseie num modelo de IA de finalidade geral e o modelo e o sistema sejam disponibilizados pelo mesmo prestador, a supervisão deverá ter lugar a nível da União através do Serviço para a IA, o qual deverá ter os poderes de uma autoridade de fiscalização do mercado na aceção do Regulamento (UE) 2019/1020 para esse efeito. Em todos os outros casos, os responsáveis pela supervisão dos sistemas de IA continuam a ser as autoridades nacionais de fiscalização do mercado. No entanto, para os sistemas de IA de finalidade geral que possam ser utilizados diretamente pelos responsáveis pela implantação para, pelo menos, uma finalidade classificada como sendo de risco elevado, as autoridades de fiscalização do mercado deverão cooperar com o Serviço para a IA na realização de avaliações da conformidade e informar o Comité e outras autoridades de fiscalização do mercado em conformidade. Além disso, as autoridades de fiscalização do mercado deverão poder solicitar assistência ao Serviço para a IA sempre que a autoridade de fiscalização do mercado não seja capaz de concluir uma investigação sobre um sistema de IA de risco elevado devido à sua impossibilidade de aceder a determinadas informações relacionadas com o modelo de IA de finalidade geral no qual o sistema de IA de risco elevado se baseia. Nesses casos, o procedimento relativo à assistência mútua em casos transfronteiriços previsto no capítulo VI do Regulamento (UE) 2019/1020 deverá aplicar-se mutatis mutandis.
(161)
Je nezbytné vyjasnit povinnosti a pravomoci na úrovni Unie a na vnitrostátní úrovni, pokud jde o systémy AI, které jsou založeny na obecných modelech AI. Aby se zabránilo překrývání pravomocí, pokud je systém AI založen na obecném modelu AI a daný model a systém poskytuje tentýž poskytovatel, měl by dohled probíhat na úrovni Unie prostřednictvím úřadu pro AI, který by za tímto účelem měl mít pravomoci orgánu dozoru nad trhem ve smyslu nařízení (EU) 2019/1020. Ve všech ostatních případech zůstávají za dohled nad systémy AI odpovědné vnitrostátní orgány dozoru nad trhem. V případě obecných systémů AI, které mohou zavádějící subjekty přímo používat alespoň k jednomu účelu, který je klasifikován jako vysoce rizikový, by však orgány dozoru nad trhem měly spolupracovat s úřadem pro AI na provádění hodnocení souladu a odpovídajícím způsobem informovat radu a další orgány dozoru nad trhem. Kromě toho by orgány dozoru nad trhem měly mít možnost požádat úřad pro AI o pomoc v případech, kdy určitý orgán dozoru nad trhem není schopen dokončit šetření týkající se konkrétního vysoce rizikového systému AI, protože nemá možnost získat přístup k určitým informacím týkajícím se obecného modelu AI, na němž je daný vysoce rizikový systém AI postaven. V takových případech by se měl obdobně použít postup týkající se vzájemné pomoci v přeshraničních případech podle kapitoly VI nařízení (EU) 2019/1020.
(162)
A fim de utilizar da melhor forma os conhecimentos especializados centralizados da União e as sinergias a nível da União, os poderes de supervisão e execução das obrigações dos prestadores de modelos de IA de finalidade geral deverão ser da competência da Comissão. O Serviço para a IA deverá poder realizar todas as ações necessárias para acompanhar a execução efetiva do presente regulamento no que diz respeito aos modelos de IA de finalidade geral. Deverá poder investigar eventuais infrações às regras aplicáveis aos prestadores de modelos de IA de finalidade geral, tanto por sua própria iniciativa, na sequência dos resultados das suas atividades de acompanhamento, como a pedido das autoridades de fiscalização do mercado, em conformidade com as condições estabelecidas no presente regulamento. A fim de apoiar um acompanhamento eficaz do Serviço para a IA, este deverá prever a possibilidade de os prestadores a jusante apresentarem queixas sobre possíveis infrações às regras aplicáveis aos prestadores de modelos e sistemas de IA de finalidade geral.
(162)
V zájmu co nejlepšího využití centralizovaných odborných znalostí a synergií Unie na úrovni Unie by pravomoci dohledu nad povinnostmi poskytovatelů obecných modelů AI a jejich vymáhání měly být v pravomoci Komise. Úřad pro AI by měl mít možnost provádět veškerá nezbytná opatření ke sledování účinného provádění tohoto nařízení, pokud jde o obecné modely AI. Měl by mít možnost vyšetřovat případná porušení pravidel pro poskytovatele obecných modelů AI, a to jak z vlastního podnětu, tak na základě výsledků svých monitorovacích činností nebo na žádost orgánů dozoru nad trhem v souladu s podmínkami stanovenými v tomto nařízení. V zájmu podpory účinného sledování ze strany úřadu pro AI by měl tento úřad stanovit možnost, aby navazující poskytovatelé podávali stížnosti na možná porušení pravidel týkajících se poskytovatelů obecných modelů a systémů AI.
(163)
Com vista a complementar os sistemas de governação aplicáveis a modelos de IA de finalidade geral, o painel científico deverá apoiar as atividades de acompanhamento do Serviço para a IA e pode, em certos casos, emitir alertas qualificados ao Serviço para a IA que desencadeiem seguimentos, como investigações. Tal deverá ser o caso se o painel científico tiver razões para suspeitar que um modelo de IA de finalidade geral representa um risco concreto e identificável a nível da União. Além disso, deverá ser esse o caso se o painel científico tiver motivos para suspeitar que um modelo de IA de finalidade geral cumpre os critérios que conduziriam a uma classificação como modelo de IA de finalidade geral com risco sistémico. A fim de dotar o painel científico das informações necessárias para o desempenho dessas funções, deverá existir um mecanismo através do qual o painel científico possa solicitar à Comissão que exija documentação ou informações a um prestador.
(163)
S cílem doplnit systémy správy pro obecné modely AI by vědecká komise měla podporovat monitorovací činnosti úřadu pro AI a v některých případech může úřadu pro AI poskytovat kvalifikované výstrahy, které povedou k následným opatřením, jako jsou šetření. Tak by tomu mělo být v případě, kdy má vědecká komise důvod se domnívat, že obecný model AI představuje konkrétní a identifikovatelné riziko na úrovni Unie. Dále by tomu tak mělo být v případě, kdy má vědecká komise důvod se domnívat, že obecný model AI splňuje kritéria, která by vedla ke klasifikaci modelu AI jako obecného modelu AI se systémovým rizikem. Aby vědecká komise měla k dispozici informace nezbytné pro plnění těchto úkolů, měl by existovat mechanismus, na jehož základě může vědecká komise požádat Komisi, aby si vyžádala dokumentaci nebo informace od poskytovatele.
(164)
O Serviço para a IA deverá poder tomar as medidas necessárias para fiscalizar a execução efetiva e o cumprimento das obrigações dos prestadores de modelos de IA de finalidade geral estabelecidas no presente regulamento. O Serviço para a IA deverá poder investigar eventuais infrações em conformidade com os poderes previstos no presente regulamento, nomeadamente solicitando documentação e informações, realizando avaliações, bem como solicitando medidas aos prestadores de modelos de IA de finalidade geral. Na realização das avaliações, a fim de recorrer a conhecimentos especializados independentes, o Serviço para a IA deverá poder envolver peritos independentes para realizar as avaliações em seu nome. O cumprimento das obrigações deverá ser executório, nomeadamente através de pedidos de adoção de medidas adequadas, incluindo medidas de redução dos riscos em caso de riscos sistémicos identificados, bem como através da restrição da disponibilização no mercado, da retirada ou da recolha do modelo. A título de salvaguarda, sempre que seja necessário para além dos direitos processuais previstos no presente regulamento, os prestadores de modelos de IA de finalidade geral deverão gozar dos direitos processuais previstos no artigo 18.o do Regulamento (UE) 2019/1020, que deverão ser aplicáveis mutatis mutandis, sem prejuízo de direitos processuais mais específicos previstos no presente regulamento.
(164)
Úřad pro AI by měl mít možnost přijímat nezbytná opatření ke sledování účinného provádění a dodržování povinností poskytovatelů obecných modelů AI stanovených v tomto nařízení. Úřad pro AI by měl mít možnost vyšetřovat případná porušení v souladu s pravomocemi stanovenými v tomto nařízení, mimo jiné si vyžádat dokumentaci a informace, provádět hodnocení a vyžádat si opatření od poskytovatelů obecných modelů AI. Při provádění hodnocení a za účelem využití nezávislých odborných znalostí by měl mít úřad pro AI možnost zapojit nezávislé odborníky, aby prováděli hodnocení jeho jménem. Dodržování povinností by mělo být vymahatelné mimo jiné prostřednictvím žádostí o přijetí vhodných opatření, včetně opatření ke zmírnění rizik v případě zjištěných systémových rizik, jakož i prostřednictvím omezení dodávání daného modelu na trh nebo jeho stažení z trhu či z oběhu. Měla by existovat záruka spočívající v tom, že by poskytovatelé obecných modelů AI disponovali, v případě potřeby nad rámec procesních práv stanovených v tomto nařízení, procesními právy stanovenými v článku 18 nařízení (EU) 2019/1020, která by se měla použít obdobně, aniž jsou dotčena konkrétnější procesní práva stanovená tímto nařízením.
(165)
O desenvolvimento de outros sistemas de IA, que não sejam sistemas de IA de risco elevado de acordo com os requisitos do presente regulamento pode conduzir a uma maior utilização de IA ética e de confiança na União. Os prestadores de sistemas de IA que não sejam de risco elevado deverão ser incentivados a criar códigos de conduta, incluindo mecanismos de governação conexos, destinados a promover a aplicação voluntária de alguns ou de todos os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado, adaptados à finalidade prevista dos sistemas e ao menor risco envolvido e tendo em conta as soluções técnicas disponíveis e as boas práticas da indústria, como modelos e cartões de dados. Os prestadores e, se for caso disso, os responsáveis pela implantação de todos os sistemas de IA, de risco elevado ou não, e dos modelos de IA deverão também ser incentivados a aplicar, numa base voluntária, requisitos adicionais relacionados, por exemplo, com os elementos das Orientações Éticas da União para uma IA de Confiança, a sustentabilidade ambiental, as medidas de literacia no domínio da IA, a conceção e o desenvolvimento inclusivos e diversificados de sistemas de IA, incluindo a atenção às pessoas vulneráveis e a acessibilidade das pessoas com deficiência, a participação das partes interessadas com a participação, conforme adequado, das partes interessadas pertinentes, como as organizações empresariais e da sociedade civil, o meio académico, as organizações de investigação, os sindicatos e as organizações de defesa dos consumidores na conceção e desenvolvimento de sistemas de IA, e a diversidade das equipas de desenvolvimento, incluindo o equilíbrio entre homens e mulheres. A fim de assegurar que sejam eficazes, os códigos de conduta voluntários deverão basear-se em objetivos claros e em indicadores-chave de desempenho para medir a consecução desses objetivos. Deverão também ser desenvolvidos de forma inclusiva, conforme adequado, com a participação das partes interessadas pertinentes, como as organizações empresariais e da sociedade civil, o meio académico, as organizações de investigação, os sindicatos e as organizações de defesa dos consumidores. A Comissão pode desenvolver iniciativas, nomeadamente de natureza setorial, para facilitar a redução de obstáculos técnicos que impeçam o intercâmbio transfronteiriço de dados para o desenvolvimento da IA, inclusive em matéria de infraestruturas de acesso aos dados e de interoperabilidade semântica e técnica dos diferentes tipos de dados.
(165)
Vývoj systémů AI s výjimkou vysoce rizikových systémů AI v souladu s požadavky tohoto nařízení může vést k rozsáhlejšímu zavádění etické a důvěryhodné AI v Unii. Poskytovatelé systémů AI, které nejsou vysoce rizikové, by měli být vybízeni k vytváření kodexů chování, včetně souvisejících mechanismů správy, určených k podpoře dobrovolného uplatňování některých nebo veškerých povinných požadavků platných pro vysoce rizikové systémy AI, přizpůsobených zamýšlenému účelu systémů a nižšímu souvisejícímu riziku a s přihlédnutím k dostupným technickým řešením a osvědčeným postupům v odvětví, jako jsou modely a datové karty. Poskytovatelé a případně subjekty zavádějící veškeré vysoce rizikové či nerizikové systémy AI a modely AI by také měli být povzbuzováni k tomu, aby dobrovolně uplatňovali další požadavky týkající se například prvků etických pokynů Unie pro zajištění důvěryhodnosti AI, udržitelnosti životního prostředí, opatření týkajících se gramotnosti v oblasti AI, inkluzivního a rozmanitého návrhu a vývoje systémů AI, včetně pozornosti věnované zranitelným osobám a přístupnosti pro osoby se zdravotním postižením, účasti zúčastněných stran, případně se zapojením příslušných zúčastněných stran, jako jsou podniky a organizace občanské společnosti, akademická obec, výzkumné organizace, odbory a organizace na ochranu spotřebitelů do návrhu a vývoje systémů AI a rozmanitosti vývojových týmů, včetně genderové vyváženosti. Aby se zajistila účinnost dobrovolných kodexů chování, měly by být založeny na jasných cílech a klíčových ukazatelích výkonnosti pro měření plnění těchto cílů. Měly by být rovněž vypracovány inkluzivním způsobem případně se zapojením příslušných zúčastněných stran, jako jsou podniky a organizace občanské společnosti, akademická obec, výzkumné organizace, odbory a organizace na ochranu spotřebitelů. Komise může vyvíjet iniciativy, včetně iniciativ odvětvové povahy, s cílem usnadnit snižování technických překážek bránících přeshraniční výměně dat pro účely rozvoje AI, a to i ohledně infrastruktury pro přístup k datům a sémantické a technické interoperability různých druhů dat.
(166)
Não obstante, é importante que os sistemas de IA relacionados com produtos que não são de risco elevado, nos termos do presente regulamento e que, como tal, não são obrigados a cumprir os requisitos aplicáveis a sistemas de IA de risco elevado, sejam seguros quando são colocados no mercado ou colocados em serviço. A fim de contribuir para alcançar esse objetivo, o Regulamento (UE) 2023/988 do Parlamento Europeu e do Conselho (53) deverá ser aplicado como uma rede de segurança.
(166)
Je důležité, aby systémy AI související s produkty, které podle tohoto nařízení nejsou vysoce rizikové, a proto nemusí splňovat požadavky, které jsou stanoveny pro vysoce rizikové systémy AI, byly při uvedení na trh nebo do provozu přesto bezpečné. Jako záchranná síť pro přispění k tomuto cíli by se uplatnila nařízení Evropského parlamentu a Rady (EU) 2023/988 (53).
(167)
Para assegurar uma cooperação de confiança e construtiva entre as autoridades competentes a nível da União e nacional, todas as partes envolvidas na aplicação do presente regulamento deverão respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções, em conformidade com o direito da União ou o direito nacional. Deverão desempenhar as suas funções e atividades de modo a proteger, em especial, os direitos de propriedade intelectual, as informações comerciais de caráter confidencial e os segredos comerciais, a execução efetiva do presente regulamento, os interesses públicos e nacionais em matéria de segurança, a integridade dos processos penais e administrativos e a integridade das informações classificadas.
(167)
V zájmu zajištění důvěryhodné a konstruktivní spolupráce příslušných orgánů na úrovni Unie a na vnitrostátní úrovni by měly všechny strany zapojené do uplatňování tohoto nařízení respektovat důvěrnost informací a údajů získaných při plnění svých úkolů, v souladu s unijním a vnitrostátním právem. Své úkoly a činnosti by měly vykonávat tak, aby chránily zejména práva duševního vlastnictví, důvěrné obchodní informace a obchodní tajemství, účinné provádění tohoto nařízení, veřejné a národní bezpečnostní zájmy, integritu trestního a správního řízení a integritu utajovaných informací.
(168)
O cumprimento do presente regulamento deverá ter força executória através da imposição de sanções e de outras medidas de execução. Os Estados-Membros deverão tomar todas as medidas necessárias para assegurar a aplicação das disposições do presente regulamento, inclusive estabelecendo sanções efetivas, proporcionadas e dissuasivas aplicáveis em caso de violação dessas disposições, e a respeito do princípio ne bis in idem. A fim de reforçar e harmonizar as sanções administrativas em caso de infração ao presente regulamento, deverão ser estabelecidos os limites máximos para a fixação de coimas para determinadas infrações específicas. Ao avaliar o montante das coimas, os Estados-Membros deverão, em cada caso individual, ter em conta todas as circunstâncias relevantes da situação específica, prestando a devida atenção à natureza, à gravidade e à duração da infração e às suas consequências, bem como à dimensão do prestador, em particular se o prestador for uma PME, incluindo uma empresa em fase de arranque. A Autoridade Europeia para a Proteção de Dados deverá ter competências para impor coimas às instituições, órgãos e organismos da União que se enquadram no âmbito do presente regulamento.
(168)
Dodržování tohoto nařízení by mělo být vymahatelné ukládáním sankcí a jiných donucovacích opatření. Členské státy by měly přijmout veškerá nezbytná opatření k zajištění toho, aby byla ustanovení tohoto nařízení prováděna, a to i stanovením účinných, přiměřených a odrazujících sankcí za jejich porušení a dodržováním zásady ne bis in idem. Za účelem posílení a harmonizace správních sankcí za porušení tohoto nařízení by měly být stanoveny horní hranice pro stanovení správních pokut za určitá konkrétní porušení. Při posuzování výše pokut by členské státy měly v každém jednotlivém případě zohlednit všechny relevantní okolnosti konkrétní situace, s náležitým ohledem zejména na povahu, závažnost a dobu trvání protiprávního jednání a jeho důsledků a na velikost poskytovatele, zejména pokud je poskytovatelem malý nebo střední podnik nebo začínající podnik. Evropský inspektor ochrany údajů by měl být oprávněn ukládat pokuty orgánům, institucím a subjektům Unie spadajícím do oblasti působnosti tohoto nařízení.
(169)
O cumprimento das obrigações impostas aos prestadores de modelos de IA de finalidade geral nos termos do presente regulamento deverá ter força executória, nomeadamente, através de coimas. Para o efeito, deverão também ser estabelecidos níveis adequados de coimas em caso de infração dessas obrigações, incluindo o incumprimento das medidas solicitadas pela Comissão nos termos do presente regulamento, sob reserva de prazos de prescrição adequados, de acordo com o princípio da proporcionalidade. Todas as decisões tomadas pela Comissão ao abrigo do presente regulamento estão sujeitas a fiscalização pelo Tribunal de Justiça da União Europeia nos termos do TFUE, incluindo a plena jurisdição do Tribunal de Justiça da União Europeia no que diz respeito às sanções nos termos do artigo 261.o do TFUE.
(169)
Dodržování povinností uložených poskytovatelům obecných modelů AI podle tohoto nařízení by mělo být vymahatelné mimo jiné prostřednictvím pokut. Za tímto účelem by měly být rovněž stanoveny přiměřené úrovně pokut za porušení těchto povinností, včetně nedodržení opatření požadovaných Komisí v souladu s tímto nařízením, s výhradou přiměřených promlčecích lhůt v souladu se zásadou proporcionality. Všechna rozhodnutí přijatá Komisí podle tohoto nařízení podléhají v souladu se Smlouvou o fungování EU přezkumu Soudním dvorem Evropské unie, včetně neomezené jurisdikce Soudního dvora Evropské unie ve vztahu k sankcím podle článku 261 Smlouvy o fungování EU.
(170)
O direito da União e o direito nacional já preveem vias de recurso eficazes para as pessoas singulares e coletivas cujos direitos e liberdades sejam afetados negativamente pela utilização de sistemas de IA. Sem prejuízo dessas vias, qualquer pessoa singular ou coletiva que tenha motivos para considerar que houve uma infração do presente regulamento deverá ter o direito de apresentar uma queixa à autoridade de fiscalização do mercado competente.
(170)
Unijní a vnitrostátní právo již poskytují účinné prostředky ochrany fyzickým a právnickým osobám, jejichž práva a svobody jsou používáním systémů AI nepříznivě ovlivněny. Aniž jsou tyto prostředky ochrany dotčeny, měla by být každá fyzická nebo právnická osoba, která má důvod se domnívat, že došlo k porušení tohoto nařízení, oprávněna podat stížnost příslušnému orgánu dozoru nad trhem.
(171)
As pessoas afetadas deverão ter o direito de obter explicações quando uma decisão do responsável pela implantação tenha por base principalmente os resultados de determinados sistemas de IA de risco elevado abrangidos pelo âmbito de aplicação do presente regulamento, e quando essa decisão produzir efeitos jurídicos ou analogamente afetar num grau significativo essas pessoas, de uma forma que considerem ter repercussões negativas na sua saúde, segurança ou direitos fundamentais. Essas explicações deverão ser claras e pertinentes e constituir uma base sobre a qual as pessoas afetadas possam exercer os seus direitos. O direito à obtenção de explicações não deverá aplicar-se à utilização de sistemas de IA para os quais decorram do direito da União ou do direito nacional exceções ou restrições e deverá aplicar-se apenas na medida em que não esteja já previsto no direito da União.
(171)
Dotčené osoby by měly mít právo obdržet vysvětlení, pokud je rozhodnutí zavádějícího subjektu založeno především na výstupech z určitých vysoce rizikových systémů AI, které spadají do oblasti působnosti tohoto nařízení, a pokud toto rozhodnutí má právní účinky nebo se jich podobně významně dotýká způsobem, který podle jejich názoru má nepříznivý dopad na jejich zdraví, bezpečnost nebo základní práva. Toto vysvětlení by mělo být jasné a smysluplné a mělo by poskytnout základ, na němž mohou dotčené osoby vykonávat svá práva. Právo na vysvětlení by se nemělo vztahovat na používání systémů AI, pro něž vyplývají výjimky nebo omezení z unijního nebo vnitrostátního práva, a mělo by se uplatňovat pouze v rozsahu, v jakém toto právo není již stanoveno právem Unie.
(172)
As pessoas que atuam como denunciantes de infrações ao presente regulamento deverão ser protegidas ao abrigo do direito da União. A Diretiva (UE) 2019/1937 do Parlamento Europeu e do Conselho (54) deverá, por conseguinte, aplicar-se à denúncia de infrações ao presente regulamento e à proteção das pessoas que denunciam essas infrações.
(172)
Osoby jednající jako oznamovatelé porušení tohoto nařízení by měly být chráněny právem Unie. Oznamování porušení tohoto nařízení a ochrana osob oznamujících taková porušení by se proto mělo řídit směrnicí Evropského parlamentu a Rady (EU) 2019/1937 (54).
(173)
A fim de assegurar que o regime regulamentar possa ser adaptado sempre que necessário, o poder de adotar atos nos termos do artigo 290.o do TFUE deverá ser delegado na Comissão para que possa alterar as condições nas quais um sistema de IA não é para ser considerado de risco elevado, a lista dos sistemas de IA de risco elevado, as disposições relativas à documentação técnica, o conteúdo da declaração UE de conformidade, as disposições relativas aos procedimentos de avaliação da conformidade, as disposições que estabelecem os sistemas de IA de risco elevado aos quais se deverá aplicar o procedimento de avaliação da conformidade baseado na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica, o limiar e os parâmetros de referência e os indicadores, inclusive complementando esses parâmetros de referência e indicadores, nas regras para a classificação de modelos de IA de finalidade geral com risco sistémico, os critérios para a designação de modelos de IA de finalidade geral com risco sistémico, a documentação técnica para os prestadores de modelos de IA de finalidade geral e informações em matéria de transparência para os prestadores de modelos de IA de finalidade geral. É particularmente importante que a Comissão proceda às consultas adequadas durante os trabalhos preparatórios, inclusive ao nível de peritos, e que essas consultas sejam conduzidas de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor (55). Em particular, a fim de assegurar a igualdade de participação na preparação dos atos delegados, o Parlamento Europeu e o Conselho recebem todos os documentos ao mesmo tempo que os peritos dos Estados—Membros e os respetivos peritos têm sistematicamente acesso às reuniões dos grupos de peritos da Comissão que tratem da preparação dos atos delegados.
(173)
Aby bylo zajištěno, že v případě potřeby bude možné regulační rámec upravit, by měla být na Komisi přenesena pravomoc přijímat akty v souladu s článkem 290 Smlouvy o fungování EU, pokud jde o změnu podmínek, za nichž systém AI nemá být nepovažován za vysoce rizikový, seznamu vysoce rizikových systémů AI, ustanovení týkajících se technické dokumentace, obsahu EU prohlášení o shodě, ustanovení týkajících se postupů posuzování shody a ustanovení zavádějících vysoce rizikové systémy AI, na které by se měl vztahovat postup posuzování shody založený na posouzení systému řízení kvality a posouzení technické dokumentace, prahových hodnot, referenčních hodnot a ukazatelů, mimo jiné doplněním těchto referenčních hodnot a ukazatelů, pravidel pro klasifikaci obecných modelů AI se systémovým rizikem, kritérií pro určení obecných modelů AI se systémovým rizikem, technické dokumentace pro poskytovatele obecných modelů AI a informací o transparentnosti pro poskytovatele obecných modelů AI. Je obzvláště důležité, aby Komise vedla v rámci přípravné činnosti odpovídající konzultace, a to i na odborné úrovni, a aby tyto konzultace probíhaly v souladu se zásadami stanovenými v interinstitucionální dohodě ze dne 13. dubna 2016 o zdokonalení tvorby právních předpisů (55). Pro zajištění rovné účasti na vypracovávání aktů v přenesené pravomoci obdrží Evropský parlament a Rada veškeré dokumenty současně s odborníky z členských států a jejich odborníci mají automaticky přístup na setkání skupin odborníků Komise, jež se přípravě aktů v přenesené pravomoci věnují.
(174)
Tendo em conta a rápida evolução tecnológica e os conhecimentos técnicos necessários para a aplicação efetiva do presente regulamento, a Comissão deverá avaliar e rever o presente regulamento até 2 de agosto de 2029 e, posteriormente, de quatro em quatro anos, e apresentar um relatório ao Parlamento Europeu e ao Conselho. Além disso, tendo em conta as implicações para o âmbito de aplicação do presente regulamento, uma vez por ano a Comissão deverá efetuar uma avaliação da necessidade de alterar a lista de sistemas de IA de risco elevado e a lista de práticas proibidas. Além disso, até 2 de agosto de 2028 e, posteriormente, de quatro em quatro anos, a Comissão deverá avaliar e apresentar um relatório ao Parlamento Europeu e ao Conselho sobre a necessidade de alterar os a lista de domínios de risco elevado do anexo do presente regulamento, os sistemas de IA abrangidos pelas obrigações de transparência, a eficácia do sistema de supervisão e governação e os progressos realizados no desenvolvimento de produtos de normalização sobre o desenvolvimento eficiente do ponto de vista energético de modelos de IA de finalidade geral, incluindo a necessidade de medidas ou ações adicionais. Por fim, até 2 de agosto de 2028 e, posteriormente, de três em três anos, a Comissão deverá avaliar o impacto e a eficácia dos códigos de conduta voluntários, a fim de fomentar a aplicação dos requisitos estabelecidos para sistemas de IA de risco elevado a sistemas de IA que não sejam de risco elevado e, possivelmente, de outros requisitos adicionais para esses sistemas de IA.
(174)
Vzhledem k rychlému technologickému vývoji a technickým odborným znalostem potřebným pro účinné uplatňování tohoto nařízení by Komise měla toto nařízení vyhodnotit a přezkoumat do 2. srpna 2029 a poté každé čtyři roky a podat zprávu Evropskému parlamentu a Radě. Dále by Komise měla s ohledem na důsledky pro oblast působnosti tohoto nařízení jednou ročně provést posouzení potřeby změnit seznam vysoce rizikových systémů AI a seznam zakázaných postupů. Kromě toho by Komise měla do 2. srpna 2028 a poté každé čtyři roky vyhodnotit potřebu změnit seznam nadpisů vysoce rizikových oblastí v příloze tohoto nařízení, systémy AI spadající do oblasti působnosti povinností v oblasti transparentnosti, účinnost systému dohledu a správy a pokrok ve vývoji produktů normalizace pro energeticky účinný vývoj obecných modelů AI, včetně potřeby dalších opatření nebo kroků, a podat o nich zprávu Evropskému parlamentu a Radě. Do 2. srpna 2028 a poté každé tři roky by Komise měla zhodnotit dopad a účinnost dobrovolných kodexů chování, které mají podpořit uplatňování požadavků stanovených pro vysoce rizikové systémy AI v případě jiných než vysoce rizikových systémů AI a případně dalších požadavků na takovéto systémy AI.
(175)
A fim de assegurar condições uniformes para a execução do presente regulamento, deverão ser atribuídas competências de execução à Comissão. Essas competências deverão ser exercidas nos termos do Regulamento (UE) n.o 182/2011 do Parlamento Europeu e do Conselho (56).
(175)
Za účelem zajištění jednotných podmínek k provedení tohoto nařízení by měly být Komisi svěřeny prováděcí pravomoci. Tyto pravomoci by měly být vykonávány v souladu s nařízením Evropského parlamentu a Rady (EU) č. 182/2011 (56).
(176)
Atendendo a que o objetivo do presente regulamento, a saber, melhorar o funcionamento do mercado interno e promover a adoção de uma IA centrada no ser humano e de confiança, assegurando simultaneamente um elevado nível de proteção da saúde, da segurança e dos direitos fundamentais consagrados na Carta, incluindo a democracia, o Estado de direito e a proteção do ambiente contra os efeitos nocivos dos sistemas de IA na União e apoiando a inovação, não pode ser suficientemente alcançado pelos Estados-Membros mas pode, devido à dimensão ou aos efeitos da ação, ser mais bem alcançado ao nível da União, a União pode tomar medidas em conformidade com o princípio da subsidiariedade consagrado no artigo 5.o do TUE. Em conformidade com o princípio da proporcionalidade consagrado no mesmo artigo, o presente regulamento não excede o necessário para alcançar esse objetivo.
(176)
Jelikož cíle tohoto nařízení, totiž zlepšit fungování vnitřního trhu a podpořit zavádění důvěryhodné AI zaměřené na člověka při současném zajištění vysoké úrovně ochrany zdraví, bezpečnosti a základních práv zakotvených v Listině, včetně demokracie, právního státu a ochrany životního prostředí před škodlivými účinky systémů AI v Unii a podpory inovací, nemůže být uspokojivě dosaženo na úrovni členských států, avšak z důvodu rozsahu nebo účinků jich může být lépe dosaženo na úrovni Unie, může Unie přijmout opatření v souladu se zásadou subsidiarity stanovenou v článku 5 Smlouvy o EU. V souladu se zásadou proporcionality stanovenou v uvedeném článku nepřekračuje toto nařízení rámec toho, co je nezbytné pro dosažení tohoto cíle.
(177)
A fim de garantir a segurança jurídica, assegurar um período de adaptação adequado para os operadores e evitar perturbações do mercado, nomeadamente assegurando a continuidade da utilização dos sistemas de IA, é conveniente que o presente regulamento só seja aplicável aos sistemas de IA de risco elevado que tenham sido colocados no mercado ou colocados em serviço antes da data geral de aplicação do mesmo, se, a partir dessa data, esses sistemas sofrerem alterações significativas na sua conceção ou finalidade prevista. É conveniente clarificar que, a este respeito, o conceito de alteração significativa deverá ser entendido como equivalente, em substância, ao conceito de modificação substancial, que é utilizado apenas no que diz respeito aos sistemas de IA de risco elevado, nos termos do presente regulamento. A título excecional e à luz da responsabilização pública, os operadores de sistemas de IA que são componentes dos sistemas informáticos de grande escala estabelecidos pelos atos jurídicos enumerados num anexo do presente regulamento e os operadores de sistemas de IA de risco elevado concebidos para serem utilizados por autoridades públicas deverão, respetivamente, tomar as medidas necessárias para cumprir os requisitos do presente regulamento até ao final de 2030 e até 2 de agosto de 2030.
(177)
V zájmu zabezpečení právní jistoty, zajištění vhodného adaptačního období pro provozovatele a zabránění narušení trhu, mimo jiné zajištěním kontinuity používání systémů AI, je vhodné, aby se toto nařízení vztahovalo na vysoce rizikové systémy AI, které byly uvedeny na trh nebo do provozu před obecným datem jeho použitelnosti, pouze pokud od uvedeného data dojde k významným změnám jejich návrhu nebo zamýšleného účelu. Je vhodné vyjasnit, že v tomto ohledu by pojem „významná změna“ měl být v podstatě chápán jako rovnocenný pojmu „podstatná změna“, který se používá pouze ve vztahu k vysoce rizikovým systémům AI podle tohoto tomto nařízení. Ve výjimečných případech a s ohledem na veřejnou odpovědnost by provozovatelé systémů AI, které jsou součástí rozsáhlých informačních systémů zřízených právními akty uvedenými v příloze tohoto nařízení, a provozovatelé vysoce rizikových systémů AI, které jsou určeny k použití orgány veřejné moci, měli přijmout nezbytná opatření ke splnění požadavků tohoto nařízení do konce roku 2030 a do 2. srpna 2030.
(178)
Os prestadores de sistemas de IA de risco elevado são incentivados a começar a cumprir, numa base voluntária, as obrigações pertinentes previstas no presente regulamento já durante o período de transição.
(178)
Poskytovatelé vysoce rizikových systémů AI se vyzývají, aby začali dobrovolně plnit příslušné povinnosti vyplývající z tohoto nařízení již během přechodného období.
(179)
O presente regulamento é aplicável a partir de 2 de agosto de 2026. No entanto, tendo em conta o risco inaceitável associado à utilização da IA de determinadas formas, as proibições bem como as disposições gerais do presente regulamento deverão aplicar-se já a partir de 2 de fevereiro de 2025. Embora o pleno efeito dessas proibições decorra do estabelecimento da governação e da execução do presente regulamento, a antecipação da aplicação das proibições é importante para ter em conta riscos inaceitáveis e para ter efeitos noutros procedimentos, como no direito civil. Além disso, as estruturas relacionadas com a governação e o sistema de avaliação da conformidade deverão estar operacionais antes de 2 de agosto de 2026, pelo que as disposições relativas aos organismos notificados e à estrutura de governação deverão aplicar-se a partir de 2 de agosto de 2025. Tendo em conta o ritmo acelerado da evolução tecnológica e da adoção de modelos de IA de finalidade geral, as obrigações dos prestadores de modelos de IA de finalidade geral deverão aplicar-se a partir de 2 de agosto de 2025. Códigos de práticas deverão estar prontos até 2 de maio de 2025, com vista a permitir que os prestadores demonstrem o cumprimento atempadamente. O Serviço para a IA deverá assegurar que as regras e procedimentos de classificação estejam atualizados à luz da evolução tecnológica. Além disso, os Estados-Membros deverão estabelecer as regras em matéria de sanções, incluindo coimas, e notificá-las à Comissão, bem como assegurar a sua aplicação de forma efetiva e adequada à data de aplicação do presente regulamento. Como tal, as disposições relativas às sanções deverão aplicar-se a partir de 2 de agosto de 2025.
(179)
Toto nařízení by se mělo použít ode dne 2. srpna 2026. S ohledem na nepřijatelné riziko spojené s používáním AI určitými způsoby by se však zákazy, stejně jako obecná ustanovení tohoto nařízení, měly použít již od 2. února 2025. Ačkoli plný účinek těchto zákazů následuje po zavedení správy a prosazování tohoto nařízení, je důležité předvídat uplatňování zákazů, aby se zohlednila nepřijatelná rizika a aby se ovlivnily další postupy, například v občanském právu. Infrastruktura související se správou a se systémem posuzování shody by navíc měla být funkční již před 2. srpnem 2026, a proto by se ustanovení o oznámených subjektech a o struktuře řízení měla použít ode dne 2. srpna 2025. Vzhledem k rychlému tempu technologického pokroku a přijímání obecných modelů AI by povinnosti poskytovatelů obecných modelů AI měly platit od 2. srpna 2025. Kodexy správné praxe by měly být připraveny do 2. května 2025, aby poskytovatelé mohli včas prokázat soulad. Úřad pro AI by měl zajistit, aby klasifikační pravidla a postupy byly aktuální s ohledem na technologický vývoj. Kromě toho by členské státy měly stanovit pravidla ukládání sankcí, včetně správních pokut, a oznámit je Komisi a zajistit, aby byla řádně a účinně provedena do data použitelnosti tohoto nařízení. Ustanovení o sankcích se proto použijí ode dne 2. srpna 2025.
(180)
A Autoridade Europeia para a Proteção de Dados e o Comité Europeu para a Proteção de Dados foram consultados nos termos do artigo 42.o, n.os 1 e 2, do Regulamento (UE) 2018/1725, e emitiram parecer em 18 de junho de 2021,
(180)
Evropský inspektor ochrany údajů a Evropský sbor pro ochranu údajů byli konzultováni v souladu s čl. 42 odst. 1 a 2 nařízení (EU) 2018/1725 a dne 18. června 2021 vydali své společné stanovisko,
ADOTARAM O PRESENTE REGULAMENTO:
1. O presente regulamento é aplicável a:
1. Toto nařízení se vztahuje na:
a)
Prestadores que coloquem no mercado ou coloquem em serviço sistemas de IA ou que coloquem no mercado modelos de IA de finalidade geral no território da União, independentemente de estarem estabelecidos ou localizados na União ou num país terceiro;
a)
poskytovatele, kteří v Unii uvádějí na trh nebo do provozu systémy AI nebo uvádějí na trh obecné modely AI bez ohledu na to, zda jsou tito poskytovatelé usazeni nebo se nacházejí v Unii či ve třetí zemi;
b)
Responsáveis pela implantação de sistemas de IA que tenham o seu local de estabelecimento ou que estejam localizados na União;
b)
subjekty, které zavádějí systémy AI a jsou usazeny nebo se nacházejí v Unii;
c)
Prestadores e responsáveis pela implantação de sistemas de IA que tenham o seu local de estabelecimento ou estejam localizados num país terceiro, se o resultado produzido pelo sistema de IA for utilizado na União;
c)
poskytovatele a subjekty, které zavádějí systémy AI, kteří jsou usazeni nebo se nacházejí ve třetí zemi, pokud se výstup systému AI používá v Unii;
d)
Importadores e distribuidores de sistemas de IA;
d)
dovozce a distributory systémů AI;
e)
Fabricantes de produtos que coloquem no mercado ou coloquem em serviço um sistema de IA juntamente com o seu produto e sob o seu próprio nome ou a sua própria marca;
e)
výrobce produktů, kteří uvádějí na trh nebo do provozu systém AI společně se svým produktem a pod svým jménem, názvem nebo ochrannou známkou;
f)
Mandatários dos prestadores que não estejam estabelecidos na União;
f)
zplnomocněné zástupce poskytovatelů, kteří nejsou usazeni v Unii;
g)
Pessoas afetadas localizadas na União.
g)
dotčené osoby, které se nacházejí v Unii.
2. Aos sistemas de IA classificados como sistemas de IA de risco elevado em conformidade com o artigo 6.o, n.o 1, relacionados com os produtos abrangidos pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção B, apenas é aplicável o artigo 6.o, n.o 1, os artigos 102.o a 109.o e o artigo 112.o. O artigo 57.o só é aplicável na medida em que os requisitos aplicáveis aos sistemas de IA de risco elevado previstos no presente regulamento tenham sido integrados na referida legislação de harmonização da União.
2. Pro systémy AI klasifikované jako vysoce rizikové systémy AI v souladu s čl. 6 odst. 1, které souvisejí s produkty, na něž se vztahují harmonizační právní předpisy Unie uvedené v příloze I oddíle B, se použijí pouze čl. 6 odst. 1, články 102 až109 a článek 112tohoto nařízení. Článek 57 se použije pouze v případě, že požadavky na vysoce rizikové systémy AI podle tohoto nařízení byly začleněny do uvedených harmonizačních právních předpisů Unie.
3. O presente regulamento não se aplica a domínios não abrangidos pelo âmbito de aplicação do direito da União nem afeta, em caso algum, as competências dos Estados-Membros em matéria de segurança nacional, independentemente do tipo de entidade designada pelos Estados-Membros para desempenhar as funções relacionadas com essas competências.
3. Toto nařízení se nevztahuje na oblasti mimo oblast působnosti práva Unie a v žádném případě jím nejsou dotčeny pravomoci členských států v oblasti národní bezpečnosti, bez ohledu na typ subjektu, který členské státy pověřily plněním úkolů souvisejících s těmito pravomocemi.
O presente regulamento não se aplica aos sistemas de IA se e na medida em que tiverem sido colocados no mercado, colocados em serviço ou utilizados, com ou sem modificações, exclusivamente para finalidades militares, de defesa ou de segurança nacional, independentemente do tipo de entidade que realiza essas atividades.
Toto nařízení se nevztahuje na systémy AI pouze tehdy a do té míry, pokud jsou uváděny na trh nebo do provozu nebo jsou používány se změnami nebo bez nich výhradně pro vojenské či obranné účely nebo pro účely národní bezpečnosti, bez ohledu na typ subjektu, který tyto činnosti provádí.
O presente regulamento não se aplica aos sistemas de IA que não tenham sido colocados no mercado ou colocados em serviço na União, se os seus resultados forem utilizados na União exclusivamente para finalidades militares, de defesa ou de segurança nacional, independentemente do tipo de entidade que realiza essas atividades.
Toto nařízení se nevztahuje na systémy AI, které nejsou uváděny na trh nebo do provozu v Unii, pokud se výstup používá v Unii výhradně pro vojenské či obranné účely nebo pro účely národní bezpečnosti, bez ohledu na typ subjektu, který tyto činnosti provádí.
4. O presente regulamento não se aplica a autoridades públicas de países terceiros, nem a organizações internacionais abrangidas pelo âmbito do presente regulamento nos termos do n.o 1, quando essas autoridades ou organizações usem sistemas de IA no âmbito da cooperação internacional ou de acordos internacionais para efeitos de cooperação policial e judiciária com a União ou com um ou vários Estados-Membros, sob condição de esse país terceiro ou organização internacional apresentar salvaguardas adequadas em matéria de proteção de direitos e liberdades fundamentais das pessoas.
4. Toto nařízení se nevztahuje ani na veřejné orgány ve třetí zemi, ani na mezinárodní organizace spadající do oblasti působnosti tohoto nařízení podle odstavce 1, pokud tyto orgány nebo organizace používají systémy AI v rámci mezinárodní spolupráce či mezinárodních dohod o vymáhání práva a o justiční spolupráci s Unií nebo s jedním či více členskými státy, a to pod podmínkou, že daná třetí země nebo mezinárodní organizace poskytne přiměřené záruky, pokud jde o ochranu základních práv a svobod fyzických osob.
5. O presente regulamento não afeta a aplicação das disposições relativas à responsabilidade dos prestadores de serviços intermediários estabelecidas no capítulo II do Regulamento (UE) 2022/2065.
5. Tímto nařízením není dotčeno uplatňování ustanovení o odpovědnosti poskytovatelů zprostředkovatelských služeb uvedených v kapitole II nařízení (EU) 2022/2065.
6. O presente regulamento não se aplica a sistemas de IA ou modelos de IA, incluindo os respetivos resultados, especificamente desenvolvidos e colocados em serviço exclusivamente para fins de investigação e desenvolvimento científicos.
6. Toto nařízení se nevztahuje na systémy nebo modely AI, včetně jejich výstupů, které byly speciálně vyvinuty a uvedeny do provozu výhradně za účelem vědeckého výzkumu a vývoje.
7. O direito da União em matéria de proteção de dados pessoais, privacidade e confidencialidade das comunicações aplica-se aos dados pessoais tratados em virtude dos direitos e obrigações estabelecidos no presente regulamento. O presente regulamento não afeta o disposto nos Regulamentos (UE) 2016/679 ou (UE) 2018/1725 nem nas Diretivas 2002/58/CE ou (UE) 2016/680, sem prejuízo do disposto no artigo 10.o, n.o 5, e no artigo 59.o do presente regulamento.
7. Na osobní údaje zpracovávané v souvislosti s právy a povinnostmi stanovenými v tomto nařízení se vztahuje právo Unie o ochraně osobních údajů, soukromí a důvěrnosti sdělení. Tímto nařízením nejsou dotčena nařízení (EU) 2016/679 nebo (EU) 2018/1725 ani směrnice 2002/58/ES nebo (EU) 2016/680, aniž jsou dotčeny čl. 10 odst. 5 a článek 59 tohoto nařízení.
8. O presente regulamento não se aplica às atividades de investigação, testagem ou desenvolvimento relativas a sistemas de IA ou modelos de IA antes de serem colocados no mercado ou colocados em serviço. Tais atividades devem ser realizadas em conformidade com direito da União aplicável. A testagem em condições reais não é abrangida por essa exclusão.
8. Toto nařízení se nevztahuje na žádné činnosti výzkumu, testování či vývoje v oblasti systémů AI nebo modelů AI před jejich uvedením na trh nebo do provozu. Tyto činnosti jsou prováděny v souladu s platným právem Unie. Uvedená výjimka nezahrnuje testování v reálných podmínkách.
9. O presente regulamento não prejudica as regras estabelecidas por outros atos legislativos da União relacionados com a proteção dos consumidores e a segurança dos produtos.
9. Tímto nařízením nejsou dotčena pravidla stanovená jinými právními akty Unie, které se týkají ochrany spotřebitele a bezpečnosti výrobků.
10. O presente regulamento não se aplica às obrigações dos responsáveis pela implantação que sejam pessoas singulares que utilizam os sistemas de IA no âmbito de uma atividade puramente pessoal de caráter não profissional.
10. Toto nařízení se nevztahuje na povinnosti zavádějících subjektů, které jsou fyzickými osobami a používají systémy AI v rámci čistě osobní neprofesionální činnosti.
11. O presente regulamento não impede a União nem os Estados-Membros de manterem ou introduzirem disposições legislativas, regulamentares ou administrativas mais favoráveis para os trabalhadores em termos de proteção dos seus direitos no que diz respeito à utilização de sistemas de IA por empregadores, nem de incentivarem ou permitirem a aplicação de convenções coletivas mais favoráveis para os trabalhadores.
11. Toto nařízení nebrání Unii ani členským státům v tom, aby zachovaly nebo zavedly právní a správní předpisy, které jsou příznivější pro pracovníky, pokud jde o ochranu jejich práv v souvislosti s používáním systémů AI zaměstnavateli, nebo které podporují či umožňují uplatňování kolektivních smluv příznivějších pro pracovníky.
12. O presente regulamento não se aplica aos sistemas de IA lançados ao abrigo de licenças gratuitas e de código aberto, a menos que sejam colocados no mercado ou colocados em serviço como sistemas de IA de risco elevado ou que sejam sistemas de IA abrangidos pelo âmbito de aplicação dos artigos 5.o ou 50.o.
12. Toto nařízení se nevztahuje na systémy AI zpřístupněné na základě svobodných licencí a licencí s otevřeným zdrojovým kódem, pokud nejsou uváděny na trh nebo do provozu jako vysoce rizikové systémy AI nebo jako systém AI, na který se vztahuje článek 5 nebo 50.
Zakázané postupy v oblasti AI
1. Estão proibidas as seguintes práticas de IA:
1. Zakazují se následující postupy v oblasti AI:
a)
A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa, ou técnicas manifestamente manipuladoras ou enganadoras, com o objetivo ou o efeito de distorcer substancialmente o comportamento de uma pessoa ou de um grupo de pessoas prejudicando de forma considerável a sua capacidade de tomar uma decisão informada e levando, assim, a que tomem uma decisão que, caso contrário, não tomariam, de uma forma que cause ou seja razoavelmente suscetível de causar danos significativos a essa ou a outra pessoa, ou a um grupo de pessoas;
a)
uvádění na trh, uvádění do provozu nebo používání systémů AI, které využívají podprahových technik mimo vědomí osob nebo záměrně manipulativních či klamavých technik, jejichž cílem nebo důsledkem je podstatné narušení chování osoby nebo skupiny osob tím, že znatelně zhoršují jejich schopnost učinit informované rozhodnutí, což vede k tomu, že přijmou rozhodnutí, které by jinak neučinily, což dotčené osobě, jiné osobě nebo skupině osob způsobuje nebo by s přiměřenou pravděpodobností mohlo způsobit významnou újmu;
b)
A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore vulnerabilidades de uma pessoa singular ou de um grupo específico de pessoas devidas à sua idade, incapacidade ou situação socioeconómica específica, com o objetivo ou o efeito de distorcer substancialmente o comportamento dessa pessoa ou de uma pessoa pertencente a esse grupo de uma forma que cause ou seja razoavelmente suscetível de causar danos significativos a essa ou a outra pessoa;
b)
uvádění na trh, uvádění do provozu nebo používání systémů AI, které využívají zranitelnosti fyzické osoby nebo určité skupiny osob v důsledku jejich věku, zdravotního postižení nebo specifické sociální nebo ekonomické situace a jejichž cílem nebo důsledkem je podstatné narušení chování této osoby nebo osoby náležející k této skupině tak, že to dotčené osobě nebo jiné osobě způsobuje nebo by s přiměřenou pravděpodobností mohlo způsobit významnou újmu;
c)
A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para avaliação ou classificação de pessoas singulares ou grupos de pessoas durante um certo período com base no seu comportamento social ou em características de personalidade ou pessoais, conhecidas, inferidas ou previsíveis, em que a classificação social conduza a uma das seguintes situações ou a ambas:
c)
uvádění na trh, uvádění do provozu nebo používání systémů AI pro hodnocení nebo klasifikace fyzických osob nebo skupin osob v určitém časovém úseku na základě jejich sociálního chování nebo známých, odvozených nebo předvídaných osobních či osobnostních vlastností, přičemž výsledný sociální kredit vede k jednomu nebo oběma následujícím důsledkům:
i)
tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos de pessoas em contextos sociais não relacionados com os contextos nos quais os dados foram originalmente gerados ou recolhidos,
i)
ke znevýhodňujícímu nebo nepříznivému zacházení s některými fyzickými osobami nebo skupinami osob v sociálních kontextech nesouvisejících s kontextem, ve kterém byly dané údaje původně vytvořeny nebo shromážděny;
ii)
tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos de pessoas que seja injustificado ou desproporcionado face ao seu comportamento social ou à gravidade do mesmo;
ii)
ke znevýhodňujícímu nebo nepříznivému zacházení s některými fyzickými osobami nebo skupinami těchto osob, které je neodůvodněné nebo nepřiměřené jejich sociálnímu chování nebo jeho závažnosti;
d)
A colocação no mercado, a colocação em serviço para esta finalidade específica ou a utilização de um sistema de IA para a realização de avaliações de risco de pessoas singulares a fim de avaliar ou prever o risco de uma pessoa singular cometer uma infração penal, com base exclusivamente na definição de perfis de uma pessoa singular ou na avaliação dos seus traços e características de personalidade. Esta proibição não se aplica aos sistemas de IA utilizados para apoiar a avaliação humana do envolvimento de uma pessoa numa atividade criminosa, que já se baseia em factos objetivos e verificáveis diretamente ligados a uma atividade criminosa;
d)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů AI pro posuzování rizik fyzických osob s cílem posoudit nebo předvídat riziko, že fyzická osoba spáchá trestný čin, a to výhradně na základě profilování fyzické osoby nebo posouzení jejích osobnostních znaků a vlastností; tento zákaz se nevztahuje na systémy AI používané na podporu lidského posouzení zaměřeného na zapojení osoby do trestné činnosti, které je již založeno na objektivních a ověřitelných skutečnostech přímo souvisejících s trestnou činností;
e)
A colocação no mercado, a colocação em serviço para esta finalidade específica ou a utilização de sistemas de IA que criam ou expandem bases de dados de reconhecimento facial através da recolha aleatória de imagens faciais a partir da Internet ou de imagens de televisão em circuito fechado (TVCF);
e)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů AI, které vytvářejí nebo rozšiřují databáze rozpoznávání obličeje prostřednictvím necíleného získávání zobrazení obličeje z internetu nebo kamerových záznamů;
f)
A colocação no mercado, a colocação em serviço para esta finalidade específica ou a utilização de sistemas de IA para inferir emoções de uma pessoa singular no local de trabalho e nas instituições de ensino, exceto nos casos em que o sistema de IA se destine a ser instalado ou introduzido no mercado por razões médicas ou de segurança;
f)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů AI s cílem odvodit emoce fyzické osoby na pracovišti a ve vzdělávacích institucích, s výjimkou případů, kdy je použití systému AI určeno k zavedení či k uvedení na trh z lékařských nebo bezpečnostních důvodů;
g)
A colocação no mercado, a colocação em serviço para este fim específico, ou a utilização de sistemas de categorização biométrica que classifiquem individualmente as pessoas singulares com base nos seus dados biométricos para deduzir ou inferir a sua raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas, vida sexual ou orientação sexual; esta proibição não abrange rotulagens nem filtragens de conjuntos de dados biométricos legalmente adquiridos, tais como imagens, com base em dados biométricos ou na categorização de dados biométricos no domínio da aplicação da lei;
g)
uvádění na trh, uvádění do provozu pro tento konkrétní účel nebo používání systémů biometrické kategorizace, které jednotlivě kategorizují fyzické osoby na základě jejich biometrických údajů za účelem dovození nebo odvození jejich rasy, politických názorů, členství v odborových organizacích, náboženského nebo filozofického přesvědčení, sexuálního života nebo sexuální orientace; tento zákaz se nevztahuje na označování nebo filtrování legálně získaných souborů biometrických údajů, jako jsou snímky, na základě biometrických údajů nebo kategorizace biometrických údajů v oblasti vymáhání práva;
h)
A utilização de sistemas de identificação biométrica à distância em «tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei, a menos e na medida em que essa utilização seja estritamente necessária para um dos seguintes fins:
h)
používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva, pokud to není nezbytně nutné pro jeden z následujících cílů, a jen v nezbytně nutné míře:
i)
busca seletiva de vítimas específicas de rapto, tráfico de seres humanos ou exploração sexual de seres humanos, bem como a busca por pessoas desaparecidas,
i)
cílené vyhledávání určitých obětí únosů, obchodování s lidmi nebo sexuálního vykořisťování lidí, jakož i vyhledávání pohřešovaných osob;
ii)
prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas singulares ou de uma ameaça real e atual ou real e previsível de um ataque terrorista,
ii)
prevence konkrétního, závažného a bezprostředního ohrožení života nebo fyzické bezpečnosti fyzických osob nebo skutečného a bezprostředního či skutečného a předvídatelného teroristického útoku;
iii)
a localização ou identificação de uma pessoa suspeita de ter cometido uma infração penal, para efeitos da realização de uma investigação criminal, ou instauração de ação penal ou execução de uma sanção penal por alguma das infrações referidas no anexo II e puníveis no Estado-Membro em causa com pena ou medida de segurança privativa de liberdade de duração máxima não inferior a quatro anos.
iii)
lokalizace nebo identifikace osoby podezřelé ze spáchání trestného činu, za účelem trestního vyšetřování, stíhání nebo výkonu trestu za trestné činy uvedené v příloze II, za něž lze v dotčeném členském státě uložit trest odnětí svobody nebo ochranné opatření spojené s odnětím osobní svobody v maximální délce nejméně čtyři roky.
A alínea h) do primeiro parágrafo não prejudica o disposto no artigo 9.o do Regulamento (UE) 2016/679 no que respeita ao tratamento de dados biométricos para outros fins que não a aplicação da lei.
Prvním pododstavcem písm. h) není dotčen článek 9 nařízení (EU) 2016/679, pokud jde o zpracování biometrických údajů pro jiné účely, než je vymáhání práva.
2. A utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei com vista a alcançar qualquer um dos fins previstos no n.o 1, primeiro parágrafo, alínea h), deve ser implantada para os fins descritos na referida alínea, apenas com a finalidade de confirmar a identidade da pessoa especificamente visada e deve ter em conta os seguintes elementos:
2. Používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva pro některý z cílů uvedených v odst. 1 prvním pododstavci písm. h) se zavede pro účely stanovené v daném ustanovení pouze k potvrzení totožnosti konkrétně cílené fyzické osoby a zohlední tyto prvky:
a)
A natureza da situação que origina a possível utilização, em especial a gravidade, a probabilidade e a magnitude dos danos causados na ausência da utilização do sistema;
a)
povahu situace, která vede k jejich potenciálnímu použití, zejména závažnost, pravděpodobnost a rozsah újmy, která by byla způsobena v případě, že by systém použit nebyl;
b)
As consequências da utilização do sistema para os direitos e as liberdades de todas as pessoas afetadas, em especial a gravidade, a probabilidade e a magnitude dessas consequências.
b)
důsledky používání systému pro práva a svobody všech dotčených osob, zejména závažnost, pravděpodobnost a rozsah těchto důsledků.
Além disso, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei com vista a alcançar qualquer um dos objetivos referidos no n.o 1, primeiro parágrafo, alínea h), do presente artigo deve observar salvaguardas e condições necessárias e proporcionadas em conformidade com o direito nacional que autoriza tal utilização, nomeadamente no respeitante a limitações temporais, geográficas e das pessoas visadas. A utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público só é autorizada se a autoridade responsáveis pela aplicação da lei tiver concluído uma avaliação de impacto sobre os direitos fundamentais, conforme previsto no artigo 27.o, e tiver registado o sistema na base de dados da UE em conformidade com o artigo 49.o. No entanto, em casos de urgência devidamente justificados, a utilização desses sistemas pode ser iniciada sem o registo na base de dados da UE, desde que esse registo seja concluído sem demora injustificada.
Použití systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva pro dosažení kteréhokoli z cílů uvedených v odst. 1 prvním pododstavci písm. h) tohoto článku musí být navíc v souladu s nezbytnými a přiměřenými zárukami a podmínkami ve vztahu k použití podle vnitrostátního práva, jež použití takových systémů povoluje, zejména pokud jde o časová, zeměpisná a osobní omezení. Používání systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech je povoleno pouze v případě, že donucovací orgán dokončil posouzení dopadů na základní práva podle článku 27 a zaregistroval systém v databázi EU podle článku 49. V řádně odůvodněných naléhavých případech však může být používání těchto systémů zahájeno bez registrace v databázi EU, pokud je tato registrace provedena bez zbytečného odkladu.
3. No tocante ao n.o 1, primeiro parágrafo, alínea h), e ao n.o 2, cada utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei está sujeita a autorização prévia concedida por uma autoridade judiciária, ou uma autoridade administrativa independente cuja decisão seja vinculativa, do Estado-Membro no qual a utilização terá lugar, após apresentação de um pedido fundamentado em conformidade com as regras de execução previstas no direito nacional a que se refere o n.o 5. Contudo, numa situação de urgência devidamente justificada, a utilização do sistema pode ser iniciada sem uma autorização, desde que essa autorização seja solicitada sem demora injustificada, o mais tardar no prazo de 24 horas. Se o pedido de autorização for rejeitado, a utilização do sistema é suspensa com efeito imediato, e todos os dados, bem como os resultados dessa utilização, são imediatamente descartados e eliminados.
3. Pro účely odst. 1 prvního pododstavce písm. h) a odstavce 2 každé použití systému biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva podléhá předchozímu povolení ze strany justičního orgánu nebo nezávislého správního orgánu, jehož rozhodnutí je závazné a jenž se nachází v členském státě, ve kterém má k tomuto použití dojít, přičemž toto povolení je vydáno na základě odůvodněné žádosti a v souladu s podrobnými pravidly vnitrostátního práva uvedenými v odstavci 5. V řádně odůvodněné naléhavé situaci však může být používání systému zahájeno bez povolení za předpokladu, že se o takové povolení požádá bez zbytečného odkladu, nejpozději do 24 hodin. Je-li takové povolení zamítnuto, použití se s okamžitým účinkem zastaví a veškeré údaje, jakož i výsledky a výstupy tohoto použití se okamžitě vyřadí a vymažou.
A autoridade judiciária competente, ou uma autoridade administrativa independente cuja decisão seja vinculativa, apenas concede a autorização se considerar, com base em dados objetivos ou indícios claros que lhe tenham sido apresentados, que a utilização do sistema de identificação biométrica à distância «em tempo real» em apreço é necessária e proporcionada para alcançar um dos objetivos especificados no n.o 1, primeiro parágrafo, alínea h), conforme identificado no pedido, e, em especial, se limita ao estritamente necessário no que diz respeito ao período de tempo e ao âmbito geográfico e pessoal. Ao decidir sobre o pedido, a autoridade judiciária ou administrativa competente tem em conta os elementos referidos no n.o 2. As decisões que produzam efeitos jurídicos adversos sobre uma pessoa não podem ser tomadas exclusivamente com base nos resultados saídos do sistema de identificação biométrica à distância «em tempo real».
Příslušný justiční orgán nebo nezávislý správní orgán, jehož rozhodnutí je závazné, udělí povolení pouze v případě, že je na základě objektivních důkazů nebo jednoznačných údajů, které mu byly předloženy, přesvědčen, že použití dotčeného systému biometrické identifikace na dálku v reálném čase je nezbytné a přiměřené k dosažení jednoho z cílů specifikovaných v odst. 1 prvním pododstavci písm. h), který je uveden v žádosti, a zejména je omezeno na to, co je nezbytně nutné, pokud jde o dobu, jakož i zeměpisný a osobní rozsah. Při rozhodování o žádosti zohlední tento orgán skutečnosti uvedené v odstavci 2. Výlučně na základě výstupu systému biometrické identifikace na dálku v reálném čase nelze přijmout žádné rozhodnutí, které má pro určitou osobu nepříznivé právní účinky.
4. Sem prejuízo do disposto no n.o 3, cada utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei é notificada à autoridade de fiscalização do mercado pertinente e à autoridade nacional de proteção de dados, em conformidade com as regras nacionais a que se refere o n.o 5. A notificação deve conter, no mínimo, as informações especificadas no n.o 6 e não pode incluir dados operacionais sensíveis.
4. Aniž je dotčen odstavec 3, každé použití systému biometrické identifikace na dálku v reálném čase na veřejně přístupných prostorech se pro účely vymáhání práva oznámí příslušnému orgánu dozoru nad trhem a vnitrostátnímu orgánu pro ochranu osobních údajů v souladu s vnitrostátními pravidly uvedenými v odstavci 5. Oznámení obsahuje přinejmenším informace uvedené v odstavci 6 a nezahrnuje citlivé operativní údaje.
5. Um Estado-Membro pode decidir prever a possibilidade de autorizar total ou parcialmente a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para fins de aplicação da lei dentro dos limites e sob as condições enumeradas no n.o 1, primeiro parágrafo, alínea h), e nos n.os 2 e 3. Os Estados-Membros em causa estabelecem na sua legislação nacional as regras de execução aplicáveis ao pedido, à emissão e ao exercício das autorizações a que se refere o n.o 3, bem como à supervisão e comunicação das mesmas. Essas regras especificam igualmente para quais dos objetivos enumerados no n.o 1, primeiro parágrafo, alínea h), inclusive para quais das infrações penais referidas na subalínea iii) da referida alínea, as autoridades competentes podem ser autorizadas a usar esses sistemas para efeitos de aplicação da lei. Os Estados-Membros notificam essas regras à Comissão o mais tardar 30 dias após a sua adoção. Os Estados-Membros podem introduzir, em conformidade com o direito da União, legislação mais restritiva sobre a utilização de sistemas de identificação biométrica à distância.
5. Členský stát se může rozhodnout, že umožní plně nebo částečně povolit používání systémů biometrické identifikace na dálku v reálném čase na veřejně přístupných prostorech pro účely vymáhání práva v mezích a za podmínek uvedených v odst. 1 prvním pododstavci písm. h) a v odstavcích 2 a 3. Dotčené členské státy ve svém vnitrostátním právu stanoví nezbytná podrobná pravidla upravující žádosti o povolení uvedená v odstavci 3, vydávání a výkon těchto povolení, jakož i dohled nad nimi a podávání zpráv o nich. Tato pravidla rovněž stanoví, ve vztahu ke kterému cíli uvedenému v odst. 1 prvním pododstavci písm. h) a ke kterému trestnému činu uvedenému v písm. h) bodu iii) tohoto odstavce lze příslušným orgánům používání těchto systémů pro účely vymáhání práva povolit. Členské státy tato pravidla nejpozději 30 dnů po jejich přijetí oznámí Komisi. Členské státy mohou v souladu s právem Unie zavést přísnější právní předpisy týkající se používání systémů biometrické identifikace na dálku.
6. As autoridades nacionais de fiscalização do mercado e as autoridades nacionais de proteção de dados dos Estados-Membros que tenham sido notificadas da utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei nos termos do n.o 4 apresentam à Comissão relatórios anuais sobre essa utilização. Para o efeito, a Comissão disponibiliza aos Estados-Membros e às autoridades nacionais de fiscalização do mercado e de proteção de dados um modelo que inclua informações sobre o número de decisões tomadas pelas autoridades judiciárias competentes, ou por uma autoridade administrativa independente cuja decisão seja vinculativa, após os pedidos de autorização nos termos do n.o 3, bem como sobre o seu resultado.
6. Vnitrostátní orgány dozoru nad trhem a vnitrostátní orgány pro ochranu osobních údajů členských států, které byly informovány o používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech pro účely vymáhání práva podle odstavce 4, předkládají Komisi ohledně tohoto používání výroční zprávy. Za tímto účelem poskytne Komise členským státům a vnitrostátním orgánům dozoru nad trhem a orgánům pro ochranu osobních údajů vzor, včetně informací o počtu rozhodnutí přijatých příslušnými justičními orgány nebo nezávislým správním orgánem, jejichž rozhodnutí je v případě žádostí o povolení v souladu s odstavcem 3 závazné, a o jejich výsledku.
7. A Comissão publica relatórios anuais sobre a utilização de sistemas de identificação biométrica à distância em tempo real em espaços acessíveis ao público para efeitos de aplicação da lei, baseados em dados agregados nos Estados-Membros com base nos relatórios anuais a que se refere o n.o 6. Esses relatórios anuais não podem incluir dados operacionais sensíveis sobre as atividades de aplicação da lei conexas.
7. Pro účely vymáhání práva Komise zveřejňuje výroční zprávy o používání systémů biometrické identifikace na dálku v reálném čase ve veřejně přístupných prostorech, a to na základě souhrnných údajů o členských státech vycházejících z výročních zpráv podle odstavce 6. Tyto výroční zprávy neobsahují citlivé operativní údaje o souvisejících činnostech v oblasti vymáhání práva.
8. O presente artigo não afeta as proibições aplicáveis sempre que uma prática de IA infrinja outra legislação da União.
8. Tímto článkem nejsou dotčeny zákazy, které se použijí v případě, že postupy AI porušují jiné právo Unie.
Regras para a classificação de sistemas de IA de risco elevado
Klasifikační pravidla pro vysoce rizikové systémy AI
1. Independentemente de a colocação no mercado ou a colocação em serviço de um sistema de IA ser feita separadamente dos produtos a que se referem as alíneas a) e b), esse sistema de IA é considerado de risco elevado sempre que se estejam preenchidas ambas as seguintes condições:
1. Bez ohledu na to, zda je určitý systém AI uváděn na trh nebo do provozu nezávisle na produktech uvedených v písmenech a) a b), je tento systém AI považován za vysoce rizikový, jsou-li splněny obě následující podmínky:
a)
O sistema de IA destina-se a ser utilizado como um componente de segurança de um produto ou o sistema de IA é, ele próprio, um produto abrangido pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I;
a)
daný systém AI je určen k použití jako bezpečnostní komponenta produktu nebo je samotný tento systém AI produktem, na který se vztahují harmonizační právní předpisy Unie uvedené v příloze I;
b)
O produto cujo componente de segurança nos termos da alínea a) é o sistema de IA, ou o próprio sistema de IA enquanto produto, tem de ser sujeito a uma avaliação da conformidade por terceiros com vista à sua colocação no mercado ou colocação em serviço nos termos dos atos enumerados na lista da legislação de harmonização da União constante do anexo I.
b)
na produkt, jehož je daný systém AI bezpečnostní komponentou podle bodu a), případně na samotný tento systém AI jako produkt se vztahuje povinnost posouzení shody třetí stranou za účelem uvedení tohoto produktu na trh nebo do provozu podle harmonizačních právních předpisů Unie uvedených v příloze I.
2. Além dos sistemas de IA de risco elevado a que se refere o n.o 1, os sistemas de IA a que se refere o anexo III são também considerados de risco elevado.
2. Kromě vysoce rizikových systémů AI uvedených v odstavci 1 jsou za vysoce rizikové považovány systémy AI uvedené v příloze III.
3. Em derrogação do n.o 2, um sistema de IA a que se refere o Anexo III não pode ser considerado de risco elevado se não representar um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares, nomeadamente se não influenciarem de forma significativa o resultado da tomada de decisões.
3. Odchylně od odstavce 2 se systém AI uvedený v příloze III za vysoce rizikový nepovažuje, pokud nepředstavuje významné riziko újmy na zdraví, bezpečnosti nebo základních právech fyzických osob, a to ani tím, že by podstatně ovlivňoval výsledek rozhodování.
O primeiro parágrafo aplica-se nos casos em que estiverem preenchidas quaisquer das seguintes condições:
První pododstavec se použije, pokud je splněna některá z následujících podmínek:
a)
O sistema de IA destina-se a desempenhar uma tarefa processual restrita;
a)
systém AI je zamýšlen k plnění úzce zaměřeného procesního úkolu;
b)
O sistema de IA destina-se a melhorar o resultado de uma atividade humana previamente concluída;
b)
systém AI je zamýšlen ke zlepšení výsledku dříve dokončené lidské činnosti;
c)
O sistema de IA destina-se a detetar padrões de tomada de decisões ou desvios em relação a padrões de tomada de decisões anteriores e não se destina a substituir nem influenciar uma avaliação humana previamente concluída, sem que se proceda a uma verificação adequada por um ser humano; ou
c)
systém AI je zamýšlen k odhalování vzorců rozhodování nebo odchylek od předchozích vzorců rozhodování a nemá bez řádného lidského přezkumu nahradit nebo ovlivnit dříve dokončené lidské posouzení, nebo
d)
O sistema de IA destina-se a executar uma tarefa preparatória no contexto de uma avaliação pertinente para efeitos dos casos de utilização enumerados no anexo III.
d)
systém AI je zamýšlen k provedení přípravného úkolu v rámci posouzení, jež je relevantní pro účely případů použití uvedených v příloze III.
Não obstante o primeiro parágrafo, os sistemas de IA a que se refere o anexo III devem ser sempre considerados de risco elevado nos casos em que executarem a definição de perfis de pessoas singulares.
Bez ohledu na první pododstavec se systém AI uvedený v příloze III za vysoce rizikový považuje vždy, pokud provádí profilování fyzických osob.
4. Um prestador que considere que um dos sistemas de IA a que se refere o anexo III não é de risco elevado deve documentar a sua avaliação antes de esse sistema ser colocado no mercado ou colocado em serviço. Esse prestador está sujeito à obrigação de registo prevista no artigo 49.o, n.o 2. A pedido das autoridades nacionais competentes, o prestador deve facultar a documentação da avaliação.
4. Poskytovatel, který se domnívá, že určitý systém AI uvedený v příloze III není vysoce rizikový, své posouzení zdokumentuje před uvedením tohoto systému na trh nebo do provozu. Na tohoto poskytovatele se vztahuje povinnost registrace stanovená v čl. 49 odst. 2. Na žádost příslušných vnitrostátních orgánů předloží poskytovatel dokumentaci o posouzení.
5. Após consulta do Comité Europeu para a Inteligência Artificial («Comité»), e o mais tardar até 2 de fevereiro de 2026, a Comissão disponibiliza orientações que especifiquem a aplicação prática do presente artigo em conformidade com o artigo 96.o, juntamente com uma lista exaustiva de exemplos práticos de casos de utilização de sistemas de IA de risco elevado e de risco não elevado.
5. Komise po konzultaci s Evropskou radou pro umělou inteligenci (dále jen „rada“) a nejpozději do 2. února 2026 poskytne pokyny upřesňující praktické provádění tohoto článku v souladu s článkem 96 spolu s úplným seznamem praktických příkladů použití systémů AI, které jsou a které nejsou vysoce rizikové.
6. A Comissão fica habilitada a adotar atos delegados os termos do artigo 97.o para alterar o n.o 3, segundo parágrafo, do presente artigo no que diz respeito a aditar novas condições para além das que aí se encontram previstas, ou a alterar essas condições, se existirem provas concretas e fiáveis da existência de sistemas de IA que sejam abrangidos pelo âmbito de aplicação do anexo III mas não apresentem um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares.
6. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97 ke změně odst. 3 druhého pododstavce tohoto článku doplněním nových podmínek k podmínkám tam uvedeným nebo změnou těchto podmínek, pokud existují konkrétní a spolehlivé důkazy o existenci systémů AI, které spadají do oblasti působnosti přílohy III, ale nepředstavují významné riziko poškození zdraví, bezpečnosti nebo základních práv fyzických osob.
7. A Comissão adota atos delegados nos termos do artigo 97.o no que diz respeito à alteração do n.o 3, segundo parágrafo, do presente artigo, para suprimir qualquer uma das condições aí previstas, caso existam provas concretas e fiáveis de que tal é necessário para manter o nível de proteção da saúde, da segurança e dos direitos fundamentais previsto no presente regulamento.
7. Komise přijme akty v přenesené pravomoci v souladu s článkem 97 ke změně odst. 3 druhého pododstavce tohoto článku zrušením některé z podmínek tam uvedených, pokud existují konkrétní a spolehlivé důkazy o tom, že je to nezbytné pro zachování úrovně ochrany zdraví, bezpečnosti a základních práv v Unii stanovené tímto nařízením.
8. Qualquer alteração às condições estabelecidas no n.o 3, segundo parágrafo, adotadas nos termos dos n.os 6 e 7 do presente artigo, não pode diminuir o nível geral de proteção da saúde, da segurança e dos direitos fundamentais previsto no presente regulamento e assegura a coerência com os atos delegados adotados nos termos do artigo 7.o, n.o 1, e tem em conta a evolução tecnológica e do mercado.
8. Změna podmínek stanovených v odst. 3 druhém pododstavci přijatá v souladu s odstavci 6 a 7 tohoto článku nesmí snížit celkovou úroveň ochrany zdraví, bezpečnosti a základních práv v Unii stanovenou tímto nařízením a musí zajistit soulad s akty v přenesené pravomoci přijatými podle čl. 7 odst. 1 a zohlednit vývoj trhu a technologií.
Sistema de gestão de riscos
1. Deve ser criado, implantado, documentado e mantido um sistema de gestão de riscos em relação aos sistemas de IA de risco elevado.
1. Ve vztahu k vysoce rizikovým systémům AI je zaveden, uplatňován, zdokumentován a udržován systém řízení rizik.
2. O sistema de gestão de riscos é entendido como um processo iterativo contínuo, planeado e executado ao longo de todo o ciclo de vida de um sistema de IA de risco elevado, que requer revisões e atualizações sistemáticas regulares. Deve compreender as seguintes etapas:
2. Systém řízení rizik je chápán jako nepřetržitý opakující se proces plánovaný a prováděný v rámci celého životního cyklu vysoce rizikového systému AI, který vyžaduje pravidelný systematický přezkum a aktualizaci. Zahrnuje následující kroky:
a)
A identificação e análise dos riscos conhecidos e razoavelmente previsíveis que o sistema de IA de risco elevado pode representar para a saúde, a segurança ou os direitos fundamentais quando é utilizado em conformidade com a sua finalidade prevista;
a)
identifikaci a analýzu známých a rozumně předvídatelných rizik, která může vysoce rizikový systém AI používaný v souladu se zamýšleným účelem představovat pro zdraví, bezpečnost nebo základní práva;
b)
A estimativa e avaliação dos riscos que podem surgir quando o sistema de IA de risco elevado é utilizado em conformidade com a sua finalidade prevista e em condições de utilização indevida razoavelmente previsível;
b)
odhad a vyhodnocení rizik, která mohou vzniknout, když je vysoce rizikový systém AI používán v souladu se zamýšleným účelem a za podmínek rozumně předvídatelného nesprávného použití;
c)
A avaliação de outros riscos que possam surgir, com base na análise dos dados recolhidos por meio do sistema de acompanhamento pós-comercialização a que se refere o artigo 72.o;
c)
hodnocení dalších rizik, která mohou potenciálně vzniknout, na základě analýzy shromážděných údajů ze systému monitorování po uvedení na trh ve smyslu článku 72;
d)
A adoção de medidas adequadas e específicas de gestão de riscos concebidas para fazer face aos riscos identificados nos termos da alínea a).
d)
přijetí vhodných a cílených opatření k řízení rizik, jež jsou navržena tak, aby řešila rizika zjištěná podle písmene a).
3. O presente artigo faz referência apenas aos riscos que possam ser razoavelmente atenuados ou eliminados aquando do desenvolvimento ou da conceção do sistema de IA de risco elevado ou por meio da prestação de informações técnicas adequadas.
3. Rizika uvedená v tomto článku zahrnují pouze rizika, která lze přiměřeně zmírnit nebo vyloučit vývojem nebo návrhem vysoce rizikového systému AI nebo poskytnutím odpovídajících technických informací.
4. As medidas de gestão de riscos a que se refere o n.o 2, alínea d), devem ter em devida consideração os efeitos e a eventual interação resultantes da aplicação combinada dos requisitos estabelecidos na presente secção, com vista a minimizar os riscos de forma mais eficaz e, ao mesmo tempo, alcançar um equilíbrio adequado na aplicação das medidas destinadas a cumprir esses requisitos.
4. Opatření k řízení rizik uvedená v odst. 2 písm. d) náležitě zohledňují účinky a možnou interakci vyplývající z kombinovaného uplatňování požadavků stanovených v tomto oddíle s cílem účinněji minimalizovat rizika a současně dosáhnout vhodné rovnováhy při provádění opatření ke splnění těchto požadavků.
5. As medidas de gestão de riscos a que se refere o n.o 2, alínea d), devem ser de molde a fazer com que o risco residual pertinente associado a cada perigo, bem como o risco residual global dos sistemas de IA de risco elevado, sejam considerados aceitáveis.
5. Opatření k řízení rizik uvedená v odst. 2 písm. d) musí být taková, aby bylo příslušné zbytkové riziko spojené s každým nebezpečím a rovněž celkové zbytkové riziko vysoce rizikových systémů AI považováno za přijatelné.
Ao identificar as medidas de gestão de riscos mais apropriadas, deve assegurar-se o seguinte:
Při určování nejvhodnějších opatření k řízení rizik je třeba zajistit:
a)
Eliminação ou redução dos riscos identificados e avaliados nos termos do n.o 2, tanto quanto tecnicamente viável através da conceção e do desenvolvimento adequados do sistema de IA de risco elevado;
a)
vyloučení nebo snížení rizik zjištěných a vyhodnocených podle odstavce 2, pokud možno prostřednictvím technicky proveditelného návrhu a vývoje vysoce rizikového systému AI;
b)
Se for caso disso, adoção de medidas de atenuação e controlo adequadas para fazer face aos riscos que não possam ser eliminados;
b)
ve vhodných případech zavedení odpovídajících zmírňujících a kontrolních opatření, jež řeší rizika, která nelze vyloučit;
c)
Prestação das informações exigidas nos termos do artigo 13.o e, se for caso disso, formação dos responsáveis pela implantação.
c)
poskytování informací požadovaných podle článku 13 a v případě potřeby školení pro zavádějící subjekty.
Com vista à eliminação ou redução de riscos relacionados com a utilização do sistema de IA de risco elevado, há que ter em consideração o conhecimento técnico, a experiência, a educação e a formação que se pode esperar que o responsável pela implantação possua e o contexto presumível em que o sistema se destina a ser utilizado.
Za účelem vyloučení nebo snížení rizik souvisejících s používáním daného vysoce rizikového systému AI by měly být náležitě zváženy technické znalosti, zkušenosti, vzdělání, odborná příprava, které se od zavádějícího subjektu očekává, a předpokládaný kontext, ve kterém má být systém používán.
6. Os sistemas de IA de risco elevado são sujeitos a testes a fim de se identificarem as medidas de gestão de riscos específicas mais adequadas. Os testes asseguram que os sistemas de IA de risco elevado funcionam de forma coerente com a sua finalidade prevista e cumprem os requisitos estabelecidos na presente secção.
6. Vysoce rizikové systémy AI jsou testovány za účelem identifikace nejvhodnějších a cílených opatření k řízení rizik. Testování zajistí, aby vysoce rizikové systémy AI podávaly výkony konzistentní s jejich zamýšleným účelem a aby byly v souladu s požadavky stanovenými v tomto oddíle.
7. Os procedimentos de teste podem incluir a testagem em condições reais, em conformidade com o artigo 60.
7. Testovací postupy mohou zahrnovat testování v reálných podmínkách v souladu s článkem 60.
8. Os testes dos sistemas de IA de risco elevado devem ser realizados, consoante apropriado, em qualquer momento durante o processo de desenvolvimento e, em qualquer caso, antes da colocação no mercado ou da colocação em serviço. Os testes devem ser realizados com base em parâmetros e limiares probabilísticos previamente definidos que sejam adequados à finalidade prevista do sistema de IA de risco elevado.
8. Testování vysoce rizikových systémů AI se provádí podle potřeby kdykoli v průběhu celého procesu vývoje a v každém případě před uvedením na trh nebo do provozu. Testování probíhá na základě předem definovaných metrik a pravděpodobnostních prahových hodnot, které jsou pro zamýšlený účel vysoce rizikového systému AI vhodné.
9. Ao implementarem o sistema de gestão de riscos tal como previsto nos n.os 1 a 7, os prestadores ponderam se, tendo em conta a sua finalidade prevista, existe a probabilidade de o sistema de IA de risco elevado ter repercussões negativas sobre pessoas com menos de 18 anos e, se for o caso, outros grupos vulneráveis.
9. Při zavádění systému řízení rizik popsaného v odstavcích 1 až 7 poskytovatelé zváží, zda je s ohledem na jeho zamýšlený účel pravděpodobné, že vysoce rizikový systém AI bude mít nepříznivý dopad na osoby mladší 18 let a případně na jiné zranitelné skupiny.
10. Para os prestadores de sistemas de IA de risco elevado sujeitos a requisitos relativos aos processos internos de gestão de riscos nos termos da legislação setorial aplicável da União, os aspetos descritos nos n.os 1 a 9 podem fazer parte dos procedimentos de gestão de riscos estabelecidos nos termos dessa legislação ou ser combinados com esses procedimentos.
10. V případě poskytovatelů vysoce rizikových systémů AI, na něž se vztahují požadavky týkající se vnitřních procesů řízení rizik podle jiných příslušných ustanovení práva Unie, mohou být aspekty popsané v odstavcích 1 až 9 součástí postupů řízení rizik stanovených podle uvedeného práva nebo kombinovány s těmito postupy.
Dados e governação de dados
1. Os sistemas de IA de risco elevado que utilizem técnicas que envolvam o treino de modelos com dados devem ser desenvolvidos com base em conjuntos de dados de treino, validação e teste que cumpram os critérios de qualidade a que se referem os n.os 2 a 5, sempre que esses conjuntos de dados sejam utilizados.
1. Vysoce rizikové systémy AI, které využívají techniky zahrnující trénování modelů AI obsahujících data, jsou vyvíjeny na základě souborů trénovacích, validačních a testovacích dat, které splňují kritéria kvality uvedená v odstavcích 2 až 5, a to kdykoli se tyto datové soubory používají.
2. Os conjuntos de dados de treino, validação e teste devem estar sujeitos a práticas de governação e gestão de dados adequadas à finalidade prevista do sistema de IA. Essas práticas dizem nomeadamente respeito:
2. Soubory trénovacích, validačních a testovacích dat podléhají příslušným postupům v oblasti správy a řízení dat, jež jsou pro zamýšlený účel vysoce rizikového systému AI vhodné. Tyto postupy se týkají zejména:
a)
Às escolhas de conceção pertinentes;
a)
příslušných možností návrhu;
b)
A processos de recolha de dados e à origem dos dados e, no caso dos dados pessoais, à finalidade original da recolha desses dados;
b)
postupů při sběru dat a původu dat a v případě osobních údajů původního účelu jejich sběru;
c)
Às operações de tratamento necessárias para a preparação dos dados, tais como anotação, rotulagem, limpeza, atualização, enriquecimento e agregação;
c)
příslušných operací zpracování přípravy dat, jako jsou anotace, označování, čištění, aktualizace, obohacování a agregace;
d)
À formulação dos pressupostos, nomeadamente no que diz respeito às informações que os dados devem medir e representar;
d)
formulace předpokladů, zejména s ohledem na informace, které mají daná data měřit a představovat;
e)
À avaliação da disponibilidade, quantidade e adequação dos conjuntos de dados que são necessários;
e)
posouzení dostupnosti, množství a vhodnosti potřebných souborů dat;
f)
Ao exame para detetar eventuais enviesamentos suscetíveis de afetar a saúde e a segurança das pessoas, de ter repercussões negativas nos direitos fundamentais ou de resultar em discriminações proibidas pelo direito da União, especialmente quando os resultados obtidos a partir dos dados influenciam os dados de entrada para operações futuras;
f)
přezkoumání s ohledem na potenciální zkreslení, která by mohla ovlivnit zdraví a bezpečnost osob, mít nepříznivý dopad na základní práva nebo vést k diskriminaci, která je podle práva Unie zakázána, zejména pokud výstupy dat ovlivňují vstupy pro budoucí operace;
g)
Às medidas adequadas para detetar, prevenir e atenuar eventuais enviesamentos identificados nos termos da alínea f);
g)
vhodná opatření k odhalení, prevenci a zmírnění případných zkreslení zjištěných podle písmene f);
h)
À identificação de lacunas ou deficiências pertinentes dos dados que impeçam o cumprimento do presente regulamento e de possíveis soluções para as mesmas.
h)
identifikace relevantních nedostatků nebo chyb v datech, které brání dodržování tohoto nařízení, a způsobu, jak tyto nedostatky a chyby vyřešit.
3. Os conjuntos de dados de treino, validação e teste devem ser pertinentes, suficientemente representativos e, tanto quanto possível, isentos de erros e completos, tendo em conta a finalidade prevista. Devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em relação às quais se destina a utilização do sistema de IA de risco elevado. Essas características dos conjuntos de dados podem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos.
3. Soubory trénovacích, validačních a testovacích dat jsou s ohledem na svůj zamýšlený účel relevantní, dostatečně reprezentativní a v maximální možné míře bez chyb a úplné. Mají náležité statistické vlastnosti, a to i případně rovněž s ohledem na osoby nebo skupiny osob, v souvislosti s nimiž má být daný vysoce rizikový systém AI používán. Tyto vlastnosti souborů dat lze splnit na úrovni jednotlivých souborů dat nebo na úrovni jejich kombinací.
4. Os conjuntos de dados devem ter em conta, na medida do necessário para a finalidade prevista, as características ou os elementos que são idiossincráticos do enquadramento geográfico, contextual, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado.
4. Soubory trénovacích, validačních a testovacích dat zohledňují v rozsahu nezbytném pro jejich zamýšlený účel vlastnosti nebo prvky, které jsou specifické pro konkrétní zeměpisné, kontextuální, behaviorální nebo funkční prostředí, ve kterém má být daný vysoce rizikový systém AI používán.
5. Na medida do estritamente necessário para assegurar a deteção e a correção de enviesamentos em relação aos sistemas de IA de risco elevado em conformidade com o n.o 2, alíneas f) e g), do presente artigo, os prestadores desses sistemas podem, excecionalmente, tratar categorias especiais de dados pessoais, sob reserva de garantias adequadas dos direitos e liberdades fundamentais das pessoas singulares. Para além das disposições estabelecidas nos Regulamentos (UE) 2016/679 e (UE) 2018/1725 e na Diretiva (UE) 2016/680, todas as seguintes condições para que esse tratamento ocorra devem ser cumpridas:
5. Pokud je to nezbytně nutné pro zajištění detekce a oprav zkreslení ve vztahu k vysoce rizikovým systémům AI v souladu s odst. 2 písm. f) a g) tohoto článku, mohou poskytovatelé těchto systémů výjimečně zpracovávat zvláštní kategorie osobních údajů s výhradou vhodných záruk týkajících se základních práv a svobod fyzických osob. Kromě ustanovení nařízení (EU) 2016/679 a (EU) 2018/1725 a směrnice (EU) 2016/680musí být ve vztahu k takovému zpracování naplněny všechny tyto podmínky:
a)
A deteção e a correção de enviesamentos não podem ser eficazmente efetuadas através do tratamento de outros dados, nomeadamente dados sintéticos ou anonimizados;
a)
detekce a opravy zkreslení nelze účinně provést zpracováním jiných údajů, včetně syntetických nebo anonymizovaných údajů;
b)
As categorias especiais de dados pessoais estão sujeitas a limitações técnicas em matéria de reutilização dos dados pessoais e às mais avançadas medidas de segurança e preservação da privacidade, incluindo a pseudonimização;
b)
zvláštní kategorie osobních údajů podléhají technickým omezením opakovaného použití osobních údajů, jakož i nejmodernějším bezpečnostním opatřením a opatřením v oblasti ochrany soukromí, včetně pseudonymizace;
c)
As categorias especiais de dados pessoais estão sujeitas a medidas destinadas a assegurar que os dados pessoais tratados estejam seguros, protegidos e sujeitos a garantias adequadas, incluindo controlos rigorosos e uma documentação criteriosa do acesso a esses dados, a fim de evitar uma utilização abusiva e assegurar que apenas tenham acesso a esses dados as pessoas autorizadas e com as devidas obrigações de confidencialidade;
c)
zvláštní kategorie osobních údajů podléhají opatřením, která zajistí, aby zpracovávané osobní údaje byly zabezpečeny a chráněny a aby se na ně vztahovaly vhodné záruky, včetně přísných kontrol a dokumentace přístupu, s cílem zabránit zneužití a zajistit, aby k těmto osobním údajům měly přístup pouze oprávněné osoby s odpovídajícími povinnostmi zachování důvěrnosti;
d)
As categorias especiais de dados pessoais não são transmitidos nem transferidos para terceiros, nem de outra forma consultados por esses terceiros;
d)
zvláštních kategorie osobních údajů nejsou přenášeny, převáděny nebo jinak zpřístupněny jiným stranám;
e)
As categorias especiais de dados pessoais são eliminadas assim que o enviesamento tenha sido corrigido ou que os dados pessoais atinjam o fim do respetivo período de conservação, consoante o que ocorrer primeiro;
e)
zvláštních kategorie osobních údajů se vymažou, jakmile je zkreslení opraveno nebo jakmile u těchto údajů uplyne doba uchovávání, podle toho, co nastane dříve;
f)
Os registos das atividades de tratamento nos termos do Regulamento (UE) 2016/679, do Regulamento (UE) 2018/1725 e da Diretiva (UE) 2016/680 incluem os motivos pelos quais o tratamento de categorias especiais de dados pessoais foi estritamente necessário para detetar e corrigir enviesamentos e os motivos pelos quais não foi possível alcançar esse objetivo através do tratamento de outros dados.
f)
záznamy o činnostech zpracování podle nařízení (EU) 2016/679 a (EU) 2018/1725 a směrnice (EU) 2016/680 obsahují důvody vedoucí k tomu, že bylo zpracování zvláštních kategorií osobních údajů nezbytně nutné k odhalení a nápravě zkreslení a že tohoto cíle nemohlo být dosaženo zpracováním jiných údajů.
6. Para o desenvolvimento de sistemas de IA de risco elevado que não utilizam técnicas que envolvem o treino de modelos de IA, os n.os 2 a 5 aplicam-se apenas aos conjuntos de dados de teste.
6. Pro vývoj vysoce rizikových systémů AI, které nevyužívají techniky zahrnující trénování modelů AI, se odstavce 2 až 5 použijí pouze na soubory testovacích dat.
1. A documentação técnica de um sistema de IA de risco elevado deve ser elaborada antes da colocação no mercado ou colocação em serviço desse sistema e deve ser mantida atualizada.
1. Před uvedením vysoce rizikového systému AI na trh je vypracována jeho technická dokumentace, jež je pak průběžně aktualizována.
A documentação técnica deve ser elaborada de maneira que demonstre que o sistema de IA de risco elevado cumpre os requisitos estabelecidos na presente secção e deve facultar às autoridades nacionais competentes e aos organismos notificados, de forma clara e completa, as informações necessárias para aferir a conformidade do sistema de IA com esses requisitos. A documentação técnica deve conter, no mínimo, os elementos previstos no anexo IV. As PME, incluindo as empresas em fase de arranque, podem facultar os elementos da documentação técnica especificados no anexo IV de forma simplificada. Para o efeito, a Comissão deve criar um formulário de documentação técnica simplificado destinado às necessidades das pequenas e microempresas. Caso uma PME, nomeadamente uma empresa em fase de arranque, opte por prestar as informações exigidas no anexo IV de forma simplificada, deve utilizar o formulário a que se refere o presente número. Os organismos notificados devem aceitar o formulário para efeitos de avaliação da conformidade.
Technická dokumentace je vypracována tak, aby prokazovala, že daný vysoce rizikový systém AI splňuje požadavky stanovené v tomto oddíle, a aby příslušným vnitrostátním orgánům a oznámeným subjektům poskytovala jasné a komplexní informace nezbytné k posouzení souladu systému AI s těmito požadavky. Obsahuje přinejmenším prvky uvedené v příloze IV. Malé a střední podniky, včetně podniků začínajících, mohou poskytnout jednotlivé položky technické dokumentace uvedené v příloze IV zjednodušeným způsobem. Za tímto účelem vytvoří Komise zjednodušený formulář technické dokumentace zaměřený na potřeby malých podniků a mikropodniků. V případě, že se malý nebo střední podnik, včetně podniků začínajících, rozhodne poskytnout informace požadované v příloze IV ve zjednodušeném formátu, použije formulář uvedený v tomto odstavci. Oznámené subjekty tento formulář akceptují pro účely posouzení shody.
2. Aquando da colocação no mercado ou da colocação em serviço de um sistema de IA de risco elevado relacionado com um produto abrangido pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção A, deve ser elaborada uma documentação técnica única que contenha todas as informações previstas no n.o 1, bem como as informações exigidas nos termos desses atos jurídicos.
2. Pokud je uváděn na trh nebo do provozu vysoce rizikový systém AI související s produktem, na který se vztahují harmonizační právní předpisy Unie uvedené v příloze I oddíle A, vypracuje se jediná technická dokumentace obsahující všechny informace uvedené v odstavci 1, jakož i informace požadované podle těchto právních aktů.
3. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar o anexo IV, se for caso disso, com vista a assegurar que, tendo em conta a evolução técnica, a documentação técnica faculte todas as informações necessárias para aferir a conformidade do sistema com os requisitos estabelecidos na presente secção.
3. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97 za účelem změny přílohy IV, je-li to nezbytné k zajištění toho, aby technická dokumentace s ohledem na technický pokrok poskytovala veškeré informace nezbytné k posouzení souladu systému s požadavky stanovenými v tomto oddíle.
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de modo a poderem, nomeadamente por meio de ferramentas de interface homem-máquina apropriadas, ser eficazmente supervisionados por pessoas singulares durante o período em que estão em utilização.
1. Vysoce rizikové systémy AI jsou navrženy a vyvinuty takovým způsobem, a to i pomocí vhodných nástrojů rozhraní člověk-stroj, aby na ně mohly během období, kdy jsou používány, účinně dohlížet fyzické osoby.
2. A supervisão humana deve procurar prevenir ou minimizar os riscos para a saúde, a segurança ou os direitos fundamentais que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsível, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos na presente secção.
2. Lidský dohled je zaměřen na prevenci nebo minimalizaci rizik pro zdraví, bezpečnost nebo základní práva, která mohou vzniknout při používání vysoce rizikového systému AI v souladu s jeho zamýšleným účelem nebo za podmínek rozumně předvídatelného nesprávného použití, zejména pokud tato rizika přetrvávají navzdory uplatňování dalších požadavků stanovených v tomto oddíle.
3. As medidas de supervisão humana devem ser consentâneas com os riscos, ao nível de autonomia e ao contexto de utilização do sistema de IA de risco elevado e a supervisão deve ser assegurada por meio de um ou de todos os seguintes tipos de medidas:
3. Opatření dohledu jsou úměrná rizikům, úrovni autonomie a kontextu používání vysoce rizikového systému AI a jsou zajištěna jedním nebo oběma z těchto druhů opatření:
a)
Medidas identificadas e integradas, quando tecnicamente viável, pelo prestador no sistema de IA de risco elevado antes de este ser colocado no mercado ou colocado em serviço;
a)
opatření, která identifikuje poskytovatel, a pokud je to technicky proveditelné, zabuduje je do daného vysoce rizikového systému AI před jeho uvedením na trh nebo do provozu;
b)
Medidas identificadas pelo prestador antes de o sistema de IA de risco elevado ser colocado no mercado ou colocado em serviço e que se prestem a serem postas em prática pelo responsável pela implantação.
b)
opatření, která identifikuje poskytovatel před uvedením daného vysoce rizikového systému AI na trh nebo do provozu a u nichž je vhodné, aby je provedl zavádějící subjekt.
4. Para efeitos da aplicação dos n.os 1, 2 e 3, o sistema de IA de risco elevado deve ser disponibilizado ao responsável pela implantação de modo a que seja possível às pessoas singulares responsáveis pela supervisão humana, conforme adequado e de forma proporcionada:
4. Pro účely provádění odstavců 1, 2 a 3 je vysoce rizikový systém AI poskytován zavádějícímu subjektu způsobem, jenž fyzickým osobám pověřeným lidským dohledem umožňuje, pokud je to vhodné a přiměřené, aby:
a)
Compreender adequadamente as capacidades e limitações pertinentes do sistema de IA de risco elevado e conseguir controlar devidamente o seu funcionamento, nomeadamente a fim de detetar e corrigir anomalias, disfuncionalidades e desempenhos inesperados;
a)
řádně porozuměly příslušným kapacitám a omezením daného vysoce rizikového systému AI a byly schopny náležitě monitorovat jeho fungování, a to i s ohledem na odhalování a řešení anomálií, dysfunkcí a neočekávaného výkonu;
b)
Estar conscientes da possível tendência para confiar automaticamente ou confiar excessivamente nos resultados produzidos pelo sistema de IA de risco elevado (enviesamento da automatização), em especial no que toca a sistemas de IA de risco elevado utilizados para prestar informações ou recomendações com vista à tomada de decisões por pessoas singulares;
b)
si nadále uvědomovaly možnou tendenci automatického nebo nadměrného spoléhání na výstup vysoce rizikového systému AI (dále jen „zkreslení způsobené automatizací“, v angličtině „automation bias“), zejména u vysoce rizikových systémů AI užívaných pro poskytování informací nebo doporučení pro rozhodování fyzických osob;
c)
Interpretar corretamente os resultados do sistema de IA de risco elevado, tendo em conta, por exemplo, as ferramentas e os métodos de interpretação disponíveis;
c)
správně interpretovaly výstup vysoce rizikového systému AI, například dostupné interpretační nástroje a metody;
d)
Decidir, em qualquer situação específica, não usar o sistema de IA de risco elevado ou ignorar, anular ou reverter os resultados do sistema de IA de risco elevado;
d)
se v jakékoli konkrétní situaci rozhodly, že vysoce rizikový systém AI nepoužijí nebo výstup z vysoce rizikového systému AI jiným způsobem nezohlední, zruší nebo zvrátí;
e)
Intervir no funcionamento do sistema de IA de risco elevado ou interromper o sistema por meio de um botão de «paragem» ou de um procedimento similar que permita parar o sistema de modo seguro.
e)
zasáhly do fungování vysoce rizikového systému AI nebo jej přerušily tlačítkem „stop“ nebo podobným postupem, který umožní systém zastavit v bezpečném módu.
5. Em relação aos sistemas de IA de risco elevado a que se refere o anexo III, ponto 1, alínea a), as medidas referidas no n.o 3 do presente artigo devem, além disso, permitir assegurar que nenhuma ação ou decisão seja tomada pelo responsável pela implantação com base na identificação resultante do sistema, salvo se a mesma tiver sido verificada e confirmada separadamente por, pelo menos, duas pessoas singulares com a competência, formação e autoridade necessárias.
5. U vysoce rizikových systémů AI uvedených v bodě 1 písm. a) přílohy III jsou opatření uvedená v odstavci 3 tohoto článku taková, aby navíc zajišťovala, že na základě identifikace vyplývající z tohoto systému neprovede zavádějící subjekt žádné kroky ani rozhodnutí, pokud tato identifikace nebude samostatně ověřena a potvrzena alespoň dvěma fyzickými osobami, které disponují nezbytnou odbornou způsobilostí, odbornou přípravou a pravomocí.
O requisito de verificação separada por, pelo menos, duas pessoas singulares não se aplica aos sistemas de IA de risco elevado utilizados para efeitos de aplicação da lei, de migração, de controlo das fronteiras ou de asilo, em que o direito da União ou o direito nacional considere que a aplicação deste requisito é desproporcionada.
Požadavek na samostatné ověření nejméně dvěma fyzickými osobami se nevztahuje na vysoce rizikové systémy AI používané pro účely vymáhání práva, migrace, ochrany hranic nebo azylu, pokud unijní nebo vnitrostátní právo považuje uplatňování tohoto požadavku za nepřiměřené.
Exatidão, solidez e cibersegurança
Přesnost, spolehlivost a kybernetická bezpečnost
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que alcancem um nível apropriado de exatidão, solidez e cibersegurança e apresentem um desempenho coerente em relação a tais aspetos durante o seu ciclo de vida.
1. Vysoce rizikové systémy AI jsou navrženy a vyvinuty tak, aby dosahovaly náležité úrovně přesnosti, spolehlivosti a kybernetické bezpečnosti a aby v tomto ohledu dosahovaly konzistentních výsledků během celého svého životního cyklu.
2. A fim de abordar os aspetos técnicos relativos à forma de medir os níveis adequados de exatidão e solidez estabelecidos no n.o 1, bem como quaisquer outros parâmetros de desempenho pertinentes, a Comissão, em cooperação com as partes interessadas e as organizações pertinentes, tais como as autoridades responsáveis pela metrologia e pela avaliação comparativa, incentiva, conforme adequado, o desenvolvimento de parâmetros de referência e metodologias de medição.
2. S cílem řešit technické aspekty způsobů měření náležitých úrovní přesnosti a spolehlivosti stanovených v odstavci 1 a jakékoli další relevantní metriky výkonnosti Komise ve spolupráci s příslušnými zúčastněnými stranami a organizacemi, jako jsou metrologické a srovnávací orgány, případně podpoří vypracování referenčních hodnot a metodik měření.
3. As instruções de utilização que acompanham os sistemas de IA de risco elevado devem declarar os níveis de exatidão e os parâmetros de exatidão aplicáveis.
3. Úrovně přesnosti a příslušné metriky přesnosti vysoce rizikových systémů AI jsou oznámeny v přiloženém návodu k použití.
4. Os sistemas de IA de risco elevado devem ser tão resistentes quanto possível a erros, falhas ou incoerências que possam ocorrer no sistema ou no ambiente em que aquele opera, em especial devido à interação com pessoas singulares ou outros sistemas. A este respeito, devem ser tomadas medidas técnicas e organizativas.
4. Vysoce rizikové systémy AI musí být v nejvyšší možné míře odolné vůči chybám, poruchám nebo nesrovnalostem, které se mohou vyskytnout v daném systému nebo v prostředí, ve kterém tento systém funguje, zejména v důsledku jejich interakce s fyzickými osobami nebo jinými systémy. Za tímto účelem se přijmou technická a organizační opatření.
A solidez dos sistemas de IA de risco elevado pode ser alcançada por via de soluções de redundância técnica, que podem incluir planos de reserva ou planos de segurança à prova de falhas.
Spolehlivosti vysoce rizikových systémů AI lze dosáhnout pomocí technicky redundantních řešení, která mohou zahrnovat plány zálohování nebo zajištění proti selhání.
Os sistemas de IA de risco elevado que continuam a aprender após serem colocados no mercado ou colocados em serviço são desenvolvidos de forma a eliminar ou reduzir, tanto quanto possível, o risco de resultados possivelmente enviesados que influenciem os dados de entrada de futuras operações (circuitos de realimentação), bem como a assegurar que esses resultados possivelmente enviesados sejam objeto de medidas de atenuação adequadas.
Vysoce rizikové systémy AI, které se po uvedení na trh nebo do provozu dále učí, jsou vyvíjeny tak, aby se vyloučilo nebo minimalizovalo riziko případně zkreslených výstupů ovlivňujících vstup pro budoucí operace (dále jen „smyčky zpětné vazby“, v angličtině. „feedback loops“) a aby se zajistilo, že tyto smyčky zpětné vazby budou řádně řešeny formou vhodných zmírňujících opatření.
5. Os sistemas de IA de risco elevado devem ser resistentes a tentativas de terceiros não autorizados de alterar a sua utilização, os seus resultados ou seu desempenho explorando as vulnerabilidades do sistema.
5. Vysoce rizikové systémy AI jsou odolné proti pokusům neoprávněných třetích stran změnit jejich použití, vstupy nebo výkonnost zneužitím zranitelných míst těchto systémů.
As soluções técnicas destinadas a assegurar a cibersegurança dos sistemas de IA de risco elevado devem ser adequadas às circunstâncias e aos riscos de cada caso.
Technická řešení zaměřená na zajištění kybernetické bezpečnosti vysoce rizikových systémů AI odpovídají příslušným okolnostem a rizikům.
As soluções técnicas para resolver vulnerabilidades específicas da IA devem incluir, se for caso disso, medidas para prevenir, detetar, resolver e controlar, bem como dar resposta a ataques que visem manipular o conjunto de dados de treino (contaminação de dados) ou componentes pré-treinados utilizados no treino (contaminação de modelos), dados de entrada concebidos para fazer com que o modelo de IA cometa um erro (exemplos antagónicos ou evasão de modelos), ataques de confidencialidade ou falhas do modelo.
Technická řešení umožňující řešení zranitelných míst specifických pro AI v příslušných případech zahrnují opatření pro prevenci, detekci, řešení a kontrolu útoků, které se pokoušejí manipulovat soubory trénovacích dat (tzv. „data poisoning“), případně předtrénovaných komponent používaných při trénování (tzv. „model poisoning“), vstupů, jejichž cílem je přimět daný model AI k tomu, aby udělal chybu (tzv. „matoucí vzory“ nebo „vyhýbání se modelu“), útoků na důvěrnost nebo chyb modelů a také opatření týkající se reakcí na uvedené útoky.
Sistema de gestão da qualidade
1. Os prestadores de sistemas de IA de risco elevado devem criar um sistema de gestão da qualidade que assegure a conformidade com o presente regulamento. Esse sistema deve estar documentado de maneira sistemática e ordenada, sob a forma de políticas, procedimentos e instruções escritos, e incluir, no mínimo, os seguintes aspetos:
1. Poskytovatelé vysoce rizikových systémů AI zavedou systém řízení kvality, který zajišťuje soulad s tímto nařízením. Tento systém je systematicky a řádně dokumentován formou písemných politik, postupů a pokynů a obsahuje alespoň tyto aspekty:
a)
Uma estratégia para o cumprimento da regulamentação, incluindo a observância de procedimentos de avaliação da conformidade e de procedimentos de gestão de modificações do sistema de IA de risco elevado;
a)
strategii pro zajištění souladu s právními předpisy, včetně souladu s postupy posuzování shody a postupy pro řízení úprav daného vysoce rizikového systému AI;
b)
Técnicas, procedimentos e ações sistemáticas a utilizar para a conceção, controlo da conceção e verificação da conceção do sistema de IA de risco elevado;
b)
techniky, postupy a systematická opatření využívaná při vytváření, kontrole a ověřování návrhu vysoce rizikového systému AI;
c)
Técnicas, procedimentos e ações sistemáticas a utilizar para o desenvolvimento, controlo da qualidade e garantia da qualidade do sistema de IA de risco elevado;
c)
techniky, postupy a systematická opatření využívaná při vývoji, kontrole a zajišťování kvality daného vysoce rizikového systému AI;
d)
Procedimentos de exame, teste e validação a realizar antes, durante e após o desenvolvimento do sistema de IA de risco elevado e a frequência com a qual têm de ser realizados;
d)
postupy přezkoumání, testování a validace prováděné před vývojem vysoce rizikového systému AI, během něho a po něm, a četnost, s níž musí být prováděny;
e)
Especificações técnicas, incluindo normas, a aplicar e, se as normas harmonizadas em causa não forem aplicadas na íntegra, ou não abrangerem todos os requisitos pertinentes estabelecidos na secção 2, os meios a usar para assegurar que o sistema de IA de risco elevado cumpra esses requisitos;
e)
technické specifikace, včetně norem, které mají být uplatňovány, a pokud nejsou příslušné harmonizované normy uplatňovány v plném rozsahu nebo nepokrývají všechny příslušné požadavky stanovené v oddíle 2, prostředky, které mají být použity k zajištění toho, aby vysoce rizikový systém AI tyto požadavky splňoval;
f)
Sistemas e procedimentos de gestão de dados, incluindo aquisição de dados, recolha de dados, análise de dados, rotulagem de dados, armazenamento de dados, filtragem de dados, prospeção de dados, agregação de dados, conservação de dados e qualquer outra operação relativa aos dados que seja realizada antes e para efeitos da colocação no mercado ou colocação em serviço de sistemas de IA de risco elevado;
f)
systémy a postupy pro správu dat, včetně získávání, shromažďování, analýzy, označování, ukládání, filtrace, vytěžování, agregace a uchovávání dat a jakékoli další operace týkající se dat, které se provádějí před uvedením vysoce rizikových systémů AI na trh nebo do provozu a pro účely tohoto uvedení;
g)
O sistema de gestão de riscos a que se refere o artigo 9.o;
g)
systém řízení rizik podle článku 9;
h)
O estabelecimento, aplicação e manutenção de um sistema de acompanhamento pós-comercialização, nos termos do artigo 72.o;
h)
vytvoření, uplatňování a udržování systému monitorování po uvedení na trh v souladu s článkem 72;
i)
Procedimentos de comunicação de um incidente grave em conformidade com o artigo 73.o;
i)
postupy týkající se ohlašování závažného incidentu v souladu s článkem 73;
j)
A gestão da comunicação com autoridades nacionais competentes, outras autoridades pertinentes, incluindo as que disponibilizam ou apoiam o acesso a dados, organismos notificados, outros operadores, clientes ou outras partes interessadas;
j)
řešení komunikace s příslušnými vnitrostátními orgány, dalšími příslušnými orgány včetně těch, které zajišťují nebo podporují přístupu k datům, s oznámenými subjekty, s jinými provozovateli, se zákazníky nebo s jinými zúčastněnými stranami;
k)
Sistemas e procedimentos de manutenção de registos de toda a documentação e informação pertinente;
k)
systémy a postupy pro uchovávání záznamů o veškeré příslušné dokumentaci a informacích;
l)
Gestão de recursos, incluindo medidas relacionadas com a segurança do aprovisionamento;
l)
řízení zdrojů, včetně opatření souvisejících s bezpečností dodávek;
m)
Um regime que defina as responsabilidades do pessoal com funções de gestão e do restante pessoal no atinente a todos os aspetos elencados no presente número.
m)
rámec odpovědnosti stanovující odpovědnost vedení a ostatních zaměstnanců ve vztahu ke všem aspektům uvedeným v tomto odstavci.
2. A aplicação dos aspetos referidos no n.o 1 deve ser proporcionada à dimensão da organização do prestador. Os prestadores devem, em qualquer caso, respeitar o grau de rigor e o nível de proteção necessários para garantir a conformidade dos seus sistemas de IA de risco elevado com o presente regulamento.
2. Provádění aspektů uvedených v odstavci 1 je přiměřené velikosti organizace poskytovatele. Poskytovatelé za všech okolností dodržují míru přísnosti a úroveň ochrany, jež jsou nezbytné k tomu, aby jejich vysoce rizikové systémy AI byly v souladu s tímto nařízením.
3. Os prestadores de sistemas de IA de risco elevado sujeitos a obrigações relativas aos sistemas de gestão da qualidade ou a uma função equivalente nos termos da legislação setorial aplicável da União podem incluir os aspetos enumerados no n.o 1 como parte dos sistemas de gestão da qualidade estabelecidos nos termos dessa legislação.
3. Poskytovatelé vysoce rizikových systémů AI, na něž se vztahují povinnosti v souvislosti se systémy řízení kvality nebo rovnocennou funkcí podle příslušného odvětvového práva Unie, mohou zahrnout aspekty uvedené v odstavci 1 do systémů řízení kvality stanovených podle uvedeného práva.
4. Para os prestadores que sejam instituições financeiras sujeitas a requisitos em matéria de governação, mecanismos ou processos internos nos termos do direito da União no domínio dos serviços financeiros, considera-se que a obrigação de criar um sistema de gestão da qualidade, com exceção do n.o 1, alíneas g), h) e i) do presente artigo, é satisfeita mediante o cumprimento das regras em matéria de governação, mecanismos ou processos internos nos termos do direito da União aplicável no domínio dos serviços financeiros. Para o efeito, devem ser tidas em conta as eventuais normas harmonizadas a que se refere o artigo 40.o.
4. V případě poskytovatelů, kteří jsou finančními institucemi, na něž se vztahují požadavky týkající se jejich vnitřní správy, systémů nebo postupů podle práva Unie v oblasti finančních služeb, se povinnost zavést systém řízení kvality, s výjimkou odst. 1 písm. g), h) a i) tohoto článku, považuje za splněnou, jsou-li dodržena pravidla týkající se systémů nebo postupů vnitřní správy podle příslušného práva Unie v oblasti finančních služeb. Za tímto účelem se zohlední veškeré harmonizované normy uvedené v článku 40 tohoto nařízení.
Mandatários dos prestadores de sistemas de IA de risco elevado
Zplnomocněný zástupci poskytovatelů vysoce rizikových systémů AI
1. Antes de disponibilizarem os seus sistemas de IA de risco elevado no mercado da União, os prestadores estabelecidos em países terceiros devem, através de mandato escrito, designar um mandatário estabelecido na União.
1. Nežli poskytovatelé usazení ve třetích zemích dodají na trh Unie vysoce rizikové systémy AI, jmenují formou písemného pověření zplnomocněného zástupce usazeného v Unii.
2. O prestador deve habilitar o seu mandatário a desempenhar as funções especificadas no mandato conferido pelo prestador.
2. Poskytovatel umožní svému zplnomocněnému zástupci provádět úkoly vymezené v pověření, které od poskytovatele obdržel.
3. O mandatário deve desempenhar as funções especificadas no mandato conferido pelo prestador. Mediante pedido, o mandatário deve apresentar uma cópia do mandato às autoridades de fiscalização do mercado, numa das línguas oficiais das instituições da União indicada pela autoridade competente. Para efeitos do presente regulamento, o mandato habilita o mandatário a desempenhar as seguintes funções:
3. Zplnomocněný zástupce provádí úkoly vymezené v pověření, které od poskytovatele obdržel. Kopii pověření poskytne na požádání orgánům dozoru nad trhem v jednom z úředních jazyků orgánů Unie určeném příslušným orgánem. Pro účely tohoto nařízení zmocňuje pověření zplnomocněného zástupce k provádění těchto úkolů:
a)
Verificar se a declaração UE de conformidade referida no artigo 47.o e a documentação técnica a que se refere o artigo 11.o foram elaboradas e se o prestador efetuou um procedimento de avaliação da conformidade adequado;
a)
ověřit, zda bylo vypracováno EU prohlášení o shodě uvedené v článku 47 a technická dokumentace uvedená v článku 11 a zda poskytovatel provedl příslušný postup posuzování shody;
b)
Manter à disposição das autoridades competentes e das autoridades ou organismos nacionais a que se refere o artigo 74.o, n.o 10, durante os 10 anos subsequentes à data de colocação no mercado ou colocação em serviço do sistema de IA de risco elevado, os dados de contacto do prestador que designou o mandatário, uma cópia da declaração UE de conformidade referida no artigo 47.o, a documentação técnica e, se aplicável, o certificado emitido pelo organismo notificado;
b)
uchovávat pro potřebu příslušných orgánů a vnitrostátních orgánů či subjektů uvedených v čl. 74 odst. 10 po dobu deseti let od uvedení vysoce rizikového systému AI na trh nebo do provozu kontaktní údaje poskytovatele, který zplnomocněného zástupce jmenoval, kopii EU prohlášení o shodě uvedeného v článku 47, technickou dokumentaci a případně certifikát vydaný oznámeným subjektem;
c)
Prestar a uma autoridade competente, mediante pedido fundamentado, todas as informações e documentação, inclusive aquelas a que se refere a alínea b) do presente parágrafo, necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos na secção 2 do presente título, incluindo o acesso aos registos, conforme referido no artigo 12.o, n.o 1, gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos estejam sob o controlo do prestador;
c)
poskytnout příslušnému orgánu na odůvodněnou žádost veškeré informace a dokumentaci, včetně informací a dokumentů uvedených v písmenu b) tohoto pododstavce, jež jsou nezbytné k prokázání shody vysoce rizikového systému AI s požadavky stanovenými v oddíle 2, včetně přístupu k protokolům, uvedeným v čl. 12 odst. 1, které daný vysoce rizikový systém AI automaticky generuje, a to v rozsahu, v jakém jsou tyto protokoly pod kontrolou poskytovatele;
d)
Cooperar com as autoridades competentes, mediante pedido fundamentado, em qualquer ação que estas empreendam em relação ao sistema de IA de risco elevado, nomeadamente para reduzir e atenuar os riscos colocados pelo mesmo;
d)
spolupracovat s příslušnými orgány, na základě odůvodněné žádosti, na veškerých opatřeních, která takový orgán v souvislosti s daným vysoce rizikovým systémem AI přijme, zejména za účelem snížení a zmírnění rizik, která vysoce rizikový systém AI představuje;
e)
Se for o caso, cumprir as obrigações de registo a que se refere o artigo 49.o, n.o 1, ou, se o registo for efetuado pelo próprio prestador, assegurar que as informações a que se refere o ponto 3 da secção A do anexo VIII, estejam corretas.
e)
případně splnit povinnosti registrace uvedené v čl. 49 odst. 1, nebo pokud registraci provádí sám poskytovatel, zajistit, aby informace uvedené v příloze VIII oddíle A bodu 3 byly správné.
O mandato habilita o mandatário a ser contactado, em complemento ou em alternativa ao prestador, pelas autoridades competentes, sobre todas as questões relacionadas com a garantia do cumprimento do presente regulamento.
Toto pověření zmocňuje zplnomocněného zástupce k tomu, aby se na něj vedle poskytovatele nebo namísto něj obracely příslušné orgány ve všech otázkách týkajících se zajištění souladu s tímto nařízením.
4. O mandatário põe termo ao mandato se considerar ou tiver razões para considerar que o prestador age de forma contrária às obrigações que lhe incumbem por força do presente regulamento. Nesse caso, informa de imediato a pertinente autoridade de fiscalização do mercado, bem como, se for caso disso, o organismo notificado pertinente, da cessação do mandato e da respetiva justificação.
4. Pokud se zplnomocněný zástupce domnívá nebo má důvod se domnívat, že poskytovatel jedná v rozporu se svými povinnostmi podle tohoto nařízení, předmětné pověření ukončí. V takovém případě rovněž neprodleně informuje relevantní orgán dozoru nad trhem, a případně příslušný oznámený subjekt o ukončení pověření a jeho důvodech.
Obrigações dos importadores
1. Antes de colocarem um sistema de IA de risco elevado no mercado, os importadores devem assegurar-se de que o sistema está em conformidade com o presente regulamento, verificando se:
1. Před uvedením vysoce rizikového systému AI na trh dovozci zajistí, aby byl systém v souladu s tímto nařízením, a v tomto ohledu ověří, že:
a)
O prestador do sistema de IA de risco elevado realizou o procedimento de avaliação da conformidade pertinente a que se refere o artigo 43.o;
a)
poskytovatel daného vysoce rizikového systému AI provedl příslušný postup posuzování shody uvedený v článku 43;
b)
O prestador elaborou a documentação técnica em conformidade com o artigo 11.o e o anexo IV;
b)
poskytovatel vypracoval technickou dokumentaci v souladu s článkem 11 a přílohou IV;
c)
O sistema ostenta a marcação CE exigida e está acompanhado da declaração UE de conformidade referida no artigo 47.o e das instruções de utilização;
c)
systém nese požadované označení CE a je k němu přiloženo EU prohlášení o shodě uvedené v článku 47 a návod k použití;
d)
O prestador designou um mandatário em conformidade com o artigo 22.o, n.o 1.
d)
poskytovatel jmenoval zplnomocněného zástupce v souladu s čl. 22 odst. 1.
2. Se um importador tiver motivos suficientes para crer que um sistema de IA de risco elevado não está em conformidade com o presente regulamento, ou é falsificado ou acompanhado de documentação falsificada, não pode colocar o sistema no mercado enquanto não for reposta a conformidade. Se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 79.o, n.o 1, o importador deve informar desse facto o prestador do sistema, os mandatários e as autoridades de fiscalização do mercado.
2. Má-li dovozce dostatečný důvod se domnívat, že určitý vysoce rizikový systém AI není ve shodě s tímto nařízením nebo že je zfalšovaný či je k němu připojena zfalšovaná dokumentace, neuvede tento systém na trh, dokud nebude uveden ve shodu. Pokud daný vysoce rizikový systém AI představuje riziko ve smyslu čl. 79 odst. 1, dovozce o této skutečnosti informuje poskytovatele systému, zplnomocněné zástupce a orgány dozoru nad trhem.
3. Os importadores devem indicar o seu nome, nome comercial registado ou marca registada e endereço no qual podem ser contactados no sistema de IA de risco elevado e na respetiva embalagem ou na documentação que o acompanha, quando aplicável.
3. Dovozci případně uvedou na obalu nebo v dokumentaci, která je k vysoce rizikovému systému AI přiložena, svoje jméno, zapsaný obchodní název nebo zapsanou ochrannou známku a adresu, na které je lze kontaktovat.
4. Enquanto um sistema de IA de risco elevado estiver sob a responsabilidade dos importadores, estes devem assegurar que as condições de armazenamento ou de transporte, se for caso disso, não prejudicam a conformidade do sistema com os requisitos enunciados na secção 2.
4. Dovozci zajistí, aby v době, kdy nesou za vysoce rizikový systém AI odpovědnost, skladovací nebo přepravní podmínky případně neohrožovaly jeho soulad s požadavky stanovenými v oddíle 2.
5. Os importadores devem conservar, durante os 10 anos subsequentes à data de colocação no mercado ou colocação em serviço do sistema de IA de risco elevado, uma cópia do certificado emitido pelo organismo notificado, quando aplicável, das instruções de utilização e da declaração UE de conformidade referida no artigo 47.o.
5. Dovozci uchovávají po dobu deseti let od uvedení vysoce rizikového systému AI na trh nebo do provozu kopii případného certifikátu vydaného oznámeným subjektem o návodu k použití a EU prohlášení o shodě uvedeného v článku 47.
6. Os importadores devem prestar às pertinentes autoridades competentes, mediante pedido fundamentado, todas as informações e documentação necessárias, inclusive as referidas no n.o 5, para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos na secção 2, numa língua que possa ser facilmente compreendida pelas autoridades. Para o efeito, asseguram igualmente que a documentação técnica possa ser disponibilizada a essas autoridades.
6. Dovozci poskytnou relevantním příslušným orgánům na odůvodněnou žádost veškeré informace a dokumentaci, včetně informací a dokumentů podle odstavce 5, jež jsou nezbytné k prokázání shody vysoce rizikového systému AI s požadavky stanovenými v oddíle 2 v jazyce, který je takovým orgánům snadno srozumitelný. Za tímto účelem rovněž zajistí, aby těmto orgánům mohla být zpřístupněna technická dokumentace.
7. Os importadores devem cooperar com as pertinentes autoridades competentes em todas as medidas que essas autoridades tomarem em relação a um sistema de IA de risco elevado colocados no mercado pelos importadores, nomeadamente para reduzir ou atenuar o risco colocado pelo sistema.
7. Dovozci spolupracují s relevantními příslušnými orgány na veškerých opatřeních, která tyto orgány přijmou v souvislosti s vysoce rizikovým systémem AI, jejž dovozci uvedli na trh, zejména za účelem snížení a zmírnění rizik, která tento systém představuje.
Obrigações dos distribuidores
1. Antes de disponibilizarem um sistema de IA de risco elevado no mercado, os distribuidores devem verificar se o sistema de IA de risco elevado ostenta a marcação CE exigida, se está acompanhado de uma cópia da declaração UE de conformidade referida no artigo 47.o e das instruções de utilização e se o prestador e o importador desse sistema, consoante o caso, cumpriram as suas obrigações estabelecidas no artigo 16.o, alíneas b) e c) e no artigo 23.o, n.o 3.
1. Před dodáním vysoce rizikového systému AI na trh distributoři ověří, zda je na daném systému umístěno požadované označení CE, zda je k němu přiloženo EU prohlášení o shodě uvedené v článku 47 a návod k použití a zda poskytovatel a případně dovozce systému splnili své příslušné povinnosti stanovené v čl. 16. písm. b) a c) a v čl. 23 odst. 3.
2. Se um distribuidor considerar ou tiver motivos para crer, com base nas informações que possui, que um sistema de IA de risco elevado não está em conformidade com os requisitos estabelecidos na secção 2, não pode disponibilizar esse sistema de IA de risco elevado no mercado enquanto não for reposta a conformidade com os referidos requisitos. Além disso, se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 79.o, n.o 1, o distribuidor deve informar desse facto o prestador ou o importador do sistema, conforme o caso.
2. Domnívá-li se distributor nebo má-li důvod se domnívat, na základě informací, které má k dispozici, že vysoce rizikový systém AI není ve shodě s požadavky stanovenými v oddíle 2, nedodá tento vysoce rizikový systém AI na trh, dokud nebude uveden s těmito požadavky ve shodu. Pokud navíc tento vysoce rizikový systém AI představuje riziko ve smyslu čl. 79 odst. 1, distributor o této skutečnosti informuje poskytovatele, případně dovozce tohoto systému.
3. Enquanto um sistema de IA de risco elevado estiver sob a responsabilidade dos distribuidores, estes devem assegurar que as condições de armazenamento ou de transporte, se for caso disso, não prejudiquem a conformidade do sistema com os requisitos enunciados na secção 2.
3. Distributoři zajistí, aby v době, kdy nesou za vysoce rizikový systém AI odpovědnost, skladovací nebo přepravní podmínky v příslušných případech neohrožovaly jeho soulad s požadavky stanovenými v oddíle 2.
4. Um distribuidor que considere ou tenha motivos para crer, com base nas informações que possui, que um sistema de IA de risco elevado que disponibilizou no mercado não está em conformidade com os requisitos estabelecidos na secção 2 deve tomar as medidas corretivas necessárias para repor a conformidade desse sistema com os referidos requisitos, proceder à retirada ou recolha do mesmo ou assegurar que o prestador, o importador ou qualquer operador envolvido, consoante o caso, tome essas medidas corretivas. Se um sistema de IA de risco elevado apresentar um risco na aceção do artigo 79.o, n.o 1, o distribuidor deve informar imediatamente desse facto o prestador ou o importador do sistema e as autoridades competentes para o sistema de IA de risco elevado em causa, apresentando dados, sobretudo no que se refere à não conformidade e às medidas corretivas tomadas.
4. Distributor, který se na základě informací, které má k dispozici, domnívá nebo má důvod se domnívat, že vysoce rizikový systém AI, který dodal na trh, není ve shodě s požadavky stanovenými v oddíle 2, přijme nápravná opatření nezbytná k uvedení tohoto systému ve shodu s těmito požadavky nebo k jeho stažení z trhu či z oběhu, případně zajistí, aby tato nápravná opatření přijal poskytovatel, dovozce nebo jakýkoli příslušný provozovatel. Představuje-li vysoce rizikový systém AI riziko ve smyslu čl. 79 odst. 1, distributor okamžitě informuje poskytovatele nebo dovozce systému a orgány příslušné pro dotčený vysoce rizikový systém AI, přičemž uvede podrobnosti, zejména o nesouladu a o veškerých přijatých nápravných opatřeních.
5. Mediante pedido fundamentado de uma pertinente autoridade competente, os distribuidores de um sistema de IA de risco elevado prestam a essa autoridade todas as informações e documentação relativas às suas atividades previstas nos n.os 1 a 4 que sejam necessárias para demonstrar a conformidade desse sistema com os requisitos estabelecidos na secção 2.
5. Na odůvodněnou žádost relevantního příslušného orgánu poskytnou distributoři vysoce rizikového systému AI tomuto orgánu všechny informace a dokumentaci týkající se jimi přijatých opatření podle odstavců 1 až 4, které jsou nezbytné k prokázání shody tohoto systému s požadavky stanovenými v oddíle 2.
6. Os distribuidores devem cooperar com as pertinentes autoridades competentes em todas as medidas que essas autoridades tomarem em relação a um sistema de IA de risco elevado disponibilizado no mercado pelos distribuidores, nomeadamente para reduzir ou atenuar o risco colocado pelo sistema.
6. Distributoři spolupracují s relevantními příslušnými orgány na veškerých opatřeních, která tyto orgány přijmou v souvislosti s vysoce rizikovým systémem AI, jejž distributoři dodali na trh, zejména za účelem snížení či zmírnění rizik, která tento systém představuje.
Responsabilidades ao longo da cadeia de valor da IA
Povinnosti v celém hodnotovém řetězci AI
1. Qualquer distribuidor, importador, responsável pela implantação ou outro terceiro é considerado um prestador de um sistema de IA de risco elevado para efeitos do presente regulamento e fica sujeito às obrigações dos prestadores estabelecidas no artigo 16.o em qualquer uma das seguintes circunstâncias:
1. Jakýkoli distributor, dovozce, zavádějící subjekt nebo jiná třetí strana se pro účely tohoto nařízení považují za poskytovatele vysoce rizikového systému AI a vztahují se na ně povinnosti poskytovatele podle článku 16, pokud nastane kterákoli z následujících okolností:
a)
Se colocar o seu nome ou marca num sistema de IA de risco elevado já colocado no mercado ou colocado em serviço, sem prejuízo de disposições contratuais que estipulem uma atribuição diferente das obrigações;
a)
uvedli své jméno, název nebo ochrannou známku na vysoce rizikovém systému AI, který již byl uveden na trh nebo do provozu, aniž jsou dotčena smluvní ujednání, která stanoví, že povinnosti jsou rozděleny jiným způsobem;
b)
Se introduzir uma modificação substancial num sistema de IA de risco elevado que já tenha sido colocado no mercado ou colocado em serviço, de forma que o mesmo continue a ser um sistema de IA de risco elevado nos termos do artigo 6.o;
b)
provádějí podstatnou změnu vysoce rizikového systému AI, který je již uveden na trh nebo je již uveden do provozu, a to tak, že zůstává vysoce rizikovým systémem AI v souladu s článkem 6;
c)
Se modificar a finalidade prevista de um sistema de IA, incluindo um sistema de IA de finalidade geral, que não tenha sido classificado como sendo de risco elevado e que já tenha sido colocado no mercado ou colocado em serviço, de forma que o sistema de IA em causa se torne um sistema de IA de risco elevado nos termos do artigo 6.o.
c)
mění zamýšlený účel systému AI, včetně obecného systému AI, který nebyl klasifikován jako vysoce rizikový a je již uveden na trh nebo do provozu takovým způsobem, že se dotčený systém AI stane vysoce rizikovým systémem AI v souladu s článkem 6.
2. Sempre que se verificarem as circunstâncias a que se refere o n.o 1, o prestador que inicialmente colocou no mercado ou colocou em serviço o sistema de IA deixa de ser considerado um prestador desse sistema de IA específico para efeitos do presente regulamento. Esse prestador inicial deve cooperar estreitamente com novos prestadores, disponibilizar as informações necessárias e facultar o acesso técnico e a assistência razoavelmente esperados e necessários para o cumprimento das obrigações estabelecidas no presente regulamento, em especial no que diz respeito ao cumprimento da avaliação da conformidade dos sistemas de IA de risco elevado. O presente número não se aplica nos casos em que o prestador inicial tenha especificado claramente que o seu sistema de IA não deve ser alterado para um sistema de IA de risco elevado, não estando assim sujeito à obrigação de entregar a documentação.
2. Pokud nastanou okolnosti uvedené v odstavci 1, poskytovatel, který původně uvedl systém AI na trh nebo do provozu, není pro účely tohoto nařízení již nadále považován za poskytovatele tohoto konkrétního systému AI. Tento původní poskytovatel úzce spolupracuje s novými poskytovateli a zpřístupní nezbytné informace a poskytne přiměřeně očekávaný technický přístup a další pomoc, které jsou nezbytné pro plnění povinností stanovených v tomto nařízení, zejména pokud jde o soulad s posuzováním shody vysoce rizikových systémů AI. Tento odstavec se nepoužije v případech, kdy původní poskytovatel jasně stanovil, že jeho systém AI nemá být změněn na vysoce rizikový systém AI, a proto se na něj nevztahuje povinnost předložit dokumentaci.
3. No caso dos sistemas de IA de risco elevado que sejam componentes de segurança de produtos abrangidos pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção A, o fabricante desses produtos é considerado o prestador do sistema de IA de risco elevado e fica sujeito às obrigações estabelecidas no artigo 16.o, caso se verifique uma das seguintes circunstâncias:
3. V případě vysoce rizikových systémů AI, které jsou bezpečnostními komponentami produktů, na něž se vztahují harmonizační právní předpisy Unie uvedené v příloze I oddíle A, se za poskytovatele vysoce rizikového systému AI považuje výrobce produktů, na nějž se pak vztahují povinnosti stanovené v článku 16 v případě, že nastane jedna z těchto situací:
a)
O sistema de IA de risco elevado é colocado no mercado juntamente com o produto sob o nome ou marca do fabricante do produto;
a)
vysoce rizikový systém AI je uváděn na trh společně s výrobkem pod jménem, názvem nebo ochrannou známkou výrobce produktu;
b)
O sistema de IA de risco elevado é colocado em serviço sob o nome ou marca do fabricante do produto, depois de o produto ter sido colocado no mercado.
b)
vysoce rizikový systém AI je uveden do provozu pod jménem, názvem nebo ochrannou známkou výrobce produktu poté, co byl výrobek uveden na trh.
4. O prestador de um sistema de IA de risco elevado e o terceiro que disponibilize um sistema de IA, ferramentas, serviços, componentes ou processos que sejam utilizados ou integrados num sistema de IA de risco elevado devem, mediante acordo escrito, especificar as informações necessárias, as capacidades, o acesso técnico e demais assistência, com base no estado da arte geralmente reconhecido, a fim de permitir que o prestador do sistema de IA de risco elevado cumpra plenamente as obrigações estabelecidas no presente regulamento. O presente número não se aplica a terceiros que disponibilizem ao público ferramentas, serviços, processos ou componentes que não sejam modelos de IA de finalidade geral, ao abrigo de uma licença gratuita e aberta.
4. Poskytovatel vysoce rizikového systému AI a třetí strana, která dodává systém AI, nástroje, služby, komponenty nebo procesy, které jsou v tomto vysoce rizikovém systému AI používány nebo jsou do něj zabudovány, upřesní prostřednictvím písemné dohody nezbytné informace, schopnosti, technický přístup a jinou pomoc na základě obecně uznávaného stavu techniky, aby poskytovatel vysoce rizikového systému AI mohl v plném rozsahu plnit povinnosti stanovené v tomto nařízení. Tento odstavec se nevztahuje na třetí strany, které na základě svobodné a otevřené licence zpřístupňují veřejnosti jiné nástroje, služby, procesy nebo komponenty, než jsou obecné modely AI.
O Serviço para a IA pode desenvolver e recomendar modelos de cláusulas contratuais voluntários entre prestadores de sistemas de IA de risco elevado e terceiros que disponibilizem ferramentas, serviços, componentes ou processos utilizados ou integrados em sistemas de IA de risco elevado. Ao elaborar esses modelos de cláusulas voluntários, o Serviço para a IA deve ter em conta eventuais requisitos contratuais aplicáveis em setores ou casos comerciais específicos. Os modelos de cláusulas voluntários devem ser publicados e disponibilizados gratuitamente num formato eletrónico facilmente utilizável.
Úřad pro AI může vypracovat a doporučit dobrovolné vzorové podmínky smluv uzavíraných mezi poskytovateli vysoce rizikových systémů AI a třetími stranami, které dodávají nástroje, služby, komponenty nebo procesy, které jsou používány nebo integrovány do vysoce rizikových systémů AI. Při vypracovávání těchto dobrovolných vzorových podmínek zohlední úřad pro AI možné smluvní požadavky uplatňované v konkrétních odvětvích nebo obchodních případech. Tyto dobrovolné vzorové podmínky se zveřejní a bezplatně zpřístupní ve snadno použitelném elektronickém formátu.
5. Os n.os 2 e 3 não prejudicam a necessidade de respeitar e proteger os direitos de propriedade intelectual, as informações comerciais de caráter confidencial e os segredos comerciais, em conformidade com o direito da União e o direito nacional.
5. Odstavci 2 a 3 není dotčena potřeba dodržovat a chránit práva duševního vlastnictví, důvěrné obchodní informace a obchodní tajemství v souladu s právem Unie a vnitrostátním právem.
Obrigações dos responsáveis pela implantação de sistemas de IA de risco elevado
Povinnosti zavádějících subjektů vysoce rizikových systémů AI
1. Os responsáveis pela implantação de sistemas de IA de risco elevado devem tomar medidas técnicas e organizativas adequadas para garantir que utilizam esses sistemas de acordo com as instruções de utilização que os acompanham, nos termos dos n.os 3 e 6.
1. Subjekty zavádějící vysoce rizikové systémy AI přijmou vhodná technická a organizační opatření s cílem zajistit, že tyto systémy budou používány v souladu s návodem k použití přiloženým k těmto systémům na základě odstavců 3 a 6.
2. Os responsáveis pela implantação devem atribuir a supervisão humana a pessoas singulares que possuam as competências, a formação e a autoridade necessárias, bem como o apoio necessário.
2. Zavádějící subjekty pověří lidským dohledem fyzické osoby, které k tomu mají nezbytnou způsobilost, odbornou přípravu a pravomoc, jakož i potřebnou podporu.
3. As obrigações estabelecidas nos n.os 1 e 2 não excluem outras obrigações do responsável pela implantação previstas no direito da União ou no direito nacional nem prejudicam a liberdade do responsável pela implantação para organizar os seus próprios recursos e atividades para efeitos de aplicação das medidas de supervisão humana indicadas pelo prestador.
3. Povinnostmi uvedenými v odstavcích 1 a 2 nejsou dotčeny ostatní povinnosti zavádějících subjektů podle práva Unie nebo vnitrostátního práva ani volnost zavádějících subjektů při organizaci vlastních zdrojů a činností za účelem provádění opatření v oblasti lidského dohledu uvedených poskytovatelem.
4. Sem prejuízo do disposto nos n.os 1 e 2, na medida em que o responsável pela implantação exercer controlo sobre os dados de entrada, deve assegurar que os dados de entrada sejam pertinentes e suficientemente representativos tendo em vista a finalidade prevista do sistema de IA de risco elevado.
4. Aniž jsou dotčeny odstavce 1 a 2, zavádějící subjekt zajistí v rozsahu, v jakém vykonává kontrolu nad vstupními údaji, aby s ohledem na zamýšlený účel vysoce rizikového systému AI byla vstupní data relevantní a dostatečně reprezentativní.
5. Os responsáveis pela implantação devem controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização e, se for caso disso, informam os prestadores em conformidade com o artigo 72.o. Se os responsáveis pela implantação tiverem motivos para considerar que a utilização do sistema de IA de risco elevado de acordo com as instruções pode conduzir a que aquele sistema de IA represente um risco na aceção do artigo 79.o, n.o 1, devem informar, sem demora injustificada, o prestador ou distribuidor e a autoridade de fiscalização do mercado competente e suspender a utilização do sistema. Sempre que os responsáveis pela implantação tenham identificado um incidente grave, devem também informar imediatamente desse incidente, em primeiro lugar, o prestador e, em seguida, o importador ou distribuidor e as autoridades de fiscalização do mercado competentes. Se o responsável pela implantação não conseguir entrar em contacto com o prestador, aplica-se, mutatis mutandis, o artigo 73.o. Esta obrigação não abrange os dados operacionais sensíveis dos responsáveis pela implantação de sistemas de IA que sejam autoridades responsáveis pela aplicação da lei.
5. Zavádějící subjekty monitorují provoz vysoce rizikového systému AI na základě návodu k použití a v příslušných případech informují poskytovatele v souladu s článkem 72. Mají-li zavádějící subjekty důvod se domnívat, že používání vysoce rizikového systému AI v souladu s návodem k použití může založit riziko spojené se systémem AI ve smyslu čl. 79 odst. 1, bez zbytečného odkladu o této skutečnosti uvědomí poskytovatele nebo distributora a příslušné orgány dozoru nad trhem a používání systému pozastaví. Zjistí-li zavádějící subjekty závažný incident, neprodleně o tomto incidentu informují nejprve poskytovatele a poté dovozce nebo distributora a příslušné orgány dozoru nad trhem. V případě, že se zavádějícímu subjektu nepodaří poskytovatele kontaktovat, použije se obdobně článek 73. Tato povinnost se nevztahuje na citlivé operativní údaje subjektů zavádějících systémy AI, kteří jsou donucovacími orgány.
Para os responsáveis pela implantação que sejam instituições financeiras sujeitas a requisitos em matéria de governação, mecanismos ou processos internos nos termos do direito da União no domínio dos serviços financeiros, considera-se que a obrigação de controlo estabelecida no primeiro parágrafo é satisfeita mediante o cumprimento das regras em matéria de governação, mecanismos ou processos internos nos termos da legislação aplicável no domínio dos serviços financeiros.
V případě zavádějících subjektů, které jsou finančními institucemi, na něž se vztahují požadavky týkající se jejich vnitřní správy, systémů nebo postupů podle práva Unie v oblasti finančních služeb, se povinnost monitorování stanovená v prvním pododstavci považuje za splněnou, jsou-li dodržena pravidla týkající se systémů, postupů a mechanismů vnitřní správy podle příslušného práva Unie v oblasti finančních služeb.
6. Os responsáveis pela implantação de sistemas de IA de risco elevado devem manter os registos gerados automaticamente por esse sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo, por um período adequado à finalidade prevista do sistema de IA de risco elevado, de pelo menos seis meses, salvo disposição em contrário no direito da União ou no direito nacional aplicável, em especial no direito da União em matéria de proteção de dados pessoais.
6. Subjekty zavádějící vysoce rizikové systémy AI uchovávají protokoly automaticky generované tímto vysoce rizikovým systémem AI v rozsahu, v jakém jsou tyto protokoly pod jejich kontrolou, po dobu odpovídající zamýšlenému účelu vysoce rizikového systému AI, jež není kratší než šest měsíců, pokud platné unijní nebo vnitrostátní právo, zejména právo Unie o ochraně osobních údajů, nestanoví jinak.
Os responsáveis pela implantação que sejam instituições financeiras sujeitas a requisitos em matéria de governação, mecanismos ou processos internos nos termos do direito da União no domínio dos serviços financeiros devem manter os registos como parte da documentação conservada nos termos do direito da União aplicável no domínio dos serviços financeiros.
Zavádějící subjekty, které jsou finančními institucemi, na něž se vztahují požadavky týkající se jejich vnitřní správy, systémů nebo postupů podle práva Unie v oblasti finančních služeb, uchovávají protokoly jako součást dokumentace vedené podle příslušného práva Unie v oblasti finančních služeb.
7. Antes da colocação em serviço ou da utilização de um sistema de IA de risco elevado no local de trabalho, os responsáveis pela implantação que sejam empregadores devem informar os representantes dos trabalhadores e os trabalhadores afetados de que estarão sujeitos à utilização do sistema de IA de risco elevado. Essas informações devem ser prestadas, se for o caso, em conformidade com as regras e os procedimentos estabelecidos na legislação e nas práticas da União e nacionais em matéria de informação dos trabalhadores e dos seus representantes.
7. Zavádějící subjekty, jež jsou zaměstnavateli, před uvedením do provozu nebo používáním vysoce rizikového systému AI na pracovišti informují zástupce zaměstnanců a dotčené pracovníky, že budou používání vysoce rizikového systému AI vystaveni. Tyto informace se případně poskytují jednak v souladu s pravidly a postupy stanovenými v právu Unie a vnitrostátním právu, a jednak v souladu se zvyklostmi pro informování pracovníků a jejich zástupců.
8. Os responsáveis pela implantação de sistemas de IA de risco elevado que sejam autoridades públicas ou instituições, órgãos ou organismos da União devem cumprir as obrigações de registo referidas no artigo 49.o. Se esses responsáveis pela implantação verificarem que o sistema de IA de risco elevado que tencionam utilizar não foi registado na base de dados da UE a que se refere o artigo 71.o, não podem utilizar esse sistema e devem informar o prestador ou o distribuidor.
8. Subjekty zavádějící vysoce rizikové systémy AI, jež jsou veřejnými orgány nebo orgány, institucemi nebo jinými subjekty Unie, plní povinnosti registrace uvedené v článku 49. Pokud tyto zavádějící subjekty zjistí, že vysoce rizikový systém AI, který hodlají používat, nebyl zaregistrován v databázi EU uvedené v článku 71, pak tento systém nepoužijí a informují o této skutečnosti poskytovatele nebo distributora.
9. Se for o caso, os responsáveis pela implantação de sistemas de IA de risco elevado devem usar as informações recebidas nos termos do artigo 13.o do presente regulamento para cumprirem a sua obrigação de realizar uma avaliação de impacto sobre a proteção de dados nos termos do artigo 35.o do Regulamento (UE) 2016/679 ou do artigo 27.o da Diretiva (UE) 2016/680.
9. Subjekty zavádějící vysoce rizikové systémy AI v příslušných případech použijí informace poskytnuté podle článku 13 ke splnění své povinnosti provést posouzení vlivu na ochranu osobních údajů podle článku 35 nařízení (EU) 2016/679 nebo podle článku 27 směrnice (EU) 2016/680.
10. Sem prejuízo da Diretiva (UE) 2016/680, no âmbito de uma investigação seletiva de uma pessoa suspeita ou condenada por ter cometido uma infração penal, o responsável pela implantação de um sistema de IA de risco elevado destinado à identificação biométrica à distância em diferido deve solicitar uma autorização, prévia ou sem demora injustificada e no prazo máximo de 48 horas, a uma autoridade judiciária ou uma autoridade administrativa cuja decisão seja vinculativa e esteja sujeita a controlo jurisdicional, para a utilização desse sistema, exceto quando este seja utilizado para a identificação inicial de um potencial suspeito com base em factos objetivos e verificáveis diretamente relacionados com a infração. Cada utilização deve limitar-se ao estritamente necessário para a investigação de uma infração penal específica.
10. Aniž je dotčena směrnice (EU) 2016/680, subjekt zavádějící vysoce rizikový systém AI pro následnou biometrickou identifikaci na dálku v rámci pátrání za účelem cíleného vyhledávání osoby podezřelé ze spáchání trestného činu nebo odsouzené za trestný čin požádá, buď předem, nebo bez zbytečného odkladu a nejpozději do 48 hodin, justiční orgán nebo správní orgán, jehož rozhodnutí je závazné a podléhá soudnímu přezkumu, o povolení použít daný systém, s výjimkou případů, kdy se tento systém používá k prvotní identifikaci potenciálního podezřelého na základě objektivních a ověřitelných skutečností přímo souvisejících s trestným činem. Každé použití je omezeno na to, co je nezbytně nutné pro vyšetřování konkrétního trestného činu.
Se a autorização solicitada nos termos do primeiro parágrafo for rejeitada, a utilização do sistema de identificação biométrica à distância em diferido associado a essa autorização solicitada deve ser interrompida com efeitos imediatos e os dados pessoais relacionados com a utilização do sistema de IA de risco elevado para o qual a autorização foi solicitada devem ser apagados.
Je-li povolení, o něž je požádáno podle prvního pododstavce, zamítnuto, používání systému pro následnou biometrickou identifikaci na dálku spojeného s tímto požadovaným povolením se s okamžitým účinkem ukončí a osobní údaje spojené s používáním daného vysoce rizikového systému AI, pro který bylo o povolení požádáno, se vymažou.
Em nenhuma circunstância esse sistema de IA de risco elevado destinado à identificação biométrica à distância em diferido pode ser utilizado para fins de aplicação da lei de forma não seletiva, sem qualquer ligação a uma infração penal, a um processo penal, a uma ameaça real e presente ou real e previsível de uma infração penal ou à busca de uma determinada pessoa desaparecida. Deve garantir-se que nenhuma decisão que produza efeitos jurídicos prejudiciais a uma pessoa possa ser tomada pelas autoridades responsáveis pela aplicação da lei exclusivamente com base nos resultados destes sistemas de identificação biométrica à distância em diferido.
V žádném případě nesmí být tento vysoce rizikový systém AI pro následnou biometrickou identifikaci na dálku používán pro účely vymáhání práva necíleným způsobem, bez jakékoli souvislosti s určitým trestným činem, trestním řízením, skutečnou a aktuální nebo skutečnou a předvídatelnou hrozbou trestného činu nebo pátráním po konkrétní pohřešované osobě. Zajistí se, aby donucovací orgány nemohly výlučně na základě výstupu těchto systémů pro následnou biometrickou identifikaci na dálku přijmout žádné rozhodnutí, které má pro danou osobu nepříznivé právní účinky.
O presente número não prejudica o artigo 9.o do Regulamento (UE) 2016/679 nem o artigo 10.o da Diretiva (UE) 2016/680 no que diz respeito ao tratamento de dados biométricos.
Tímto odstavcem není dotčen článek 9 nařízení (EU) 2016/679 a článek 10 směrnice (EU) 2016/680, pokud jde o zpracování biometrických údajů.
Independentemente da finalidade ou do responsável pela implantação, cada utilização destes sistemas de IA de risco elevado deve ser registada na documentação policial pertinente e disponibilizada à autoridade de fiscalização do mercado competente e à autoridade nacional de proteção de dados, mediante pedido, excluindo a divulgação de dados operacionais sensíveis relacionados com a aplicação da lei. O presente parágrafo não prejudica os poderes conferidos pela Diretiva (UE) 2016/680 às autoridades de controlo.
Bez ohledu na účel nebo zavádějící subjekt je každé použití těchto vysoce rizikových systémů AI zdokumentováno v příslušném policejním spisu a na požádání zpřístupněno příslušnému orgánu dozoru nad trhem a vnitrostátnímu orgánu pro ochranu osobních údajů, s výjimkou uvedení citlivých operativních údajů týkajících se vymáhání práva. Tímto pododstavcem nejsou dotčeny pravomoci, které směrnice (EU) 2016/680 svěřuje dozorovým orgánům.
Os responsáveis pela implantação devem apresentar relatórios anuais às autoridades nacionais de fiscalização do mercado e às autoridades nacionais de proteção de dados competentes sobre a utilização que dão dos sistemas de identificação biométrica à distância em diferido, excluindo a divulgação de dados operacionais sensíveis relacionados com a aplicação da lei. Os relatórios podem ser agregados para abranger mais do que uma implantação.
Zavádějící subjekty předkládají příslušným orgánům dozoru nad trhem a vnitrostátním orgánům pro ochranu osobních údajů výroční zprávy, v níž je uvedeno, jak systémy pro následnou biometrickou identifikaci na dálku používají, s výjimkou uvedení citlivých operativních údajů týkajících se vymáhání práva. Zprávy je možné vypracovat souhrnně tak, aby se vztahovali k více než jednomu zavedení systému.
Os Estados-Membros podem introduzir, em conformidade com o direito da União, legislação mais restritiva sobre a utilização de sistemas de identificação biométrica à distância em diferido.
Členské státy mohou v souladu s právem Unie zavést přísnější právní předpisy týkající se používání systémů pro následnou biometrickou identifikaci na dálku.
11. Sem prejuízo do artigo 50.o do presente regulamento, os responsáveis pela implantação de sistemas de IA de risco elevado referidos no anexo III, que tomam decisões ou ajudam a tomar decisões relacionadas com pessoas singulares, devem informar as pessoas singulares de que estão sujeitas à utilização do sistema de IA de risco elevado. Para os sistemas de IA de risco elevado utilizados para fins de aplicação da lei, aplica-se o artigo 13.o da Diretiva (UE) 2016/680.
11. Aniž je dotčen článek 50 tohoto nařízení, subjekty zavádějící vysoce rizikové systémy AI uvedené v příloze III, které přijímají rozhodnutí nebo pomáhají při přijímání rozhodnutí týkajících se fyzických osob, tyto fyzické osoby informují, že jsou použití vysoce rizikového systému AI vystaveny. Na vysoce rizikové systémy AI používané pro účely vymáhání práva se použije článek 13 směrnice (EU) 2016/680.
12. Os responsáveis pela implantação devem cooperar com as autoridades competentes em todas as medidas que essas autoridades tomarem em relação a um sistema de IA de risco elevado, a fim de aplicar o presente regulamento.
12. Zavádějící subjekty spolupracují s příslušnými orgány na veškerých opatřeních, která tyto orgány v souvislosti s vysoce rizikovým systémem AI přijmou za účelem provádění tohoto nařízení.
Avaliação de impacto dos sistemas de IA de risco elevado sobre os direitos fundamentais
Posouzení dopadu vysoce rizikových systémů AI na základní práva
1. Antes de implementarem um sistema de IA de risco elevado a que se refere o artigo 6.o, n.o 2, à exceção dos sistemas de IA de risco elevado destinados a ser utilizados nos domínios enumerados no anexo III, ponto 2, os responsáveis pela implantação que sejam organismos de direito público, ou entidades privadas que prestam serviços públicos e responsáveis pela implantação de sistemas de IA de risco elevado a que se refere o anexo III, ponto 5, alíneas b) e c), devem executar uma avaliação do impacto que a utilização desse sistema possa ter nos direitos fundamentais. Para o efeito, os responsáveis pela implantação executam uma avaliação que inclua:
1. Před zavedením vysoce rizikového systému AI podle čl. 6 odst. 2, s výjimkou vysoce rizikových systémů AI určených k použití v oblasti uvedené v příloze III bodě 2, zavádějící subjekty, které jsou veřejnoprávními nebo soukromými subjekty poskytujícími veřejné služby, a zavádějící subjekty provozující vysoce rizikové systémy AI uvedené v příloze III bodě 5 písm. b) a c) provedou posouzení dopadu na základní práva, který může použití takového systému mít. Za tímto účelem provedou zavádějící subjekty posouzení, které zahrnuje:
a)
Uma descrição dos processos do responsável pela implantação em que o sistema de IA de risco elevado seja utilizado de acordo com a sua finalidade prevista;
a)
popis procesů zavádějícího subjektu, v nichž bude vysoce rizikový systém AI používán v souladu s jeho zamýšleným účelem;
b)
Uma descrição do período em que o sistema de IA de risco elevado se destina a ser utilizado e com que frequência;
b)
popis časového období a frekvence plánovaného použití každého z vysoce rizikových systémů AI;
c)
As categorias de pessoas singulares e grupos suscetíveis de serem afetados no contexto específico de utilização do sistema;
c)
kategorie fyzických osob a skupin, které by mohly být jeho používáním v konkrétním kontextu dotčeny;
d)
Os riscos específicos de danos suscetíveis de terem impacto nas categorias de pessoas singulares ou grupos de pessoas identificadas nos termos da alínea c) do presente número, tendo em conta as informações facultadas pelo prestador nos termos do artigo 13.o;
d)
specifická rizika újmy, která by mohla mít dopad na kategorie fyzických osob nebo skupiny osob určených podle písmene c) tohoto odstavce, a to při zohlednění informací dodaných poskytovatelem podle článku 13;
e)
Uma descrição da aplicação das medidas de supervisão humana de acordo com as instruções de utilização;
e)
popis provádění opatření lidského dohledu, v souladu s návodem k použití;
f)
As medidas a tomar caso esses riscos se materializem, incluindo as disposições relativas à governação interna e aos mecanismos de apresentação de queixas.
f)
opatření, která mají být přijata v případě naplnění těchto rizik, včetně opatření pro vnitřní správu a mechanismy vyřizování stížností.
2. A obrigação estabelecida no n.o 1 aplica-se à primeira utilização do sistema de IA de risco elevado. O responsável pela implantação pode, em casos semelhantes, basear-se em avaliações de impacto sobre os direitos fundamentais efetuadas anteriormente ou em avaliações de impacto existentes realizadas pelo prestador. Se, durante a utilização do sistema de IA de risco elevado, o responsável pela implantação considerar que algum dos elementos enumerados no n.o 1 se alterou ou deixou de estar atualizado, deve tomar as medidas necessárias para atualizar as informações.
2. Povinnost stanovená v odstavci 1 platí pro první použití vysoce rizikového systému AI. Zavádějící subjekt může v podobných případech vycházet z dříve provedeného posouzení dopadů na základní práva nebo ze stávajících posouzení, které provedl poskytovatel. Pokud během použití vysoce rizikového systému AI zavádějící subjekt posoudí, že se některý z prvků uvedených v odstavci 1 změnil nebo již není aktuální, přijme nezbytné kroky k aktualizaci těchto informací.
3. Uma vez realizada a avaliação de impacto a que se refere o n.o 1 do presente artigo, o responsável pela implantação deve notificar a autoridade de fiscalização do mercado dos resultados da avaliação, apresentando o modelo preenchido a que se refere o n.o 5 do presente artigo como parte da notificação. No caso referido no artigo 46.o, n.o 1, os responsáveis pela implantação podem ser dispensados desta obrigação de notificação.
3. Po provedení posouzení uvedeném v odstavci 1 tohoto článku zavádějící subjekt informuje o jeho výsledcích orgán dozoru na trhem prostřednictvím vyplněného dotazníku uvedeného v odstavci 5 tohoto článku. V případě uvedeném v čl. 46 odst. 1 mohou být zavádějící subjekty od této povinnosti oznámení osvobozeny.
4. Se alguma das obrigações previstas no presente artigo já tiver sido cumprida através da avaliação de impacto sobre a proteção de dados realizada nos termos do artigo 35.o do Regulamento (UE) 2016/679 ou do artigo 27.o da Diretiva (UE) 2016/680, a avaliação de impacto sobre os direitos fundamentais a que se refere o n.o 1 do presente artigo deve complementar essa avaliação de impacto sobre a proteção de dados.
4. Je-li některá z povinností stanovených v tomto článku splněna již na základě posouzení dopadu na ochranu osobních údajů provedeného podle článku 35 nařízení (EU) 2016/679 nebo článku 27 směrnice (EU) 2016/680, potom může posouzení dopadu na základní práva uvedené v odstavci 1 tohoto článku doplnit posouzení dopadu na ochranu osobních údajů.
5. O Serviço para a IA deve desenvolver um modelo para um questionário, nomeadamente através de um sistema automatizado, a fim de facilitar aos responsáveis pela implantação o cumprimento simplificado das obrigações do presente artigo.
5. Úřad pro AI vypracuje vzor pro dotazník, a to i prostřednictvím automatizovaného nástroje, aby zavádějícím subjektům usnadnil plnění povinností podle tohoto článku.
Autoridades notificadoras
1. Cada Estado-Membro deve designar ou criar pelo menos uma autoridade notificadora responsável por estabelecer e executar os procedimentos necessários para a avaliação, a designação e a notificação de organismos de avaliação da conformidade e por fiscalizar esses organismos. Esses procedimentos devem ser desenvolvidos através da cooperação entre as autoridades notificadoras de todos os Estados-Membros.
1. Každý členský stát určí nebo zřídí alespoň jeden oznamující orgán odpovědný za vytvoření a provádění nezbytných postupů pro posuzování, jmenování a oznamování subjektů posuzování shody a za jejich kontrolu. Tyto postupy se vypracují ve spolupráci mezi oznamujícími orgány všech členských států.
2. Os Estados-Membros podem decidir que a avaliação e a fiscalização a que se refere o n.o 1 sejam efetuados por um organismo nacional de acreditação, na aceção e nos termos do Regulamento (CE) n.o 765/2008.
2. Členské státy mohou rozhodnout, že posuzování a monitorování uvedené v odstavci 1 má provést vnitrostátní akreditační orgán ve smyslu nařízení (ES) č. 765/2008 a v souladu s ním.
3. As autoridades notificadoras devem ser criadas, estar organizadas e funcionar de modo a garantir a ausência de conflitos de interesses com os organismos de avaliação da conformidade e a objetividade e imparcialidade das suas atividades.
3. Oznamující orgány musí být zřízeny, organizovány a fungovat tak, aby nedošlo ke střetu zájmu se subjekty posuzování shody a aby zabezpečily objektivitu a nestrannost svých činností.
4. As autoridades notificadoras devem estar organizadas de maneira que as decisões relativas à notificação dos organismos de avaliação da conformidade sejam tomadas por pessoas competentes diferentes daquelas que realizaram a avaliação desses organismos.
4. Oznamující orgány musí být organizovány takovým způsobem, aby rozhodnutí týkající se oznámení subjektů posuzování shody přijímaly způsobilé osoby odlišné od těch, které provedly posouzení těchto subjektů.
5. As autoridades notificadoras não podem propor ou exercer qualquer atividade que seja da competência dos organismos de avaliação da conformidade, nem propor ou prestar quaisquer serviços de consultoria com caráter comercial ou em regime de concorrência.
5. Oznamující orgány nesmí nabízet ani poskytovat žádné činnosti, které provádějí subjekty posuzování shody, a nesmí poskytovat poradenské služby na komerčním nebo konkurenčním základě.
6. As autoridades notificadoras devem proteger a confidencialidade das informações que obtêm, em conformidade com o artigo 78.o.
6. Oznamující orgány musí chránit důvěrnost informací získaných v souladu s článkem 78.
7. As autoridades notificadoras devem dispor de recursos humanos com competência técnica em número adequado para o correto desempenho das suas funções. O pessoal com competência técnica deve dispor dos conhecimentos especializados necessários, consoante o caso, para o exercício das suas funções, em domínios como as tecnologias da informação, a IA e o direito, incluindo a supervisão dos direitos fundamentais.
7. Oznamující orgány musí mít k dispozici přiměřený počet odborně způsobilých pracovníků, aby mohly řádně plnit své úkoly. Odborně způsobilí pracovníci mají podle potřeby nezbytné odborné znalosti pro svou činnost v oblastech, jako jsou informační technologie, AI a právo, včetně dohledu nad základními právy.
Apresentação de pedido de notificação por um organismo de avaliação da conformidade
Žádost subjektu posuzování shody o oznámení
1. Os organismos de avaliação da conformidade devem apresentar um pedido de notificação à autoridade notificadora do Estado-Membro onde se encontram estabelecidos.
1. Subjekty posuzování shody podávají žádost o oznámení oznamujícímu orgánu členského státu, v němž jsou usazeny.
2. O pedido de notificação deve ser acompanhado de uma descrição das atividades de avaliação da conformidade, do módulo ou dos módulos de avaliação da conformidade e dos tipos de sistemas de IA em relação aos quais o organismo de avaliação da conformidade se considera competente, bem como de um certificado de acreditação, se existir, emitido por um organismo nacional de acreditação, que ateste que o organismo de avaliação da conformidade cumpre os requisitos estabelecidos no artigo 31.o.
2. Součástí žádosti o oznámení je popis činností posuzování shody, modulu nebo modulů posuzování shody a typů systémů AI, pro něž se subjekt posuzování shody prohlašuje za způsobilý, jakož i osvědčení o akreditaci, pokud existuje, vydané vnitrostátním akreditačním orgánem, které potvrzuje, že subjekt posuzování shody splňuje požadavky stanovené v článku 31.
Deve ser igualmente anexado qualquer documento válido relacionado com designações vigentes do organismo notificado requerente ao abrigo de qualquer outra legislação de harmonização da União.
Přikládá se rovněž jakýkoli platný dokument týkající se stávajících jmenování žádajícího oznámeného subjektu podle jiných harmonizačních právních předpisů Unie.
3. Se não lhe for possível apresentar o certificado de acreditação, o organismo de avaliação da conformidade deve apresentar à autoridade notificadora todas as provas documentais necessárias à verificação, ao reconhecimento e ao controlo regular da sua conformidade com os requisitos estabelecidos no artigo 31.o.
3. Nemůže-li dotčený subjekt posuzování shody předložit osvědčení o akreditaci, poskytne oznamujícímu orgánu veškeré doklady nezbytné k ověření, uznání a pravidelné kontrole svého souladu s požadavky stanovenými v článku 31.
4. Em relação aos organismos notificados designados ao abrigo de qualquer outra legislação de harmonização da União, todos os documentos e certificados associados a essas designações podem ser usados para fundamentar o seu processo de designação nos termos do presente regulamento, consoante adequado. O organismo notificado deve atualizar a documentação a que se referem os n.os 2 e 3 do presente artigo sempre que ocorram alterações pertinentes, a fim de permitir que a autoridade responsável pelos organismos notificados controle e verifique o cumprimento permanente de todos os requisitos estabelecidos no artigo 31.o.
4. U oznámených subjektů, které jsou jmenovány podle jiných harmonizačních právních předpisů Unie, lze případně pro doložení postupů jmenování podle tohoto nařízení použít veškeré dokumenty a certifikáty související s tímto jmenováním. Oznámený subjekt aktualizuje dokumentaci uvedenou v odstavcích 2 a 3 tohoto článku, a to kdykoli dojde k významným změnám, aby umožnil orgánu odpovědnému za oznámené subjekty kontrolovat a ověřovat nepřetržitý soulad se všemi požadavky stanovenými v článku 31.
Procedimento de notificação
1. As autoridades notificadoras apenas podem notificar os organismos de avaliação da conformidade que cumpram os requisitos previstos no artigo 31.o.
1. Oznamující orgány mohou oznámit pouze subjekty posuzování shody, které splňují požadavky stanovené v článku 31.
2. As autoridades notificadoras devem notificar a Comissão e os restantes Estados-Membros sobre cada organismo de avaliação da conformidade a que se refere o n.o 1 utilizando o instrumento de notificação eletrónica criado e gerido pela Comissão.
2. K oznámení každého subjektu posuzování shody uvedeného v odstavci 1 Komisi a ostatním členským státům využijí oznamující orgány elektronický nástroj pro oznamování vyvinutý a spravovaný Komisí.
3. A notificação a que se refere o n.o 2 do presente artigo deve incluir informações pormenorizadas sobre as atividades de avaliação da conformidade, o módulo ou módulos de avaliação da conformidade, os tipos de sistemas de IA em causa, e a declaração de competência pertinente. Caso a notificação não se baseie no certificado de acreditação a que se refere o artigo 29.o, n.o 2, a autoridade notificadora deve apresentar à Comissão e aos outros Estados-Membros provas documentais que atestem a competência do organismo de avaliação da conformidade e as disposições introduzidas para assegurar que o organismo seja acompanhado periodicamente e continue a cumprir os requisitos estabelecidos no artigo 31.o.
3. Oznámení uvedené v odstavci 2 tohoto článku obsahuje veškeré podrobnosti o dotčených činnostech posuzování shody, modulu nebo modulech posuzování shody a typech systémů AI a příslušné potvrzení o způsobilosti. Pokud se oznámení nezakládá na osvědčení o akreditaci uvedeném v čl. 29 odst. 2, poskytne oznamující orgán Komisi a ostatním členským státům podklady, které prokazují způsobilost subjektu posuzování shody, a informace o zavedených opatřeních k zajištění toho, aby byl subjekt pravidelně kontrolován a i v budoucnu splňoval požadavky stanovené v článku 31.
4. O organismo de avaliação da conformidade em causa apenas pode executar as atividades reservadas a organismos notificados se nem a Comissão nem os outros Estados-Membros tiverem formulado objeções nas duas semanas seguintes a uma notificação por uma autoridade notificadora, se esta incluir um certificado de acreditação a que se refere o artigo 29.o, n.o 2, ou nos dois meses seguintes a uma notificação por uma autoridade notificadora, se esta incluir as provas documentais a que se refere o artigo 29.o, n.o 3.
4. Dotčený subjekt posuzování shody může vykonávat činnosti oznámeného subjektu, pouze pokud proti tomu Komise nebo ostatní členské státy nevznesly námitky do dvou týdnů od oznámení oznamujícího orgánu, obsahuje-li osvědčení o akreditaci podle čl. 29 odst. 2, nebo do dvou měsíců od oznámení, obsahuje-li doklady podle čl. 29 odst. 3.
5. Caso sejam formuladas objeções, a Comissão deve proceder, sem demora, a consultas com os Estados-Membros pertinentes e o organismo de avaliação da conformidade. Tendo em conta essas consultas, a Comissão decide se a autorização se justifica. A Comissão designa o Estado-Membro em causa e o organismo de avaliação da conformidade pertinente como destinatários da decisão.
5. Jsou-li námitky vzneseny, Komise s příslušnými členskými státy a subjektem posuzování shody neprodleně zahájí konzultace. S ohledem na to Komise rozhodne, zda je povolení oprávněné, či nikoli. Rozhodnutí Komise je určeno dotčenému členskému státu a příslušnému subjektu posuzování shody.
Requisitos aplicáveis aos organismos notificados
Požadavky na oznámené subjekty
1. Os organismos notificados devem ser constituídos nos termos da lei nacional de um Estado-Membro e ser dotados de personalidade jurídica.
1. Oznámený subjekt musí být zřízen podle vnitrostátního práva členského státu a mít právní subjektivitu.
2. Os organismos notificados devem satisfazer os requisitos em termos de organização, gestão da qualidade, recursos e processos que sejam necessários para o desempenho das suas funções, bem como requisitos de cibersegurança adequados.
2. Oznámené subjekty splňují organizační požadavky a požadavky na řízení kvality, zdroje a postupy, které jsou k plnění uvedených úkolů nezbytné, stejně jako odpovídající požadavky na kybernetickou bezpečnost.
3. A estrutura organizacional, a atribuição de responsabilidades, a cadeia hierárquica e o funcionamento dos organismos notificados devem assegurar a confiança no seu desempenho e nos resultados das atividades de avaliação da conformidade que os organismos notificados realizam.
3. Organizační struktura, rozdělení odpovědností, způsob podávání zpráv a fungování oznámených subjektů musí být takové, aby byla zajištěna důvěra v provádění a výsledky činností posuzování shody, které oznámené subjekty provádějí.
4. Os organismos notificados devem ser independentes do prestador de um sistema de IA de risco elevado relativamente ao qual realizam atividades de avaliação da conformidade. Os organismos notificados devem também ser independentes de outros operadores que tenham um interesse económico nos sistemas de IA de risco elevado que são avaliados, bem como nos dos concorrentes do prestador. Esta exigência não impede a utilização de sistemas de IA de risco elevado avaliados que sejam necessários para a atividade do organismo de avaliação da conformidade, nem a sua utilização para fins pessoais.
4. Oznámené subjekty jsou nezávislé na poskytovateli vysoce rizikového systému AI, u něhož provádějí činnosti posuzování shody. Oznámené subjekty jsou rovněž nezávislé na jakémkoliv jiném provozovateli, který má na posuzovaných vysoce rizikových systémech AI zájem, i na jakýchkoliv konkurentech poskytovatele. To nevylučuje používání posuzovaných vysoce rizikových systémů AI, které jsou nezbytné pro činnost subjektu posuzování shody, ani používání takových vysoce rizikových systémů AI pro osobní účely.
5. Os organismos de avaliação da conformidade, os seus quadros superiores e o pessoal encarregado de desempenhar as suas funções de avaliação da conformidade não podem intervir diretamente na conceção, no desenvolvimento, na comercialização ou na utilização de sistemas de IA de risco elevado, nem ser mandatários das pessoas envolvidas nessas atividades. Não podem igualmente exercer qualquer atividade que possa comprometer a independência da sua apreciação ou a sua integridade no desempenho das atividades de avaliação da conformidade para as quais são notificados. Esta disposição aplica-se, nomeadamente, aos serviços de consultoria.
5. Subjekt posuzování shody, jeho nejvyšší vedení a pracovníci odpovědní za plnění úkolů posuzování shody se nesmějí přímo podílet na navrhování, vývoji, uvádění na trh nebo používání vysoce rizikových systémů AI ani nesmějí zastupovat strany, které se těmito činnostmi zabývají. Nesmějí vykonávat žádnou činnost, která by mohla ohrozit jejich nezávislý úsudek nebo důvěryhodnost ve vztahu k činnostem posuzování shody, k jejichž vykonávání jsou oznámeni. To platí zejména pro poradenské služby.
6. Os organismos notificados devem estar organizados e funcionar de maneira que garanta a independência, a objetividade e a imparcialidade das suas atividades. Os organismos notificados devem documentar e estabelecer uma estrutura e procedimentos suscetíveis de salvaguardar essa imparcialidade e de promover e aplicar os princípios da imparcialidade em toda a sua organização, a todo o seu pessoal e em todas as suas atividades de avaliação.
6. Oznámené subjekty jsou organizovány a provozovány tak, aby byla zaručena nezávislost, objektivita a nestrannost jejich činností. Oznámené subjekty zdokumentují a zavedou strukturu a postupy pro zajištění nestrannosti a pro prosazování a uplatňování zásad nestrannosti v rámci celé své organizace, všech činností posuzování a u všech pracovníků.
7. Os organismos notificados devem dispor de procedimentos documentados que garantam que o seu pessoal, comités, filiais, subcontratantes e qualquer outro organismo associado ou pessoal de organismos externos respeitam, nos termos do artigo 78.o, a confidencialidade das informações de que tenham conhecimento durante a realização das atividades de avaliação da conformidade, salvo se a divulgação dessas informações for exigida por lei. O pessoal dos organismos notificados deve estar sujeito ao sigilo profissional no que se refere a todas as informações que obtiver no desempenho das suas funções no âmbito do presente regulamento, exceto em relação às autoridades notificadoras do Estado-Membro em que exerce as suas atividades.
7. Oznámené subjekty mají zavedeny zdokumentované postupy zajišťující, aby jejich pracovníci, výbory, pobočky, subdodavatelé a jakýkoliv přidružený subjekt nebo pracovníci externích subjektů zachovávali v souladu s článkem 78 důvěrnost informací získaných při provádění činností posuzování shody, s výjimkou případů, kdy je zveřejnění těchto informací vyžadováno dle práva. Zaměstnanci oznámených subjektů jsou povinni zachovávat služební tajemství, pokud jde o veškeré informace, které obdrželi při plnění svých úkolů podle tohoto nařízení, nikoli však ve vztahu k oznamujícím orgánům členského státu, v němž vykonávají svou činnost.
8. Os organismos notificados devem dispor de procedimentos relativos ao exercício de atividades que tenham em devida conta a dimensão de um prestador, o setor em que opera, a sua estrutura e o grau de complexidade do sistema de IA em causa.
8. Oznámené subjekty mají zavedeny postupy pro provádění činností, jež řádně zohledňují velikost poskytovatele, odvětví, v němž působí, jejich strukturu a míru složitosti dotčeného systému AI.
9. Os organismos notificados devem subscrever um seguro de responsabilidade civil adequado para as suas atividades de avaliação da conformidade, a menos que essa responsabilidade seja assumida pelo Estado-Membro onde se encontram estabelecidos nos termos da legislação nacional ou que o próprio Estado-Membro seja diretamente responsável pela avaliação da conformidade.
9. Oznámené subjekty uzavřou vhodné pojištění odpovědnosti za škodu s ohledem na své činnosti v oblasti posuzování shody, pokud tuto odpovědnost nepřevzal členský stát, v němž jsou usazeny, v souladu s vnitrostátním právem nebo pokud není tento členský stát za posuzování shody sám přímo odpovědný.
10. Os organismos notificados devem ser capazes de desempenhar todas as funções que lhes incumbem nos termos do presente regulamento com a maior integridade profissional e a competência exigida no domínio específico, quer essas funções sejam desempenhadas pelos próprios, quer em seu nome e sob a sua responsabilidade.
10. Oznámené subjekty jsou schopny provádět všechny své úkoly podle tohoto nařízení, na nejvyšší úrovni profesní důvěryhodnosti a náležité způsobilosti v této konkrétní oblasti bez ohledu na to, zda jsou uvedené úkoly prováděny samotnými oznámenými subjekty, nebo jejich jménem a na jejich odpovědnost.
11. Os organismos notificados devem dispor de competências internas suficientes para poderem avaliar eficazmente as funções desempenhadas em seu nome por partes externas. Os organismos notificados devem dispor permanentemente de suficiente pessoal do domínio administrativo, técnico, jurídico e científico com experiência e conhecimentos relativos aos tipos de sistemas de IA em apreço, aos dados e à computação de dados e aos requisitos estabelecidos na secção 2.
11. Oznámené subjekty mají dostatečnou interní způsobilost, aby byly schopny účinně hodnotit úkoly, které jejich jménem provádějí externí strany. Oznámený subjekt má neustále k dispozici dostatek administrativních, technických, právních a vědeckých pracovníků se zkušenostmi a znalostmi ohledně příslušných typů systémů AI, dat a datových výpočtů, jakož i požadavků uvedených v oddíle 2.
12. Os organismos notificados devem participar em atividades de coordenação nos termos do artigo 38.o. Além disso, devem participar, diretamente ou por meio de representantes, em organizações europeias de normalização, ou assegurar que conhecem as normas aplicáveis e mantêm atualizado esse conhecimento.
12. Oznámené subjekty se podílejí na koordinačních činnostech uvedených v článku 38. Rovněž se přímo účastní činnosti evropských normalizačních organizací nebo jsou v nich zastoupeny, případně zajistí, aby měly povědomí a aktuální informace o příslušných normách.
Obrigações operacionais dos organismos notificados
Povinnosti týkající se činnosti oznámených subjektů
1. Os organismos notificados devem verificar a conformidade dos sistemas de IA de risco elevado de acordo com os procedimentos de avaliação da conformidade estabelecidos no artigo 43.o.
1. Oznámené subjekty ověřují shodu daného vysoce rizikového systému AI v souladu s postupy posuzování shody stanovenými v článku 43.
2. Os organismos notificados devem, no exercício das suas atividades, evitar encargos desnecessários para os prestadores e ter em devida conta a dimensão do prestador, o setor em que opera, a sua estrutura e o grau de complexidade do sistema de IA de risco elevado em causa, em especial com vista a minimizar os encargos administrativos e os custos de conformidade para as micro e pequenas empresas na aceção da Recomendação 2003/361/CE. Os organismos notificados devem, contudo, respeitar o grau de rigor e o nível de proteção exigidos para que o sistema de IA de risco elevado cumpra os requisitos do presente regulamento.
2. Oznámené subjekty se při výkonu svých činností vyvarují zbytečné zátěže pro poskytovatele a náležitě zohlední velikost poskytovatele, odvětví, v němž působí, jeho strukturu a míru složitosti dotčeného vysoce rizikového systému AI, zejména v zájmu na minimalizace administrativní zátěže a nákladů na dodržování předpisů pro mikropodniky a malé podniky ve smyslu doporučení 2003/361/ES. Oznámený subjekt však dodržuje míru přísnosti a úroveň ochrany, jež jsou vyžadovány, aby byl vysoce rizikový systém AI v souladu s požadavky tohoto nařízení.
3. Os organismos notificados devem disponibilizar e, mediante pedido, apresentar toda a documentação importante, incluindo a documentação elaborada pelos prestadores, à autoridade notificadora a que se refere o artigo 28.o para que essa autoridade possa exercer as suas atividades de avaliação, designação, notificação e controlo e ainda para facilitar a avaliação descrita na presente secção.
3. Oznámené subjekty na požádání zpřístupní a předloží veškerou příslušnou dokumentaci, včetně dokumentace poskytovatelů, oznamujícímu orgánu uvedenému v článku 28, aby tento orgán mohl provádět činnosti související s posuzováním, jmenováním, oznamováním a monitorováním a usnadnit posuzování uvedené v tomto oddíle.
Alterações das notificações
1. A autoridade notificadora deve notificar a Comissão e os outros Estados-Membros de todas as alterações pertinentes da notificação de um organismo notificado através do instrumento de notificação eletrónica a que se refere o artigo 30.o, n.o 2.
1. Oznamující orgán oznámí Komisi a ostatním členským státům veškeré relevantní změny oznámení učiněné oznámeným subjektem prostřednictvím elektronického nástroje pro oznamování uvedeného v čl. 30 odst. 2.
2. Os procedimentos estabelecidos nos artigos 29.o e 30.o aplicam-se ao alargamento do âmbito da notificação.
2. V případě rozšíření rozsahu oznámení se použijí postupy stanovené v článcích 29 a 30.
No que respeita às alterações da notificação que não digam respeito ao alargamento do seu âmbito de aplicação, são aplicáveis os procedimentos estabelecidos nos n.os 3 a 9.
V případě jiných změn oznámení, než jsou rozšíření jeho rozsahu, se použijí postupy stanovené v odstavcích 3 až 9.
3. Caso um organismo notificado decida cessar as suas atividades de avaliação da conformidade, informa a autoridade notificadora e os prestadores em causa o mais rapidamente possível e, em caso de cessação planeada, pelo menos um ano antes de cessar as atividades. Os certificados do organismo notificado podem manter-se válidos durante um período de nove meses após a cessação das atividades do organismo notificado, desde que outro organismo notificado confirme por escrito que assumirá a responsabilidade pelos sistemas de IA de risco elevado abrangidos por esses certificados. Esse outro organismo notificado efetua uma avaliação completa dos sistemas de IA de risco elevado em causa até ao final do período de nove meses, antes de emitir novos certificados para esses sistemas. Se o organismo notificado tiver cessado a sua atividade, a autoridade notificadora deve retirar a designação.
3. Pokud se oznámený subjekt rozhodne svou činnost v oblasti posuzování shody ukončit, co nejdříve a v případě plánovaného ukončení nejméně jeden rok předtím, než svou činnost ukončí, informuje oznamující orgán a dotčené poskytovatele. Po ukončení činnosti oznámeného subjektu mohou certifikáty oznámeného subjektu zůstat dočasně v platnosti po dobu devíti měsíců za podmínky, že jiný oznámený subjekt písemně potvrdí, že za vysoce rizikové systémy AI, na něž se tyto certifikáty vztahují, převezme odpovědnost. Před vydáním nových certifikátů pro vysoce rizikové systémy AI, jichž se konec uvedené devítiměsíční lhůty dotkne, nový oznámený subjekt tyto systémy podrobí úplnému posouzení. Pokud oznámený subjekt ukončil svou činnost, oznamující orgán zruší jeho jmenování.
4. Caso uma autoridade notificadora tenha motivos suficientes para considerar que um organismo notificado deixou de cumprir os requisitos estabelecidos no artigo 31.o, ou que não cumpre as suas obrigações, deve imediatamente investigar a matéria com a máxima diligência. Nesse contexto, a autoridade notificadora deve informar o organismo notificado em causa sobre as objeções formuladas e dar-lhe a possibilidade de apresentar as suas observações. Caso a autoridade notificadora conclua que o organismo notificado deixou de cumprir os requisitos estabelecidos no artigo 31.o, ou que não cumpre as suas obrigações, deve restringir, suspender ou retirar a designação, consoante o caso, em função da gravidade do incumprimento desses requisitos ou dessas obrigações. A autoridade notificadora deve informar imediatamente a Comissão e os restantes Estados-Membros deste facto.
4. Pokud má oznamující orgán dostatečný důvod se domnívat, že oznámený subjekt již nesplňuje požadavky stanovené v článku 31 nebo neplní své povinnosti, prošetří tuto záležitost s maximální péčí. V této souvislosti informuje dotčený oznámený subjekt o vznesených námitkách a poskytne mu možnost, aby se k záležitosti vyjádřil. Pokud oznamující orgán dospěje k závěru, že oznámený subjekt již nesplňuje požadavky stanovené v článku 31 nebo že tento subjekt neplní své povinnosti, omezí, pozastaví nebo případně zruší jmenování, podle toho, jak je neplnění dotyčných požadavků nebo povinností závažné. Neprodleně o této skutečnosti informuje Komisi a ostatní členské státy.
5. Caso a sua designação tenha sido suspendida, restringida ou revogada, na totalidade ou em parte, o organismo notificado informa os prestadores em causa o mais tardar no prazo de 10 dias.
5. Pokud bylo jeho jmenování pozastaveno, omezeno nebo zcela či částečně zrušeno, daný oznámený subjekt o této skutečnosti do 10 dnů uvědomí dotčené výrobce.
6. Em caso de restrição, suspensão ou retirada de uma designação, a autoridade notificadora deve tomar as medidas necessárias para assegurar que os processos do organismo notificado são conservados e para os disponibilizar às autoridades notificadoras noutros Estados-Membros e às autoridades de fiscalização do mercado, se estas o solicitarem.
6. V případě omezení, pozastavení nebo zrušení jmenování učiní oznamující orgán náležité kroky, aby zajistil, že spisy dotčeného oznámeného subjektu budou vedeny a na vyžádání zpřístupněny oznamujícím orgánům v jiných členských státech, jakož i orgánům dozoru nad trhem.
7. Em caso de restrição, suspensão ou retirada de uma designação, a autoridade notificadora:
7. V případě omezení, pozastavení nebo zrušení jmenování oznamující orgán:
a)
Avalia o impacto nos certificados emitidos pelo organismo notificado;
a)
posoudí dopad na certifikáty vydané oznámeným subjektem;
b)
Apresenta à Comissão e aos outros Estados-Membros um relatório sobre as suas conclusões no prazo de três meses após ter notificado das alterações à designação;
b)
předloží zprávu o svých zjištěních Komisi a ostatním členským státům do tří měsíců poté, co změny jmenování oznámil;
c)
Determina que o organismo notificado suspenda ou retire, num prazo razoável por ela determinado, os certificados indevidamente emitidos, a fim de garantir a conformidade contínua dos sistemas de IA de risco elevado no mercado;
c)
požádá oznámený subjekt, aby v přiměřeném časovém období stanoveném tímto orgánem pozastavil nebo zrušil veškeré certifikáty, které byly vydány neoprávněně, s cílem zajistit pokračující shodu vysoce rizikových systémů AI, jež jsou na trhu;
d)
Informa a Comissão e os Estados-Membros dos certificados para os quais exigiu a suspensão ou retirada;
d)
informuje Komisi a členské státy o certifikátech, jejichž pozastavení nebo zrušení požaduje;
e)
Presta às autoridades nacionais competentes do Estado-Membro em que o prestador tem a sua sede social todas as informações pertinentes sobre os certificados para os quais exigiu a suspensão ou retirada; essas autoridades devem tomar as medidas adequadas que se revelem necessárias para evitar potenciais riscos para a saúde, a segurança ou os direitos fundamentais.
e)
poskytne příslušným vnitrostátním orgánům členského státu, v němž má poskytovatel své sídlo, veškeré příslušné informace o certifikátech, u nichž požádal o pozastavení nebo zrušení; tento orgán přijme v případě potřeby vhodná opatření s cílem zabránit možnému ohrožení zdraví, bezpečnosti nebo základních práv.
8. Com exceção dos certificados indevidamente emitidos, e caso uma designação tenha sido suspendida ou restringida, os certificados permanecem válidos nas seguintes circunstâncias:
8. S výjimkou neoprávněně vydaných certifikátů a v případě, že bylo jmenování pozastaveno nebo omezeno, zůstávají certifikáty platné za těchto okolností:
a)
Quando a autoridade notificadora tiver confirmado, no prazo de um mês a contar da suspensão ou restrição, que, no que respeita aos certificados afetados pela suspensão ou restrição, não existem riscos para a saúde, a segurança ou os direitos fundamentais, e tiver estabelecido um prazo para as ações previstas para corrigir a suspensão ou restrição; ou
a)
oznamující orgán do jednoho měsíce od pozastavení nebo omezení potvrdí, že v souvislosti s certifikáty, jichž se pozastavení nebo omezení týká, neexistuje ohrožení zdraví, bezpečnosti nebo základních práv, a oznamující orgán stanoví harmonogram pro opatření za účelem nápravy nedostatků, jež byly příčinou pozastavení nebo omezení, nebo
b)
Quando a autoridade notificadora tiver confirmado que, durante o período de suspensão ou restrição, não serão emitidos, alterados nem reemitidos certificados relevantes para a suspensão, e indicar se o organismo notificado tem capacidade para continuar a assumir, durante o período de suspensão ou restrição, o controlo e a responsabilidade pelos certificados já emitidos; caso a autoridade notificadora determine que o organismo notificado não tem capacidade para apoiar os certificados já emitidos, o prestador do sistema abrangido pelo certificado deve confirmar por escrito às autoridades nacionais competentes do Estado-Membro em que tem a sua sede social, no prazo de três meses a contar da suspensão ou restrição, que outro organismo notificado qualificado exerce temporariamente as funções do organismo notificado de assunção do controlo e da responsabilidade pelos certificados durante o período de suspensão ou restrição.
b)
oznamující orgán potvrdí, že v průběhu pozastavení či omezení nebudou vydávány, pozměňovány nebo opětovně vydávány žádné certifikáty, jichž se pozastavení či omezení týká, a uvede, zda je oznámený subjekt i nadále způsobilý monitorovat stávající certifikáty vydané na období pozastavení nebo omezení a být za ně odpovědný; v případě, že oznamující orgán rozhodne, že oznámený subjekt není způsobilý plnit své funkce ve vztahu ke stávajícím vydaným certifikátům, poskytovatel systému, na nějž se certifikát vztahuje, písemně potvrdí vnitrostátním příslušným orgánům členského státu, ve kterém má poskytovatel systému své registrované místo podnikání, do tří měsíců od pozastavení nebo omezení, že funkce oznámeného subjektu, totiž monitorovat a být nadále odpovědný za certifikáty, převezme dočasně, v době pozastavení nebo omezení, jiný kvalifikovaný oznámený subjekt.
9. Com exceção dos certificados emitidos indevidamente, e sempre que a designação tenha sido retirada, os certificados permanecem válidos por um período de nove meses nas seguintes circunstâncias:
9. S výjimkou neoprávněně vydaných certifikátů a v případě, že bylo jmenování zrušeno, zůstanou certifikáty v platnosti po dobu devíti měsíců za těchto podmínek:
a)
Se a autoridade nacional competente do Estado-Membro em que o prestador do sistema de IA de risco elevado abrangido pelo certificado tem a sua sede social tiver confirmado que não existem riscos associados aos sistemas de IA de risco elevado em causa para a saúde, a segurança ou os direitos fundamentais; e
a)
příslušný vnitrostátní orgán členského státu, v němž má poskytovatel vysoce rizikového systému AI, na nějž se certifikát vztahuje, své sídlo, potvrdí, že v souvislosti s dotčenými vysoce rizikovými systémy AI není ohroženo zdraví, bezpečnost ani základní práva, a
b)
Se um outro organismo notificado tiver confirmado por escrito que assumirá de imediato a responsabilidade por esses sistemas de IA e concluir a respetiva avaliação no prazo de doze meses a contar da retirada da designação.
b)
jiný oznámený subjekt písemně potvrdí, že převezme za tyto systémy AI okamžitou odpovědnost a že dokončí jejich posouzení do dvanácti měsíců od zrušení jmenování.
Nas circunstâncias referidas no primeiro parágrafo, a autoridade nacional competente do Estado-Membro em que o prestador do sistema abrangido pelo certificado tem a sua sede social pode prorrogar a validade provisória dos certificados por novos períodos de três meses, até um máximo de 12 meses no total.
Za podmínek stanovených v prvním pododstavci může příslušný vnitrostátní orgán členského státu, v němž má poskytovatel systému, na který se certifikát vztahuje, své sídlo, prodloužit prozatímní platnost certifikátů o další tříměsíční období, která celkově nepřesáhnou dvanáct měsíců.
A autoridade nacional competente ou o organismo notificado que assumir as funções do organismo notificado ao qual se aplica a alteração da designação informa imediatamente desse facto a Comissão, os outros Estados-Membros e os demais organismos notificados.
Příslušný vnitrostátní orgán nebo oznámený subjekt přebírající funkce oznámeného subjektu, kterého se týká změna jmenování, o této skutečnosti okamžitě informuje Komisi, ostatní členské státy a ostatní oznámené subjekty.
Contestação da competência dos organismos notificados
Zpochybnění způsobilosti oznámených subjektů
1. A Comissão investiga, sempre que necessário, todos os casos em que haja motivos para duvidar da competência de um organismo notificado ou do cumprimento continuado dos requisitos estabelecidos no artigo 31.o e das responsabilidades aplicáveis por parte de um organismo notificado.
1. Komise v případě potřeby vyšetří všechny případy, u nichž jsou důvody pochybovat o kvalifikaci oznámeného subjektu nebo o tom, zda oznámený subjekt nadále splňuje požadavky stanovené v článku 31 a své příslušné povinnosti.
2. A autoridade notificadora deve facultar à Comissão, mediante pedido, todas as informações pertinentes relacionadas com a notificação ou a manutenção da competência do organismo notificado em causa.
2. Oznamující orgán předloží Komisi na vyžádání všechny příslušné informace týkající se oznámení nebo zachování odborné způsobilosti dotčeného oznámeného subjektu.
3. A Comissão garante que todas as informações sensíveis obtidas no decurso das suas investigações nos termos do presente artigo sejam tratadas de forma confidencial em conformidade com o artigo 78.o.
3. Komise zajistí, aby se se všemi citlivými informacemi získanými v průběhu jejího šetření podle tohoto článku nakládalo jako s důvěrnými v souladu s článkem 78.
4. Caso verifique que um organismo notificado não cumpre ou deixou de cumprir os requisitos aplicáveis à sua notificação, a Comissão informa o Estado-Membro notificador do facto e solicita-lhe que tome as medidas corretivas necessárias, incluindo, se for caso disso, a suspensão ou retirada da notificação. Se o Estado-Membro não tomar as medidas corretivas necessárias, a Comissão pode, por meio de um ato de execução, suspender, restringir ou retirar a designação. O referido ato de execução é adotado de acordo com o procedimento de exame a que se refere o artigo 98.o, n.o 2.
4. Pokud Komise zjistí, že oznámený subjekt nesplňuje nebo přestal splňovat požadavky pro své oznámení, informuje o této skutečnosti oznamující členský stát a vyzve ho, aby přijal nezbytná nápravná opatření, včetně případného pozastavení nebo zrušení oznámení. Pokud členský stát nezbytná nápravná opatření nepřijme, může Komise prostřednictvím prováděcího aktu jmenování pozastavit, omezit nebo zrušit. Tento prováděcí akt se přijme přezkumným postupem uvedeným v čl. 98 odst. 2.
Normas harmonizadas e produtos de normalização
Harmonizované normy a produkty normalizace
1. Presume-se que os sistemas de IA de risco elevado ou os modelos de IA de finalidade geral que estão em conformidade com normas harmonizadas, ou com partes destas, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia nos termos do Regulamento (UE) n.o 1025/2012, são conformes com os requisitos estabelecidos na secção 2 do presente capítulo, ou, consoante o caso, com as obrigações estabelecidas nas secções 2 e 3 do capítulo V do presente regulamento, desde que tais normas abranjam esses requisitos ou obrigações.
1. Předpokládá se, že vysoce rizikové systémy AI nebo obecné modely AI, které jsou ve shodě s harmonizovanými normami nebo jejich částmi, na něž byly zveřejněny odkazy v Úředním věstníku Evropské unie v souladu s nařízením (EU) 1025/2012, jsou ve shodě s požadavky stanovenými v oddíle 2 této kapitoly nebo případně s povinnostmi stanovenými v kapitole V oddíle 2 a 3 tohoto nařízení v rozsahu, v jakém se dotyčné normy vztahují na tyto požadavky nebo povinnosti.
2. Nos termos do artigo 10.o do Regulamento (UE) n.o 1025/2012, a Comissão emite, sem demora injustificada, pedidos de normalização que abranjam todos os requisitos estabelecidos na secção 2 do presente capítulo e, conforme aplicável, pedidos de normalização que abranjam as obrigações estabelecidas nas secções 2 e 3 do capítulo V do presente regulamento. Os pedidos de normalização devem também solicitar produtos respeitantes aos processos de comunicação e documentação para melhorar o desempenho dos sistemas de IA em termos de recursos, como a redução do consumo de energia e de outros recursos do sistema de IA de risco elevado durante o seu ciclo de vida, e respeitantes ao desenvolvimento eficiente do ponto de vista energético de modelos de IA de finalidade geral. Ao preparar um pedido de normalização, a Comissão deve consultar o Comité e as partes interessadas pertinentes, incluindo o fórum consultivo.
2. V souladu s článkem 10 nařízení (EU) č. 1025/2012 Komise bez zbytečného odkladu vydá žádosti o normalizaci týkající se všech požadavků stanovených v oddíle 2 této kapitoly a případně povinností stanovených v kapitole V oddíle 2 a 3 tohoto nařízení. V žádosti o normalizaci se rovněž požadují produkty týkající se postupů podávání zpráv a dokumentace s cílem zlepšit výkonnost systémů AI, pokud jde o zdroje, jako je snížení spotřeby energie a dalších zdrojů u vysoce rizikového systému AI během jeho životního cyklu, a o energeticky účinný vývoj obecných modelů AI. Při přípravě žádosti o normalizaci Komise konzultuje radu a příslušné zúčastněné strany, včetně poradního fóra.
Ao enviar um pedido de normalização a uma organização europeia de normalização, a Comissão deve especificar que as normas têm de ser claras, coerentes, nomeadamente com as normas desenvolvidas nos vários setores para os produtos abrangidos pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, e que se destinam a assegurar que os sistemas de IA de risco elevado ou modelos de IA de finalidade geral colocados no mercado ou colocados em serviço na União cumprem os requisitos ou obrigações pertinentes estabelecidos no presente regulamento.
Při vydávání žádosti o normalizaci evropským normalizačním organizacím Komise upřesní, že normy musí být jasné, konzistentní, a to i s normami vypracovanými v různých odvětvích pro produkty, na něž se vztahují stávající právní předpisy Unie v oblasti harmonizace uvedené v příloze I, a zaměřené na zajištění toho, aby vysoce rizikové systémy AI nebo obecné modely AI uváděné na trh nebo do provozu v Unii splňovaly příslušné požadavky nebo povinnosti stanovené v tomto nařízení.
A Comissão deve solicitar às organizações europeias de normalização que apresentem provas dos seus melhores esforços para cumprir os objetivos referidos no primeiro e segundo parágrafos do presente número, em conformidade com o artigo 24.o do Regulamento (UE) n.o 1025/2012.
Komise požádá evropské normalizační organizace, aby doložily, že ke splnění cílů uvedených v prvním a druhém pododstavci tohoto odstavce vynakládají v souladu s článkem 24 nařízení EU 1025/2012 maximální úsilí.
3. Os participantes no processo de normalização devem procurar promover o investimento e a inovação no domínio da IA, nomeadamente através do aumento da segurança jurídica, bem como a competitividade e o crescimento do mercado da União, contribuir para o reforço da cooperação mundial em matéria de normalização, tendo em conta as normas internacionais existentes no domínio da IA que sejam compatíveis com os valores, os direitos fundamentais e os interesses da União, e reforçar a governação multilateral, assegurando uma representação equilibrada dos interesses e a participação efetiva de todas as partes interessadas pertinentes, em conformidade com os artigos 5.o, 6.o e 7.o do Regulamento (UE) n.o 1025/2012.
3. Účastníci procesu normalizace vynakládají úsilí na podporu investic a inovací v oblasti AI, mimo jiné prostřednictvím zvyšování právní jistoty, jakož i na podporu konkurenceschopnosti a růstu trhu Unie a k podpoře posílení globální spolupráce v oblasti normalizace, přičemž zohledňují stávající mezinárodní normy v oblasti AI, které jsou v souladu s hodnotami, základními právy a zájmy Unie, a zlepšují správu, na níž se podílí více stran, čímž se zajistí vyvážené zastoupení zájmů a účinná účast všech příslušných zúčastněných stran v souladu s články 5, 6 a 7 nařízení (EU) č. 1025/2012.
1. A Comissão pode adotar atos de execução que estabeleçam especificações comuns para os requisitos estabelecidos na secção 2 do presente capítulo, ou, se for caso disso, para as obrigações estabelecidas nas secções 2 e 3 do capítulo V, se estiverem preenchidas as seguintes condições:
1. Komise může přijímat prováděcí akty, kterými stanoví společné specifikace pro požadavky stanovené v oddíle 2 této kapitoly nebo případně pro povinnosti stanovené v kapitole V oddíle 2 a 3, pokud jsou splněny tyto podmínky:
a)
A Comissão pediu, nos termos do artigo 10.o, n.o 1, do Regulamento (UE) n.o 1025/2012, a uma ou mais organizações europeias de normalização que elaborassem uma norma harmonizada para os requisitos estabelecidos na secção 2 do presente capítulo, ou, conforme aplicável, para as obrigações estabelecidas nas secções 2 e 3 do capítulo V, e:
a)
Komise požádala podle čl. 10 odst. 1 nařízení (EU) č. 1025/2012 jednu nebo více evropských normalizačních organizací, aby vypracovaly harmonizovanou normu pro požadavky stanovené v oddíle 2 této kapitoly nebo, v příslušných případech, pro povinnosti stanovené v oddílech 2 a 3 kapitoly V, a:
i)
o pedido não foi aceite por nenhuma das organizações europeias de normalização, ou
i)
žádost nebyla žádnou z evropských normalizačních organizací akceptována nebo
ii)
as normas harmonizadas relativas a esse pedido não foram entregues no prazo fixado em conformidade com o artigo 10.o, n.o 1, do Regulamento (UE) n.o 1025/2012, ou
ii)
harmonizované normy, které byly vypracovány na základě této žádostí, nebyly dodány ve lhůtě stanovené v souladu s čl. 10 odst. 1 nařízení (EU) č. 1025/2012 nebo
iii)
as normas harmonizadas pertinentes não dão resposta suficiente às preocupações em matéria de direitos fundamentais, ou
iii)
příslušné harmonizované normy dostatečně neřeší problémy v oblasti základních práv nebo
iv)
as normas harmonizadas não cumprem o pedido; e
iv)
harmonizované normy nejsou v souladu s žádostí a
b)
Não se encontra publicada no Jornal Oficial da União Europeia qualquer referência a normas harmonizadas que abranjam os requisitos referidos na secção 2 do presente capítulo ou, conforme aplicável, para as obrigações referidas nas secções 2 e 3 do capítulo V, em conformidade com o Regulamento (UE) n.o 1025/2012, e não se prevê a publicação de tal referência dentro de um prazo razoável.
b)
v Úředním věstníku Evropské unie není zveřejněn odkaz na harmonizované normy, které se vztahují na požadavky uvedené v oddíle 2 této kapitoly nebo, v příslušných případech, na povinnosti uvedené v kapitole V oddíle 2 a 3, v souladu s nařízením (EU) č. 1025/2012, ani se neočekává, že takový odkaz bude v přiměřené lhůtě zveřejněn.
Quando elaborar as especificações comuns, a Comissão deverá consultar o fórum consultivo a que se refere o artigo 67.o.
Komise při vypracovávání společných specifikací konzultuje poradní fórum uvedené v článku 67.
Os atos de execução a que se refere o primeiro parágrafo do presente número são adotados de acordo com o procedimento de exame a que se refere o artigo 98.o, n.o 2.
Prováděcí akty uvedené v prvním pododstavci tohoto odstavce se přijímají přezkumným postupem podle čl. 98 odst. 2.
2. Antes de elaborar um projeto de ato de execução, a Comissão informa o comité a que se refere o artigo 22.o do Regulamento (UE) n.o 1025/2012 de que considera que estão preenchidas as condições estabelecidas no n.o 1 do presente artigo.
2. Komise před vypracováním návrhu prováděcího aktu informuje výbor uvedený v článku 22 nařízení (EU) č. 1025/2012, že považuje podmínky stanovené v odstavci 1 tohoto článku za splněné.
3. Presume-se que os sistemas de IA de risco elevado ou os modelos de IA de finalidade geral que estão em conformidade com as especificações comuns a que se refere o n.o 1, ou com partes dessas especificações, são conformes com os requisitos estabelecidos na secção 2 do presente capítulo, ou, conforme aplicável, que cumprem as obrigações referidas nas secções 2 e 3 do capítulo V, desde que tais especificações comuns abranjam esses requisitos ou essas obrigações.
3. Předpokládá se, že vysoce rizikové systémy AI a obecné modely AI, které jsou ve shodě s obecnými specifikacemi uvedenými v odstavci 1, nebo s částmi těchto specifikací, jsou ve shodě s požadavky stanovenými v oddíle 2 této kapitoly nebo, v příslušných případech, v souladu s povinnosti uvedenými v kapitole V oddíle 2 a 3, v rozsahu, v jakém se tyto obecné specifikace vztahují na uvedené požadavky nebo povinnosti.
4. Sempre que uma norma harmonizada seja adotada por uma organização europeia de normalização e a publicação da sua referência no Jornal Oficial da União Europeia seja proposta à Comissão, esta última avalia a norma harmonizada nos termos do Regulamento (UE) n.o 1025/2012. Quando a referência a uma norma harmonizada é publicada no Jornal Oficial da União Europeia, a Comissão revoga os atos de execução a que se refere o n.o 1, ou partes desses atos de execução que abranjam os mesmos requisitos estabelecidos na secção 2 do presente capítulo ou, conforme aplicável, as mesmas obrigações estabelecidas nas secções 2 e 3 do capítulo V.
4. Pokud je harmonizovaná norma evropskou normalizační organizací přijata a Komisi je navrženo, aby odkaz na ni zveřejnila v Úředním věstníku Evropské unie, Komise harmonizovanou normu posoudí v souladu s nařízením (EU) č. 1025/2012. Je-li odkaz na harmonizovanou normu zveřejněn v Úředním věstníku Evropské unie, Komise zruší prováděcí akty uvedené v odstavci 1 nebo jejich části, které se týkají stejných požadavků stanovených v oddíle 2 této kapitoly nebo, v příslušných případech, stejných povinností stanovených v kapitole V oddíle 2 a 3..
5. Os prestadores de sistemas de IA de risco elevado ou os modelos de IA de finalidade geral que não cumprirem as especificações comuns a que se refere o n.o 1 devem justificar devidamente que adotaram soluções técnicas que cumprem os requisitos referidos na secção 2 do presente capítulo, ou, conforme aplicável, as obrigações estabelecidas nas secções 2 e 3 do capítulo V, a um nível, no mínimo, equivalente.
5. Pokud poskytovatelé vysoce rizikových systémů AI nebo obecných modelů AI nejsou ve shodě se společnými specifikacemi uvedenými v odstavci 1, řádně zdůvodní, že přijali technická řešení, která splňují požadavky uvedené v oddíle 2 této kapitoly nebo, v příslušných případech, která jsou v souladu s povinnostmi stanovenými v kapitole V oddíle 2 a 3, v míře, která je s nimi přinejmenším rovnocenná.
6. Caso um Estado-Membro considere que uma especificação comum não cumpre inteiramente os requisitos estabelecidos na secção 2 ou, conforme aplicável, as obrigações estabelecidas nas secções 2 e 3 do capítulo V, informa a Comissão desse facto, apresentando uma explicação pormenorizada. A Comissão avalia essas informações e, se for caso disso, altera o ato de execução que estabelece a especificação comum em causa.
6. Pokud se některý členský stát domnívá, že určitá společná specifikace nesplňuje plně základní požadavky uvedené v tomto oddíle nebo, v příslušných případech, není v souladu s povinnostmi stanovenými v kapitole V oddíle 2 a 3, uvědomí o této skutečnosti Komisi s podrobným vysvětlením. Komise tyto informace posoudí a případně změní prováděcí akt, který dotyčnou společnou specifikaci stanoví.
Avaliação da conformidade
1. No respeitante aos sistemas de IA de risco elevado enumerados no anexo III, ponto 1, se, ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos na secção 2, o prestador tiver aplicado as normas harmonizadas a que se refere o artigo 40.o, ou, se for caso disso, as especificações comuns a que se refere o artigo 41.o, o prestador deve optar por um dos seguintes procedimentos:
1. V případě vysoce rizikových systémů AI uvedených v bodě 1 přílohy III, u nichž poskytovatel při prokazování souladu vysoce rizikového systému AI s požadavky stanovenými v oddíle 2 použil harmonizované normy uvedené v článku 40 nebo v relevantních případech společné specifikace uvedené v článku 41, si poskytovatel zvolí jeden z následujících postupů posuzování shody na základě:
a)
O controlo interno a que se refere o anexo VI; ou
a)
interní kontroly uvedené v příloze VI nebo
b)
A avaliação do sistema de gestão da qualidade e a avaliação da documentação técnica, com a participação de um organismo notificado, a que se refere o anexo VII.
b)
posouzení systému řízení kvality a posouzení technické dokumentace za účasti oznámeného subjektu podle přílohy VII.
Ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos na secção 2, o prestador deve seguir o procedimento de avaliação da conformidade estabelecido no anexo VII quando:
Při prokazování souladu vysoce rizikového systému AI s požadavky stanovenými v oddíle 2 se poskytovatel řídí postupem posuzování shody stanoveným v příloze VII, pokud:
a)
Não existam as normas harmonizadas a que se refere o artigo 40.o e não estejam disponíveis as especificações comuns a que se refere o artigo 41.o;
a)
neexistují harmonizované normy uvedené v článku 40 a nejsou k dispozici společné specifikace uvedené v článku 41;
b)
O prestador não tenha aplicado, ou tenha aplicado apenas parcialmente, a norma harmonizada;
b)
poskytovatel nepoužil harmonizovanou normu nebo použil jen její část;
c)
Existam as especificações comuns a que se refere a alínea a), mas o prestador não as tenha aplicado;
c)
společné specifikace uvedené v písmenu a) existují, ale poskytovatel je nepoužil;
d)
Uma ou mais das normas harmonizadas a que se refere a alínea a) tenham sido publicadas com uma restrição, e apenas no tocante à parte da norma que foi objeto da restrição.
d)
jedna nebo více harmonizovaných norem uvedených v písmenu a) byla zveřejněna s omezením a pouze pro tu část normy, která byla omezena.
Para efeitos do procedimento de avaliação da conformidade a que se refere o anexo VII, o prestador pode escolher qualquer um dos organismos notificados. Contudo, caso o sistema de IA de risco elevado se destine a ser colocado em serviço por autoridades competentes em matéria de aplicação da lei, imigração ou asilo ou por instituições, órgãos e organismos da UE, a autoridade de fiscalização do mercado a que se refere o artigo 74.o, n.os 8 ou 9, consoante aplicável, atua como organismo notificado.
Pro účely postupu posuzování shody uvedeného v příloze VII si poskytovatel může zvolit kterýkoli z oznámených subjektů. Je-li však vysoce rizikový systém AI určen k uvedení do provozu donucovacími, imigračními nebo azylovými orgány nebo orgány, institucemi a jinými subjekty EU, jedná jako oznámený subjekt orgán dozoru nad trhem uvedený v čl. 74 odst. 8, případně 9.
2. Em relação aos sistemas de IA de risco elevado enumerados no anexo III, pontos 2 a 8, os prestadores devem seguir o procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI, que não prevê a participação de um organismo notificado.
2. U vysoce rizikových systémů AI uvedených v bodech 2 až 8 přílohy III uplatňují poskytovatelé postup posuzování shody založený na interní kontrole uvedené v příloze VI, který nestanoví zapojení oznámeného subjektu.
3. Em relação aos sistemas de IA de risco elevado abrangidos pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção A, o prestador deve seguir o procedimento de avaliação da conformidade aplicável nos termos desses atos jurídicos. Os requisitos estabelecidos na secção 2 do presente capítulo aplicam-se a esses sistemas de IA de risco elevado e devem fazer parte dessa avaliação. É igualmente aplicável o disposto no anexo VII, pontos 4.3, 4.4, 4.5 e ponto 4.6, quinto parágrafo.
3. U vysoce rizikových systémů AI, na které se vztahují právní předpisy Unie v oblasti harmonizace uvedené v oddíle A přílohy I, uplatňuje poskytovatel příslušné postupy posouzení shody, které stanoví uvedené právní akty. Na tyto vysoce rizikové systémy AI se vztahují požadavky stanovené v oddíle 2 této kapitoly, které jsou součástí uvedeného posouzení. Použijí se rovněž body 4.3, 4.4, 4.5 a pátý odstavec bodu 4.6 přílohy VII.
Para efeitos dessa avaliação, os organismos notificados que tenham sido notificados nos termos dos referidos atos jurídicos ficam habilitados a verificar a conformidade dos sistemas de IA de risco elevado com os requisitos estabelecidos na secção 2, contanto que a conformidade desses organismos notificados com os requisitos estabelecidos no artigo 31.o, n.os 4, 5, 10 e 11, tenha sido avaliada no contexto do procedimento de notificação previsto nesses atos jurídicos.
Pro účely tohoto posouzení jsou oznámené subjekty, které byly oznámeny podle těchto právních aktů, oprávněny kontrolovat shodu vysoce rizikových systémů AI s požadavky stanovenými v oddíle 2, pokud byl posouzen soulad těchto oznámených subjektů s požadavky stanovenými v čl. 31 odst. 4, 5, 10 a 11 v rámci postupu pro oznamování podle těchto právních aktů.
Sempre que um ato jurídico enumerado na secção A do anexo I permita que o fabricante do produto renuncie a uma avaliação da conformidade por terceiros, desde que esse fabricante tenha aplicado todas as normas harmonizadas que abrangem os requisitos previstos nesses atos, o fabricante apenas pode recorrer a tal opção se tiver também aplicado normas harmonizadas ou, se for caso disso, especificações comuns a que se refere o artigo 41.o que abranjam todos os requisitos estabelecidos na secção 2 do presente capítulo.
Pokud právní akt uvedený v oddíle A přílohy I umožňuje výrobci produktu neúčastnit se posuzování shody třetí stranou za předpokladu, že tento výrobce uplatnil všechny harmonizované normy pokrývající všechny příslušné požadavky, může tento výrobce tuto možnost využít pouze v případě, že uplatnil rovněž harmonizované normy nebo v relevantních případech společné specifikace uvedené v článku 41, které pokrývají všechny požadavky stanovené v oddíle 2 této kapitoly.
4. Os sistemas de IA de risco elevado que já tenham sido sujeitos a um procedimento de avaliação da conformidade devem ser sujeitos a um novo procedimento de avaliação da conformidade caso sejam substancialmente modificados, independentemente de o sistema modificado se destinar a distribuição ulterior ou continuar a ser utilizado pelo atual responsável pela implantação.
4. U vysoce rizikových systémů AI, u kterých již byl postup posuzování shody proveden, musí být proveden nový postup posuzování shody v případě podstatné změny, bez ohledu na to, zda má být změněný systém dále distribuován, nebo zda jej i nadále používá jeho současný zavádějící subjekt.
No caso dos sistemas de IA de risco elevado que continuam a aprender após a colocação no mercado ou a colocação em serviço, as alterações ao sistema de IA de risco elevado e ao seu desempenho que tenham sido predeterminadas pelo prestador aquando da avaliação da conformidade inicial e façam parte das informações contidas na documentação técnica a que se refere o anexo IV, ponto 2, alínea f), não constituem uma modificação substancial.
U vysoce rizikových systémů AI, které se po uvedení na trh nebo do provozu dále učí, nepředstavují změny takového vysoce rizikového systému AI a jeho výkonnosti podstatnou změnu, pokud byly poskytovatelem před stanoveny v okamžiku počátečního posouzení shody a jsou součástí informací obsažených v technické dokumentaci uvedené v bodě 2 písm. f) přílohy IV.
5. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar os anexos VI e VII atualizando-os à luz da evolução técnica.
5. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97 s cílem změnit přílohy VI a VII jejich aktualizací s ohledem na technický pokrok.
6. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar os n.os 1 e 2 do presente artigo, a fim de sujeitar os sistemas de IA de risco elevado a que se refere o anexo III, pontos 2 a 8, à totalidade, ou a parte, do procedimento de avaliação da conformidade a que se refere o anexo VII. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI no que toca à prevenção ou minimização dos riscos que esses sistemas representam para a saúde e a segurança e para a proteção dos direitos fundamentais, bem como a disponibilidade de capacidades e recursos adequados nos organismos notificados.
6. Komisi je svěřena pravomoc přijmout akty v přenesené pravomoci v souladu s článkem 97, kterými se mění odstavce 1 a 2 tohoto článku, s cílem podrobit vysoce rizikové systémy AI uvedené v bodech 2 až 8 přílohy III postupu posuzování shody uvedenému v příloze VII nebo jejích částech. Komise přijímá tyto akty v přenesené pravomoci s přihlédnutím k účinnosti postupu posuzování shody založeného na interní kontrole podle přílohy VI v oblasti prevence nebo minimalizace rizik pro zdraví, bezpečnost a ochranu základních práv, která tyto systémy představují, jakož i k dostupnosti přiměřených kapacit a zdrojů mezi oznámenými subjekty.
1. Os certificados emitidos pelos organismos notificados em conformidade com o anexo VII devem ser redigidos numa língua que possa ser facilmente compreendida pelas autoridades competentes do Estado-Membro em que o organismo notificado estiver estabelecido.
1. Certifikáty vydané oznámenými subjekty v souladu s přílohou VII se vyhotovují v jazyce, který je snadno srozumitelný příslušným orgánům v členském státě, v němž je oznámený subjekt usazen.
2. Os certificados são válidos pelo período neles indicado, que não pode exceder cinco anos para os sistemas de IA abrangidos pelo anexo I e quatro anos para os sistemas de IA abrangidos pelo anexo III. A pedido do prestador, a validade de um certificado pode ser prorrogada por novos períodos não superiores a cinco anos para os sistemas de IA abrangidos pelo anexo I e a quatro anos para os sistemas de IA abrangidos pelo anexo III, com base numa reavaliação segundo os procedimentos de avaliação da conformidade aplicáveis. Os eventuais aditamentos a um certificado permanecem válidos, desde que o certificado a que dizem respeito seja válido.
2. Certifikáty jsou platné po dobu, kterou uvádějí a která nepřesáhne pět let pro systémy AI, na něž se vztahuje příloha I, a čtyři roky pro systémy AI, na něž se vztahuje příloha III. Na žádost poskytovatele může být platnost certifikátu prodlužována o další období, z nichž žádné nepřekročí délku pěti let pro systémy AI, na něž se vztahuje příloha I, a čtyři roky pro systémy AI, na něž se vztahuje příloha III, a to na základě nového posouzení v souladu s příslušnými postupy posuzování shody. Veškeré dodatky k certifikátu zůstávají v platnosti, pokud je platný certifikát, k němuž se vztahují.
3. Se verificar que um sistema de IA deixou de cumprir os requisitos estabelecidos na secção 2, o organismo notificado deve suspender, retirar ou restringir o certificado emitido, tendo em conta o princípio da proporcionalidade, a não ser que o prestador do sistema assegure o cumprimento desses requisitos tomando as medidas corretivas necessárias num prazo adequado estabelecido pelo organismo notificado. O organismo notificado deve fundamentar a sua decisão.
3. Pokud oznámený subjekt zjistí, že systém AI již nesplňuje požadavky uvedené v oddíle 2, pozastaví s ohledem na zásadu proporcionality platnost certifikátu nebo ho zruší či jinak omezí, dokud není vhodnými nápravnými opatřeními přijatými poskytovatelem tohoto systému v rámci příslušné lhůty stanovené oznámeným subjektem zajištěno dosažení souladu s těmito požadavky. Oznámený subjekt své rozhodnutí zdůvodní.
Deve prever-se um procedimento de recurso das decisões dos organismos notificados, incluindo sobre os certificados de conformidade emitidos.
Proti rozhodnutím oznámených subjektů, včetně rozhodnutí o vydaných certifikátech shody, je možné se odvolat.
Derrogação do procedimento de avaliação da conformidade
Odchylka od postupu posuzování shody
1. Em derrogação do artigo 43.o e mediante pedido devidamente justificado, qualquer autoridade de fiscalização do mercado pode autorizar a colocação no mercado ou a colocação em serviço de determinados sistemas de IA de risco elevado no território do Estado-Membro em causa, por motivos excecionais de segurança pública ou de proteção da vida e da saúde das pessoas, de proteção do ambiente ou de proteção de ativos industriais e infraestruturas essenciais. Essa autorização é concedida por um período limitado enquanto estiverem em curso os procedimentos de avaliação da conformidade necessários, tendo em conta as razões excecionais que justificam a derrogação. Esses procedimentos devem ser concluídos sem demora injustificada.
1. Odchylně od článku 43 a na základě řádně odůvodněné žádosti může kterýkoli orgán dozoru nad trhem povolit uvedení konkrétních vysoce rizikových systémů AI na trh nebo do provozu na území dotčeného členského státu z výjimečných důvodů veřejné bezpečnosti nebo ochrany života a zdraví osob, ochrany životního prostředí a ochrany klíčových průmyslových a infrastrukturních aktiv. Toto povolení se uděluje na omezenou dobu, dokud jsou prováděny nezbytné postupy posuzování shody, při zohlednění výjimečných důvodů opodstatňujících odchylku. Dokončení těchto postupů se provádí bez zbytečného odkladu.
2. Em situações de urgência devidamente justificadas por motivos excecionais de segurança pública ou em caso de ameaça específica, substancial e iminente para a vida ou a segurança física de pessoas singulares, as autoridades responsáveis pela aplicação da lei ou as autoridades da proteção civil podem colocar em serviço um sistema de IA de risco elevado específico sem a autorização a se refere o n.o 1, desde que essa autorização seja solicitada durante ou após a utilização, sem demora injustificada. Se a autorização a que se refere o n.o 1 for recusada, a utilização do sistema de IA de risco elevado deve ser suspensa com efeito imediato e todos os resultados dessa utilização devem ser imediatamente descartados.
2. V řádně odůvodněné naléhavé situaci z výjimečných důvodů veřejné bezpečnosti nebo v případě konkrétního, podstatného a bezprostředního ohrožení života nebo fyzické bezpečnosti fyzických osob mohou donucovací orgány nebo orgány civilní ochrany uvést do provozu konkrétní vysoce rizikový systém AI bez povolení uvedeného v odstavci 1, pokud je o takové povolení požádáno bez zbytečného odkladu v průběhu používání nebo po něm. Pokud je povolení uvedené v odstavci 1 zamítnuto, používání vysoce rizikového systému AI se s okamžitým účinkem zastaví a všechny výsledky a výstupy tohoto použití se okamžitě vyřadí.
3. A autorização a que se refere o n.o 1 só deve ser concedida se a autoridade de fiscalização do mercado concluir que o sistema de IA de risco elevado cumpre os requisitos da secção 2. A autoridade de fiscalização do mercado deve informar a Comissão e os outros Estados-Membros sobre as autorizações concedidas nos termos dos n.os 1 e 2. Esta obrigação não abrange os dados operacionais sensíveis relativos às atividades das autoridades responsáveis pela aplicação da lei.
3. Povolení uvedené v odstavci 1 bude vydáno jen v případě, že orgán dozoru nad trhem dospěje k závěru, že daný vysoce rizikový systém AI splňuje požadavky oddílu 2. Orgán dozoru nad trhem o každém povolení vydaném podle odstavce 1 a 2 informuje Komisi a ostatní členské státy. Tato povinnost se nevztahuje na citlivé operativní údaje týkající se činnosti donucovacích orgánů.
4. Se, no prazo de 15 dias a contar da receção da informação a que se refere o n.o 3, nem os Estados-Membros nem a Comissão tiverem formulado objeções a uma autorização concedida por uma autoridade de fiscalização do mercado de um Estado-Membro em conformidade com o n.o 1, considera-se que a autorização é justificada.
4. Pokud do patnácti kalendářních dnů od obdržení informací uvedených v odstavci 3 proti povolení vydanému orgánem dozoru nad trhem členského státu v souladu s odstavcem 1 žádný členský stát ani Komise nevznesou námitku, považuje se povolení za oprávněné.
5. Se, nos 15 dias subsequentes à receção da notificação a que se refere o n.o 3, um Estado-Membro formular objeções a uma autorização concedida por uma autoridade de fiscalização do mercado de outro Estado-Membro, ou se a Comissão considerar que a autorização é contrária ao direito da União ou que a conclusão dos Estados-Membros sobre a conformidade do sistema a que se refere o n.o 3 é infundada, a Comissão procede sem demora a consultas com o Estado-Membro em causa. Os operadores em causa devem ser consultados e ter a possibilidade de apresentar as suas observações. Tendo em conta essas consultas, a Comissão decide se a autorização se justifica. A Comissão designa o Estado-Membro e os operadores em causa como destinatários da decisão.
5. Pokud některý členský stát do patnácti kalendářních dnů od přijetí oznámení uvedeného v odstavci 3 námitky proti povolení vydanému orgánem dozoru nad trhem jiného členského státu vznese nebo pokud se Komise domnívá, že toto povolení je v rozporu s právem Unie nebo se závěrem členských států ohledně souladu systému podle odstavce 3 neopodstatněné, zahájí Komise s příslušným členským státem neprodleně konzultace. Dotčení provozovatelé jsou konzultováni a mají možnost předložit svá stanoviska. S ohledem na to Komise rozhodne, zda je povolení oprávněné či nikoli. Rozhodnutí Komise je určeno dotčenému členskému státu a příslušným provozovatelům.
6. Se a Comissão considerar que a autorização é injustificada, a autoridade de fiscalização do mercado do Estado-Membro em causa deve retirá-la.
6. Pokud Komise považuje povolení za neodůvodněné, orgán dozoru nad trhem dotčeného členského státu jej zruší.
7. No caso dos sistemas de IA de risco elevado relacionados com produtos abrangidos pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção A, só são aplicáveis as derrogações à avaliação da conformidade previstas nessa mesma legislação.
7. U vysoce rizikových systémů AI souvisejících s produkty, na něž se vztahují harmonizační právní předpisy Unie uvedené v oddíle A přílohy I, se použijí pouze odchylky od posuzování shody stanovené v uvedených harmonizačních právních předpisech Unie.
Declaração UE de conformidade
1. O prestador deve elaborar uma declaração UE de conformidade legível por máquina, assinada à mão ou eletronicamente, para cada sistema de IA de risco elevado, e mantê-la à disposição das autoridades nacionais competentes por um período de 10 anos a contar da data de colocação no mercado ou de colocação em serviço do sistema de IA de risco elevado. A declaração UE de conformidade deve especificar o sistema de IA de risco elevado para o qual foi elaborada. Deve ser apresentada às autoridades nacionais competentes, mediante pedido, uma cópia da declaração UE de conformidade.
1. Poskytovatel vypracuje pro každý vysoce rizikový systém AI písemné strojově čitelné, fyzické nebo elektronicky podepsané EU prohlášení o shodě a po dobu deseti let od uvedení vysoce rizikového systému AI na trh nebo do provozu je uchovává pro potřebu příslušných vnitrostátních orgánů. V EU prohlášení o shodě je uveden vysoce rizikový systém AI, pro nějž bylo vypracováno. Kopie EU prohlášení o shodě bude na vyžádání předložena dotčeným příslušným vnitrostátním orgánům.
2. A declaração UE de conformidade deve mencionar que o sistema de IA de risco elevado em causa cumpre os requisitos estabelecidos na secção 2. A declaração UE de conformidade deve conter as informações indicadas no anexo V e ser traduzida para uma língua que possa ser facilmente compreendida pelas autoridades nacionais competentes dos Estados-Membros em que o sistema de IA de risco elevado seja colocado no mercado ou disponibilizado.
2. EU prohlášení o shodě stanoví, že dotyčný vysoce rizikový systém AI splňuje požadavky stanovené v oddíle 2. EU prohlášení o shodě obsahuje informace stanovené v příloze V a je přeloženo do jazyka, který je snadno srozumitelný příslušným vnitrostátním orgánům v členských státech, v nichž je vysoce rizikový systém AI dodáván na trh nebo uveden na trh.
3. Se os sistemas de IA de risco elevado estiverem sujeitos a outra legislação de harmonização da União que também exija uma declaração UE de conformidade, deve ser elaborada uma única declaração UE de conformidade respeitante a todo o direito da União aplicáveis ao sistema de IA de risco elevado. A declaração deve incluir todas as informações necessárias para identificar a legislação de harmonização da União a que diz respeito.
3. Pokud se na vysoce rizikové systémy AI vztahují jiné harmonizační právní předpisy Unie, které také vyžadují EU prohlášení o shodě, vypracuje se jediné EU prohlášení o shodě s ohledem veškeré právo Unie, které se vztahuje na daný vysoce rizikový systém AI. Toto prohlášení musí obsahovat veškeré informace požadované pro identifikaci harmonizačních právních předpisů Unie, k nimž se prohlášení vztahuje.
4. Ao elaborar a declaração UE de conformidade, o prestador assume a responsabilidade pelo cumprimento dos requisitos estabelecidos na secção 2. O prestador deve manter a declaração UE de conformidade atualizada na medida do necessário.
4. Vypracováním EU prohlášení o shodě přebírá poskytovatel odpovědnost za soulad s požadavky stanovenými v oddíle 2. Poskytovatel toto EU prohlášení o shodě podle potřeby průběžně aktualizuje.
5. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar o anexo V através da atualização do conteúdo da declaração UE de conformidade estabelecido nesse anexo, a fim de introduzir elementos que se tornem necessários à luz da evolução técnica.
5. Komisi je svěřena pravomoc přijímat akty v přenesené pravomoci v souladu s článkem 97 za účelem změny přílohy V aktualizací obsahu EU prohlášení o shodě uvedeného v uvedené příloze s cílem zavést prvky, které mohou být nutné s ohledem na technický pokrok.
1. A marcação CE está sujeita aos princípios gerais enunciados no artigo 30.o do Regulamento (CE) n.o 765/2008.
1. Označení CE podléhá obecným zásadám uvedeným v článku 30 nařízení (ES) č. 765/2008.
2. No caso dos sistemas de IA de risco elevado disponibilizados digitalmente, só deve ser utilizada uma marcação CE digital se esta for facilmente acessível através da interface a partir da qual se acede a esse sistema ou através de um código legível por máquina facilmente acessível ou por outros meios eletrónicos.
2. U vysoce rizikových systémů AI poskytovaných digitálně se digitální označení CE použije pouze v případě, že je snadno přístupné prostřednictvím rozhraní, z něhož je systém přístupný, nebo prostřednictvím snadno přístupného strojově čitelného kódu nebo jiných elektronických prostředků.
3. A marcação CE deve ser aposta de modo visível, legível e indelével nos sistemas de IA de risco elevado. Caso a natureza do sistema de IA de risco elevado não permita ou não garanta essas características da marcação, esta deve ser aposta na embalagem ou na documentação que acompanha o sistema, conforme for mais adequado.
3. Označení CE se viditelně, čitelně a nesmazatelně umístí na daný vysoce rizikový systém AI. Pokud to není možné nebo to nelze s ohledem na charakter vysoce rizikového systému AI zaručit, umístí se podle potřeby na obal nebo na průvodní doklady.
4. Quando aplicável, a marcação CE deve ser acompanhada do número de identificação do organismo notificado responsável pelos procedimentos de avaliação da conformidade estabelecidos no artigo 43.o. O número de identificação do organismo notificado deve ser aposto pelo próprio organismo ou, segundo as suas instruções, pelo prestador ou pelo seu mandatário. O número de identificação deve ser também indicado em todo o material promocional que mencione que o sistema de IA de risco elevado cumpre os requisitos aplicáveis à marcação CE.
4. V relevantních případech následuje za označením CE identifikační číslo oznámeného subjektu odpovědného za postupy posuzování shody stanovené v článku 43. Identifikační číslo oznámeného subjektu umístí sám subjekt, nebo jej umístí podle jeho pokynů poskytovatel nebo jeho zplnomocněný zástupce. Identifikační číslo je rovněž uvedeno ve všech propagačních materiálech, které uvádí, že daný vysoce rizikový systém AI splňuje požadavky na označení CE.
5. Caso os sistemas de IA de risco elevado sejam objeto de outro direito da União que também preveja a aposição da marcação CE, essa marcação deve indicar que os sistemas de IA de risco elevado cumprem igualmente os requisitos desse outro direito.
5. Pokud se na vysoce rizikové systémy AI vztahuje jiné právo Unie, které rovněž stanoví připojení označení CE, pak se v tomto označení uvádí, že vysoce rizikové systémy AI splňují také požadavky daného jiného práva.
1. Antes da colocação no mercado ou da colocação em serviço de um sistema de IA de risco elevado enumerado no anexo III, com exceção dos sistemas de IA de risco elevado a que se refere o anexo III, ponto 2, o prestador ou, se for caso disso, o mandatário deve registar-se e registar o seu sistema na base de dados da UE a que se refere o artigo 71.o.
1. Před uvedením vysoce rizikového systému AI uvedeného v příloze III, s výjimkou vysoce rizikových systémů AI podle bodu 2 přílohy III, na trh nebo do provozu poskytovatel nebo případně zplnomocněný zástupce zaregistruje sebe a svůj systém do databáze EU uvedené v článku 71.
2. Antes da colocação no mercado ou da colocação em serviço de um sistema de IA relativamente ao qual o prestador tenha concluído que não é de risco elevado nos termos do artigo 6.o, n.o 3, esse prestador ou, se for caso disso, o mandatário deve registar-se e registar esse sistema na base de dados da UE a que se refere o artigo 71.o.
2. Před uvedením systému AI, u něhož poskytovatel došel k závěru, že nepředstavuje vysoké riziko podle čl. 6 odst. 3, na trh nebo do provozu tento poskytovatel nebo případně zplnomocněný zástupce zaregistruje sebe a tento systém do databáze EU uvedené v článku 71.
3. Antes de colocarem em serviço ou utilizarem um dos sistemas de IA de risco elevado enumerados no anexo III, com exceção dos sistemas de IA de risco elevado enumerados no ponto 2 do anexo III, os responsáveis pela implantação que sejam autoridades públicas, instituições, órgãos ou organismos da União ou pessoas que atuem em seu nome devem registar-se, selecionar o sistema e registar a sua utilização na base de dados da UE a que se refere o artigo 71.o.
3. Před uvedením do provozu nebo použitím vysoce rizikového systému AI uvedeného v příloze III, s výjimkou vysoce rizikových systémů AI uvedených v bodě 2 přílohy III, zavádějící subjekty, které jsou veřejnými orgány, orgány, institucemi nebo jinými subjekty Unie nebo osobami jednajícími jejich jménem, se zaregistrují, vyberou systém a zaregistrují jeho používání v databázi EU uvedené v článku 71.
4. No caso dos sistemas de IA de risco elevado a que se refere o anexo III, pontos 1, 6 e 7, nos domínios da aplicação da lei, da migração, do asilo e da gestão do controlo das fronteiras, o registo referido nos n.os 1, 2 e 3 do presente artigo deve ser efetuado numa secção segura e não pública da base de dados da UE a que se refere o artigo 71.o e incluir apenas as seguintes informações, conforme aplicável, a que se referem:
4. V případě vysoce rizikových systémů AI uvedených v bodech 1, 6 a 7 přílohy III v oblastech vymáhání práva, migrace, azylu a správy ochrany hranic se registrace uvedená v odstavcích 1, 2 a 3 tohoto článku provádí v zabezpečené neveřejné části databáze EU uvedené v článku 71 a obsahuje v příslušných případech pouze tyto informace uvedené v těchto částech:
a)
O anexo VIII, secção A, pontos 1 a 10, com exceção dos pontos 6, 8 e 9;
a)
oddíl A body 1 až 10 přílohy VIII, s výjimkou bodů 6, 8 a 9;
b)
O anexo VIII, secção B, pontos 1 a 5 e pontos 8 e 9;
b)
oddíl B, body 1 až 5 a body 8 a 9 přílohy VIII;
c)
O anexo VIII, secção C, pontos 1 a 3;
c)
oddíl C body 1 až 3 přílohy VIII;
d)
O anexo IX, pontos 1, 2, 3 e 5.
d)
body 1. 2,3 a 5 přílohy IX.
Só a Comissão e as autoridades nacionais referidas no artigo 74.o, n.o 8, têm acesso às respetivas secções restritas da base de dados da UE a que se refere o primeiro parágrafo do presente número.
Do těchto konkrétních omezených částí databáze EU uvedených v prvním pododstavci tohoto odstavce mají přístup pouze Komise a vnitrostátní orgány uvedené v čl. 74 odst. 8.
5. Os sistemas de IA de risco elevado a que se refere o anexo III, ponto 2, devem ser registados a nível nacional.
5. Vysoce rizikové systémy AI uvedené v příloze III bodě 2 se registrují na vnitrostátní úrovni.
Obrigações de transparência aplicáveis aos prestadores e responsáveis pela implantação de determinados sistemas de inteligência artificial
Povinnosti poskytovatelů zavádějící subjektů určitých systémů AI, pokud jde o transparentnost
1. Os prestadores devem assegurar que os sistemas de IA destinados a interagir diretamente com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares em causa sejam informadas de que estão a interagir com um sistema de IA, salvo se tal for óbvio do ponto de vista de uma pessoa singular razoavelmente informada, atenta e advertida, tendo em conta as circunstâncias e o contexto de utilização. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar ou reprimir infrações penais, sob reserva de garantias adequadas dos direitos e liberdades de terceiros, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal.
1. Poskytovatelé zajistí, aby systémy AI určené k přímé interakci s fyzickými osobami byly navrhovány a vyvíjeny tak, že dotčené fyzické osoby budou vyrozuměny o tom, že komunikují se systémem AI, není-li tato skutečnost zřejmá z pohledu fyzické osoby, která je přiměřeně informovaná, pozorná a obezřetná, při zohlednění okolností a kontextu použití. S výhradou příslušných záruk týkajících se práv a svobod třetích stran se tato povinnost nevztahuje na systémy AI, které jsou ze zákona oprávněny odhalovat trestné činy, předcházet jim, vyšetřovat je nebo stíhat, s výjimkou případů, kdy jsou tyto systémy k dispozici veřejnosti za účelem hlášení trestných činů.
2. Os prestadores de sistemas de IA, incluindo sistemas de IA de finalidade geral, que geram conteúdos sintéticos de áudio, imagem, vídeo ou texto, devem assegurar que os resultados do sistema de IA sejam marcados num formato legível por máquina e detetáveis como tendo sido artificialmente gerados ou manipulados. Os prestadores devem assegurar que as suas soluções técnicas são eficazes, interoperáveis, sólidas e fiáveis, na medida em que tal seja tecnicamente viável, tendo em conta as especificidades e limitações dos vários tipos de conteúdos, os custos de aplicação e o estado da arte geralmente reconhecido, tal como estiver refletido em normas técnicas pertinentes. Esta obrigação não se aplica na medida em que os sistemas de IA desempenhem uma função de apoio à edição normalizada ou não alterem substancialmente os dados de entrada disponibilizados pelo responsável pela implantação ou a semântica dos mesmos, ou quando a sua utilização for autorizada por lei para detetar, prevenir, investigar e reprimir infrações penais.
2. Poskytovatelé systémů AI, včetně obecných systémů AI, vytvářejících syntetický zvukový, obrazový, video nebo textový obsah, zajistí, aby výstupy systému AI byly označeny ve strojově čitelném formátu a zjistitelné jako uměle vytvořené nebo manipulované. Poskytovatelé zajistí, aby jejich technická řešení byla účinná, interoperabilní, robustní a spolehlivá, pokud je to technicky proveditelné, s přihlédnutím ke zvláštnostem a omezením různých druhů obsahu, nákladům na provádění a obecně uznávanému nejmodernějšímu stavu technologií, tak jak mohou být zachyceny v příslušných technických normách. Tato povinnost se neuplatní v rozsahu, v jakém systémy AI plní asistenční funkci pro standardní editaci nebo podstatně nemění vstupní údaje poskytnuté zavádějícím subjektem nebo jejich sémantiku, nebo pokud je to zákonem povoleno k odhalování, prevenci, vyšetřování nebo stíhání trestných činů.
3. Os responsáveis pela implantação de um sistema de reconhecimento de emoções ou de um sistema de categorização biométrica devem informar as pessoas expostas a esse sistema do seu funcionamento e tratar os dados pessoais em conformidade com os Regulamentos (UE) 2016/679, e (UE) 2018/1725 e a Diretiva (UE) 2016/680, conforme aplicável. Esta obrigação não se aplica aos sistemas de IA usados para categorização biométrica e reconhecimento de emoções legalmente autorizados para detetar, prevenir ou investigar infrações penais, sob reserva de garantias adequadas dos direitos e liberdades de terceiros, e nos termos do direito da União.
3. Subjekty zavádějící systém rozpoznávání emocí nebo systém biometrické kategorizace informují o provozu systému fyzické osoby, které jsou mu vystaveny, a zpracovávají osobní údaje podle potřeby v souladu s nařízeními (EU) 2016/679 a (EU) 2018/1725 a směrnicí (EU) 2016/680. Tato povinnost se nevztahuje na systémy AI používané pro biometrickou kategorizaci a rozpoznávání emocí, kterým zákon umožňuje odhalovat trestné činy, předcházet jim nebo je vyšetřovat, s výhradou příslušných záruk týkajících se práv a svobod třetích stran a v souladu s právem Unie.
4. Os responsáveis pela implantação de um sistema de IA que gere ou manipule conteúdos de imagem, áudio ou vídeo que constituam uma falsificação profunda devem revelar que os conteúdos foram artificialmente gerados ou manipulados. Esta obrigação não se aplica se a utilização for autorizada por lei para detetar, prevenir, investigar ou reprimir infrações penais. Sempre que os conteúdos façam parte de um programa ou obra de natureza manifestamente artística, criativa, satírica, ficcional ou análoga, as obrigações de transparência estabelecidas no presente número limitam-se à divulgação da existência desses conteúdos gerados ou manipulados, de uma forma adequada que não prejudique a exibição ou a fruição da obra.
4. Subjekty zavádějící systém AI, který vytváří obrazový, zvukový nebo video obsah představující tzv. „deep fake“ nebo s ním manipuluje, musí zveřejnit, že obsah byl uměle vytvořen nebo s ním bylo manipulováno. Tato povinnost se nevztahuje na případy, kdy je použití povoleno zákonem k odhalování trestných činů, předcházení jim, jejich vyšetřování nebo jejich stíhání. Pokud je obsah součástí zjevně uměleckého, tvůrčího, satirického, fiktivního či obdobného díla nebo programu, povinnosti týkající se transparentnosti stanovené v tomto odstavci jsou omezeny na zveřejnění existence takového vytvořeného nebo zmanipulovaného obsahu vhodným způsobem, který nebrání zobrazení nebo užívání díla.
Os responsáveis pela implantação de um sistema de IA que gere ou manipule texto publicado com o objetivo de informar o público sobre questões de interesse público devem revelar que o texto foi artificialmente gerado ou manipulado. Esta obrigação não se aplica se a utilização for autorizada por lei para detetar, prevenir, investigar e reprimir infrações penais ou se os conteúdos gerados por IA tiverem sido objeto de um processo de análise humana ou de controlo editorial e se uma pessoa singular ou coletiva for responsável editorial pela publicação do conteúdo.
Subjekty zavádějící systém AI, který vytváří text, jenž je zveřejněn za účelem informování veřejnosti o záležitostech veřejného zájmu, nebo který s takovým textem manipuluje, uvedou, že text byl vytvořen uměle nebo s ním bylo manipulováno. Tato povinnost se nevztahuje na případy, kdy je použití povoleno zákonem k odhalování, prevenci, vyšetřování nebo stíhání trestných činů nebo kdy byl obsah vytvořený umělou inteligencí podroben procesu přezkumu člověkem nebo redakční kontroly a pokud za zveřejnění obsahu nese redakční odpovědnost fyzická nebo právnická osoba.
5. As informações a que se referem os n.os 1 a 4 são prestadas às pessoas singulares em causa de forma clara e percetível o mais tardar aquando da primeira interação ou exposição. As informações devem estar em conformidade com os requisitos de acessibilidade aplicáveis.
5. Informace uvedené v odstavcích 1 až 4 se dotčeným fyzickým osobám poskytují jasným a rozlišitelným způsobem nejpozději v době první interakce nebo expozice. Informace musí být v souladu s použitelnými požadavky na přístupnost.
6. Os n.os 1 a 4 não afetam os requisitos e obrigações estabelecidos no capítulo III e não prejudicam outras obrigações de transparência aplicáveis aos responsáveis pela implantação de sistemas de IA estabelecidas no direito da União ou no direito nacional.
6. Odstavci 1 až 4 nejsou dotčeny požadavky a povinnosti stanovené v kapitole III a nejsou jimi dotčeny další povinnosti týkající se transparentnosti stanovené v unijním nebo vnitrostátním právu pro subjekty zavádějící systémy AI.
7. O Serviço para a IA incentiva e facilita a elaboração a nível da União de códigos de práticas para facilitar a aplicação efetiva das obrigações em matéria de deteção e rotulagem de conteúdos artificialmente gerados ou manipulados. A Comissão pode adotar atos de execução para aprovar esses códigos de práticas em conformidade com o procedimento previsto no artigo 56.o, n.o 6. Se considerar que o código não é adequado, a Comissão pode adotar um ato de execução que especifique as regras comuns para a aplicação dessas obrigações, em conformidade com o procedimento de exame previsto no artigo 98.o, n.o 2.
7. Úřad pro AI podporuje a usnadňuje vypracování kodexů správné praxe na úrovni Unie s cílem usnadnit účinné provádění povinností týkajících se odhalování a označování uměle vytvořeného nebo manipulovaného obsahu. Komise může přijímat prováděcí akty za účelem schválení těchto kodexů správné praxe v souladu s postupem stanoveným v čl. 56 odst. 6. Pokud se Komise domnívá, že kodex není přiměřený, může přijmout prováděcí akt, kterým se stanoví společná pravidla pro plnění těchto povinností v souladu s přezkumným postupem stanoveným v čl. 98 odst. 2.
1. Sempre que um modelo de IA de finalidade geral preencha a condição a que se refere o artigo 51.o, n.o 1, alínea a), o prestador em causa notifica a Comissão sem demora e, em qualquer caso, no prazo de duas semanas a contar da data em que preencheu esse requisito ou da data em que se soube que esse requisito vai ser preenchido. Essa notificação deve incluir as informações necessárias para demonstrar que o requisito em causa foi preenchido. Se a Comissão tomar conhecimento de um modelo de IA de finalidade geral que apresente riscos sistémicos dos quais não tenha sido notificada, pode decidir designá-lo como um modelo com risco sistémico.
1. Pokud všeobecný model AI splňuje podmínku uvedenou v čl. 51 odst. 1 písm. a), oznámí to příslušný poskytovatel neprodleně a v každém případě do dvou týdnů po splnění tohoto požadavku, nebo jakmile bude známo, že bude splněn. Toto oznámení obsahuje informace nezbytné k prokázání toho, že byl splněn příslušný požadavek. Pokud se Komise dozví o obecném modelu AI, který představuje systémová rizika, o němž nebyla informována, může se rozhodnout, že jej označí za model se systémovým rizikem.
2. O prestador de um modelo de IA de finalidade geral que preencha as condições a que se refere o artigo 51.o, n.o 1, alínea a), pode apresentar, com a sua notificação, argumentos suficientemente fundamentados para demonstrar que, excecionalmente, embora preencha esse requisito, o modelo de IA de finalidade geral não apresenta, devido às suas características específicas, riscos sistémicos e, por conseguinte, não deverá ser classificado como um modelo de IA de finalidade geral com risco sistémico.
2. Poskytovatel obecného modelu AI, který splňuje podmínku uvedenou v čl. 51 odst. 1 písm. a), může spolu se svým oznámením předložit dostatečně podložené argumenty prokazující, že ačkoli obecný model AI výjimečně splňuje tento požadavek, nepředstavuje vzhledem ke svým specifickým vlastnostem systémová rizika, a proto by neměl být klasifikován jako obecný model AI se systémovým rizikem.
3. Se concluir que os argumentos apresentados nos termos do n.o 2 não estão suficientemente fundamentados e que o prestador em causa não conseguiu demonstrar que o modelo de IA de finalidade geral não apresenta, devido às suas características específicas, riscos sistémicos, a Comissão rejeita esses argumentos e o modelo de IA de finalidade geral é considerado um modelo de IA de finalidade geral com risco sistémico.
3. Pokud Komise dospěje k závěru, že argumenty předložené podle odstavce 2 nejsou dostatečně podložené a příslušný poskytovatel nebyl schopen prokázat, že obecný model AI nepředstavuje vzhledem ke svým specifickým vlastnostem systémová rizika, zamítne tyto argumenty a obecný model AI se považuje za obecný model AI se systémovým rizikem.
4. A Comissão pode designar um modelo de IA de finalidade geral como apresentando riscos sistémicos, ex officio ou na sequência de um alerta qualificado do painel científico nos termos do artigo 90.o, n.o 1, alínea a), com base nos critérios estabelecidos no anexo XIII.
4. Komise může určit obecný model AI jako model představující systémová rizika z moci úřední nebo na základě kvalifikované výstrahy vědecké komise podle čl. 90 odst. 1 písm. a) na základě kritérií stanovených v příloze XIII.
A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar o anexo XIII através da especificação e atualização dos critérios estabelecidos nesse anexo.
Komisi je svěřena pravomoc přijímat akty v přenesené pravomoci v souladu s článkem 97 za účelem změny přílohy XIII prostřednictvím specifikace a aktualizace kritérií uvedených v uvedené příloze.
5. Mediante pedido fundamentado de um prestador cujo modelo tenha sido designado como modelo de IA de finalidade geral com risco sistémico nos termos do n.o 4, a Comissão tem em conta o pedido e pode decidir reavaliar se o modelo de IA de finalidade geral ainda pode ser considerado como apresentando riscos sistémicos com base nos critérios estabelecidos no anexo XIII. Um tal pedido deve conter razões objetivas, detalhadas e novas que tenham surgido desde a decisão relativa à designação. Os prestadores podem solicitar uma reavaliação decorridos no mínimo seis meses após a decisão relativa à designação. Se, na sequência da sua reavaliação, a Comissão decidir manter a designação de modelo de IA de finalidade geral com risco sistémico, os prestadores podem solicitar uma reavaliação decorridos no mínimo seis meses após essa decisão.
5. Komise zohlední odůvodněnou žádost poskytovatele, jehož model byl určen jako obecný model AI se systémovým rizikem podle odstavce 4, a může rozhodnout o přehodnocení toho, zda lze na základě kritérií stanovených v příloze XIII mít nadále za to, že představuje systémová rizika. Tato žádost musí obsahovat objektivní, podrobné a nové důvody, které se objevily od rozhodnutí o určení. Poskytovatelé mohou požádat o nové posouzení nejdříve šest měsíců po rozhodnutí o určení. Pokud se Komise po novém posouzení rozhodne zachovat označení jako obecný model AI se systémovým rizikem, mohou poskytovatelé požádat o nové posouzení nejdříve šest měsíců po tomto rozhodnutí.
6. A Comissão assegura a publicação de uma lista de modelos de IA de finalidade geral com risco sistémico e mantém-na atualizada, sem prejuízo da necessidade de observar e proteger os direitos de propriedade intelectual e as informações comerciais de caráter confidencial ou segredos comerciais, em conformidade com o direito da União e o direito nacional.
6. Komise zajistí, aby byl zveřejněn seznam obecných modelů AI se systémovým rizikem, a tento seznam průběžně aktualizuje, aniž je dotčena potřeba dodržovat a chránit práva duševního vlastnictví a důvěrné obchodní informace nebo obchodní tajemství v souladu s právem Unie a vnitrostátním právem.