Notice: This is a Juremy.com rendered version. Only European Union documents published in the Official Journal of the European Union are deemed authentic. Juremy accepts no responsibility or liability whatsoever with regard to the content of this document.
Base data © European Union, 1998-2024. Postprocessed and marked-up data © 2019-2024 Juremy.com, all rights reserved.
Render version: 0.1, render date: 2024-07-24
Úradný vestník
Európskej únie
SK
Jornal Oficial
da União Europeia
PT
Séria L
Série L
2024/1689
12.7.2024
2024/1689
12.7.2024
NARIADENIE EURÓPSKEHO PARLAMENTU A RADY (EÚ) 2024/1689
REGULAMENTO (UE) 2024/1689 DO PARLAMENTO EUROPEU E DO CONSELHO
z 13. júna 2024,
de 13 de junho de 2024
ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie a ktorým sa menia nariadenia (ES) č. 300/2008, (EÚ) č. 167/2013, (EÚ) č. 168/2013, (EÚ) 2018/858, (EÚ) 2018/1139 a (EÚ) 2019/2144 a smernice 2014/90/EÚ, (EÚ) 2016/797 a (EÚ) 2020/1828 (akt o umelej inteligencii)
que cria regras harmonizadas em matéria de inteligência artificial e que altera os Regulamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial)
(Text s významom pre EHP)
(Texto relevante para efeitos do EEE)
EURÓPSKY PARLAMENT A RADA EURÓPSKEJ ÚNIE,
O PARLAMENTO EUROPEU E O CONSELHO DA UNIÃO EUROPEIA,
so zreteľom na Zmluvu o fungovaní Európskej únie, a najmä na jej články 16 a 114,
Tendo em conta o Tratado sobre o Funcionamento da União Europeia, nomeadamente os artigos 16.o e 114.o,
so zreteľom na návrh Európskej komisie,
Tendo em conta a proposta da Comissão Europeia,
po postúpení návrhu legislatívneho aktu národným parlamentom,
Após transmissão do projeto de ato legislativo aos parlamentos nacionais,
so zreteľom na stanovisko Európskeho hospodárskeho a sociálneho výboru (1),
Tendo em conta o parecer do Comité Económico e Social Europeu (1),
so zreteľom na stanovisko Európskej centrálnej banky (2),
Tendo em conta o parecer do Banco Central Europeu (2),
so zreteľom na stanovisko Výboru regiónov (3),
Tendo em conta o parecer do Comité das Regiões (3),
konajúc v súlade s riadnym legislatívnym postupom (4),
Deliberando de acordo com o processo legislativo ordinário (4),
keďže:
Considerando o seguinte:
(1)
Účelom tohto nariadenia je zlepšiť fungovanie vnútorného trhu stanovením jednotného právneho rámca, najmä pokiaľ ide o vývoj, uvádzanie na trh, uvádzanie do prevádzky a používanie systémov umelej inteligencie (ďalej len „systémy AI“) v Únii v súlade s hodnotami Únie, podporovať zavádzanie dôveryhodnej umelej inteligencie (ďalej len „AI“ – artificial intelligence) sústredenej na človeka a zároveň zaistiť vysokú úroveň ochrany zdravia, bezpečnosti a základných práv zakotvených v Charte základných práv Európskej únie (ďalej len „charta“), vrátane ochrany demokracie, právneho štátu a životného prostredia, chrániť pred škodlivými účinkami systémov AI v Únii a podporovať inovácie. Týmto nariadením sa zabezpečuje voľný pohyb tovaru a služieb založených na AI cez hranice, čím sa členským štátom zabraňuje ukladať obmedzenia na vývoj, uvádzanie na trh a používanie systémov AI, pokiaľ to toto nariadenie výslovne nepovoľuje.
(1)
O presente regulamento tem por objetivo a melhoria do funcionamento do mercado interno mediante a previsão de um regime jurídico uniforme, em particular para o desenvolvimento, a colocação no mercado, a colocação em serviço e a utilização de sistemas de inteligência artificial (sistemas de IA) na União, em conformidade com os valores da União, a fim de promover a adoção de uma inteligência artificial (IA) centrada no ser humano e de confiança, assegurando simultaneamente um elevado nível de proteção da saúde, da segurança, dos direitos fundamentais consagrados na Carta dos Direitos Fundamentais da União Europeia («Carta»), nomeadamente a democracia, o Estado de direito e a proteção do ambiente, a proteção contra os efeitos nocivos dos sistemas de IA na União, e de apoiar a inovação. O presente regulamento assegura a livre circulação transfronteiriça de produtos e serviços baseados em IA, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de IA, salvo se explicitamente autorizado pelo presente regulamento.
(2)
Toto nariadenie by sa malo uplatňovať v súlade s hodnotami Únie zakotvenými v charte, čím sa uľahčí ochrana fyzických osôb, podnikov, demokracie, právneho štátu a životného prostredia a zároveň sa podporia inovácie a zamestnanosť a Únia sa stane lídrom v zavádzaní dôveryhodnej AI.
(2)
O presente regulamento deverá ser aplicado em conformidade com os valores da União consagrados na Carta, facilitando a proteção das pessoas singulares, das empresas, da democracia, do Estado de direito e proteção ambiental, promovendo simultaneamente a inovação e o emprego e colocando a União na liderança em matéria de adoção de uma IA de confiança.
(3)
Systémy AI možno ľahko nasadiť vo veľkej škále odvetví hospodárstva a mnohých oblastiach spoločnosti, a to aj cezhranične, a môžu ľahko obiehať po celej Únii. Niektoré členské štáty už zvažujú prijatie vnútroštátnych pravidiel na zabezpečenie toho, aby bola AI dôveryhodná a bezpečná a aby sa vyvíjala a používala v súlade s povinnosťami týkajúcimi sa základných práv. Rozdielne vnútroštátne pravidlá môžu viesť k fragmentácii vnútorného trhu a znížiť právnu istotu pre prevádzkovateľov, ktorí vyvíjajú, dovážajú alebo používajú systémy AI. Mala by sa preto zabezpečiť konzistentná a vysoká úroveň ochrany v celej Únii, aby sa dospelo k dôveryhodnej AI, pričom by sa malo zabrániť rozdielom, ktoré bránia voľnému obehu, inováciám, nasadzovaniu a zavádzaniu systémov AI a súvisiacich výrobkov a služieb v rámci vnútorného trhu, a to stanovením jednotných povinností pre prevádzkovateľov a zaručením jednotnej ochrany prevažujúcich dôvodov verejného záujmu a práv osôb na celom vnútornom trhu na základe článku 114 Zmluvy o fungovaní Európskej únie (ďalej len „ZFEÚ“). Pokiaľ toto nariadenie obsahuje osobitné pravidlá ochrany jednotlivcov pri spracúvaní osobných údajov týkajúce sa obmedzení používania systémov AI na diaľkovú biometrickú identifikáciu na účely presadzovania práva, používania systémov AI na posudzovanie rizík fyzických osôb na účely presadzovania práva a používania systémov AI s biometrickou kategorizáciou na účely presadzovania práva, je vhodné, pokiaľ ide o uvedené osobitné pravidlá, aby bol základom tohto nariadenia článok 16 ZFEÚ. Pokiaľ ide o tieto osobitné pravidlá a použitie článku 16 ZFEÚ, je vhodné konzultovať s Európskym výborom pre ochranu údajov.
(3)
Os sistemas de IA podem ser facilmente implantados numa grande variedade de setores da economia e em muitos quadrantes da sociedade, inclusive além fronteiras, e podem circular facilmente por toda a União. Certos Estados-Membros já ponderaram a adoção de regras nacionais para assegurar que a IA seja de confiança e segura e seja desenvolvida e utilizada em conformidade com as obrigações em matéria de direitos fundamentais. As diferenças entre regras nacionais podem conduzir à fragmentação do mercado interno e reduzir a segurança jurídica para os operadores que desenvolvem, importam ou utilizam sistemas de IA. Como tal, é necessário assegurar um nível de proteção elevado e coerente em toda a União, com vista a alcançar uma IA de confiança, e evitar divergências que prejudiquem a livre circulação, a inovação, a implantação e a adoção dos sistemas de IA e dos produtos e serviços conexos no mercado interno, mediante o estabelecimento de obrigações uniformes para os operadores e a garantia da proteção uniforme das razões imperativas de reconhecido interesse público e dos direitos das pessoas em todo o mercado interno, com base no artigo 114.o do Tratado sobre o Funcionamento da União Europeia (TFUE). Visto que o presente regulamento contém regras específicas aplicáveis à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais, nomeadamente restrições à utilização de sistemas de IA para a identificação biométrica à distância para efeitos de aplicação da lei, à utilização de sistemas de IA para a avaliação de risco em relação a pessoas singulares para efeitos de aplicação da lei e à utilização de sistemas de IA para categorização biométrica para efeitos de aplicação da lei, é apropriado basear este regulamento no artigo 16.o do TFUE, no respeitante a essas regras específicas. Face a essas regras específicas e ao recurso ao artigo 16.o do TFUE, é apropriado consultar o Comité Europeu para a Proteção de Dados.
(4)
AI je rýchlo sa rozvíjajúca skupina technológií, ktorá prispieva k širokému spektru hospodárskych, environmentálnych a spoločenských prínosov vo všetkých odvetviach a spoločenských činnostiach. Zlepšením predpovedí, optimalizáciou operácií a prideľovania zdrojov a personalizáciou digitálnych riešení, ktoré sú k dispozícii jednotlivcom a organizáciám, môže využívanie AI poskytnúť podnikom kľúčové konkurenčné výhody a podporiť sociálne a environmentálne priaznivé výsledky, napríklad v oblasti zdravotnej starostlivosti, poľnohospodárstva, bezpečnosti potravín, vzdelávania a odbornej prípravy, médií, športu a kultúry, riadenia infraštruktúry, energetiky, dopravy a logistiky, verejných služieb, bezpečnosti, spravodlivosti, efektívneho využívania zdrojov a energie, monitorovania životného prostredia, zachovania a obnovy biodiverzity a ekosystémov a zmierňovania zmeny klímy a adaptácie na ňu.
(4)
A IA é uma família de tecnologias em rápida evolução que contribui para um vasto conjunto de benefícios económicos, ambientais e sociais em todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da IA pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, nos cuidados de saúde, na agricultura, na segurança alimentar, na educação e na formação, nos meios de comunicação social, no desporto, na cultura, na gestão das infraestruturas, na energia, nos transportes e na logística, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos, na monitorização ambiental, na preservação e recuperação da biodiversidade e dos ecossistemas e na atenuação das alterações climáticas e adaptação às mesmas.
(5)
AI môže zároveň v závislosti od okolností týkajúcich sa jej konkrétnej aplikácie, použitia a úrovne technologického vývoja vytvárať riziká a ujmu pre verejné záujmy a základné práva, ktoré sú chránené právom Únie. Toto poškodzovanie môže byť hmotné aj nehmotné vrátane fyzickej, psychickej, spoločenskej alebo ekonomickej ujmy.
(5)
Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação, utilização e nível de evolução tecnológica específicos, a IA pode criar riscos e prejudicar interesses públicos e direitos fundamentais protegidos pela legislação da União. Esses prejuízos podem ser materiais ou imateriais, incluindo danos físicos, psicológicos, sociais ou económicos.
(6)
Vzhľadom na veľký vplyv, ktorý AI môže mať na spoločnosť, a na potrebu budovať dôveru je nevyhnutné, aby sa AI a jej regulačný rámec rozvíjali v súlade s hodnotami Únie zakotvenými v článku 2 Zmluvy o Európskej únii (ďalej len „Zmluva o EÚ“), základnými právami a slobodami zakotvenými v zmluvách a podľa článku 6 Zmluvy o EÚ v charte. Nevyhnutnou podmienkou je, aby AI bola technológiou sústredenou na človeka. Mala by slúžiť ako nástroj pre ľudí s konečným cieľom zvyšovať ich blahobyt.
(6)
Tendo em conta o grande impacto que a IA pode ter na sociedade e a necessidade de criar confiança, é fundamental que a IA e o respetivo regime regulamentar sejam desenvolvidos em conformidade com os valores da União consagrados no artigo 2.o do Tratado da União Europeia (TUE), com os direitos e liberdades fundamentais consagrados nos Tratados e, nos termos do artigo 6.o do TUE, com a Carta. Como condição prévia, a IA deverá ser uma tecnologia centrada no ser humano. Deverá servir de instrumento para as pessoas, com o objetivo último de aumentar o bem-estar humano.
(7)
S cieľom zabezpečiť jednotnú a vysokú úroveň ochrany verejných záujmov, pokiaľ ide o zdravie, bezpečnosť a základné práva, by sa mali stanoviť spoločné pravidlá pre vysokorizikové systémy AI. Tieto pravidlá by mali byť v súlade s chartou a mali by byť nediskriminačné a v súlade so záväzkami Únie v oblasti medzinárodného obchodu. Mali by zohľadňovať aj Európske vyhlásenie o digitálnych právach a zásadách v digitálnom desaťročí a etické usmernenia pre dôveryhodnú AI expertnej skupiny na vysokej úrovni pre umelú inteligenciu.
(7)
A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança e dos direitos fundamentais, deverão ser estabelecidas regras comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas deverão ser coerentes com a Carta, não discriminatórias e estar em consonância com os compromissos comerciais internacionais da União. Deverão também ter em conta a Declaração Europeia sobre os Direitos e Princípios Digitais para a Década Digital e as Orientações Éticas para uma IA de Confiança do Grupo de Peritos de Alto Nível em IA (AI HLEG, do inglês High-Level Expert Group on Artificial Intelligence).
(8)
Na podporu rozvoja, využívania a zavádzania AI na vnútornom trhu je preto potrebný právny rámec Únie, ktorým sa stanovujú harmonizované pravidlá v oblasti AI a ktorý zároveň spĺňa vysokú úroveň ochrany verejných záujmov, ako sú zdravie a bezpečnosť, a ochrany základných práv vrátane ochrany demokracie, právneho štátu a životného prostredia, ako sú uznané a chránené právom Únie. Na dosiahnutie tohto cieľa by sa mali stanoviť pravidlá upravujúce uvádzanie určitých systémov AI na trh, do prevádzky a ich používanie, čím sa zabezpečí hladké fungovanie vnútorného trhu a umožní sa, aby tieto systémy využívali zásadu voľného pohybu tovaru a služieb. Tieto pravidlá by mali byť jasné a spoľahlivé pri ochrane základných práv, mali by podporovať nové inovačné riešenia, byť nápomocné európskemu ekosystému verejných a súkromných aktérov vytvárajúcich systémy AI v súlade s hodnotami Únie a mali by uvoľňovať potenciál digitálnej transformácie vo všetkých regiónoch Únie. Stanovením uvedených pravidiel, ako aj opatrení na podporu inovácie s osobitným dôrazom na malé a stredné podniky (ďalej len „MSP“) vrátane startupov v tomto nariadení sa podporí cieľ presadzovať európsky prístup k AI sústredený na človeka a stať sa svetovým lídrom v rozvoji bezpečnej, dôveryhodnej a etickej AI, ako to vyjadrila Európska rada (5), a zabezpečí sa ochrana etických zásad, ako to osobitne požaduje Európsky parlament (6).
(8)
Como tal, é necessário adotar um regime jurídico da União que estabeleça regras harmonizadas em matéria de IA para promover o desenvolvimento, a utilização e a adoção da IA no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança e a defesa dos direitos fundamentais, incluindo a democracia, o Estado de direito e a proteção do ambiente, conforme reconhecido e protegido pelo direito da União. Para alcançar esse objetivo, torna-se necessário estabelecer regras que regulem a colocação no mercado, a colocação em serviço e a utilização de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Tais regras deverão ser claras e sólidas na defesa dos direitos fundamentais, apoiando novas soluções inovadoras e permitindo um ecossistema europeu de intervenientes públicos e privados que criem sistemas de IA em consonância com os valores da União e que explorem o potencial da transformação digital em todas as regiões da União. Ao estabelecer essas regras, bem como as medidas de apoio à inovação, com especial destaque para as pequenas e médias empresas (PME), incluindo as empresas em fase de arranque, o presente regulamento apoia o objetivo de promover a abordagem europeia da IA centrada no ser humano, assim como o de estar na vanguarda mundial do desenvolvimento de uma IA segura, ética e de confiança, conforme declarado pelo Conselho Europeu (5), e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu (6).
(9)
Harmonizované pravidlá uplatniteľné na uvádzanie vysokorizikových systémov AI na trh, do prevádzky a na ich používanie by sa mali stanoviť v súlade s nariadením Európskeho parlamentu a Rady (ES) č. 765/2008 (7), rozhodnutím Európskeho parlamentu a Rady č. 768/2008/ES (8) a s nariadením Európskeho parlamentu a Rady (EÚ) 2019/1020 (9) (ďalej len „nový legislatívny rámec“). Harmonizované pravidlá stanovené v tomto nariadení by sa mali uplatňovať vo všetkých odvetviach a v súlade s novým legislatívnym rámcom by nimi nemali byť dotknuté existujúce právne predpisy Únie, najmä pokiaľ ide o ochranu údajov, ochranu spotrebiteľa, základné práva, zamestnanosť, ochranu pracovníkov a bezpečnosť výrobkov, ktoré sa týmto nariadením dopĺňajú. V dôsledku toho všetky práva a prostriedky nápravy stanovené takýmto právom Únie pre spotrebiteľov a iné osoby, na ktoré môžu mať systémy AI negatívny vplyv, a to aj pokiaľ ide o náhradu možných škôd podľa smernice Rady 85/374/EHS (10), zostávajú nedotknuté a plne uplatniteľné. Okrem toho by toto nariadenie v kontexte zamestnania a ochrany pracovníkov nemalo mať vplyv na právo Únie v oblasti sociálnej politiky a vnútroštátne pracovné právo, ktoré je v súlade s právom Únie, pokiaľ ide o podmienky zamestnávania a pracovné podmienky vrátane ochrany zdravia a bezpečnosti pri práci a vzťahu medzi zamestnávateľmi a pracovníkmi. Týmto nariadením by nemalo byť dotknuté ani vykonávanie základných práv uznaných v členských štátoch a na úrovni Únie vrátane práva na štrajk alebo slobody štrajkovať alebo prijímať iné opatrenia, na ktoré sa vzťahujú osobitné systémy odvetvových vzťahov v členských štátoch, ako aj práva rokovať o kolektívnych dohodách, uzatvárať a presadzovať ich alebo prijímať kolektívne opatrenia v súlade s vnútroštátnym právom. Týmto nariadením by nemali byť dotknuté ustanovenia zamerané na zlepšenie pracovných podmienok v oblasti práce pre platformy stanovené v smernici Európskeho parlamentu a Rady o zlepšení pracovných podmienok v oblasti práce pre platformy. Okrem toho je cieľom tohto nariadenia posilniť účinnosť takýchto existujúcich práv a prostriedkov nápravy stanovením osobitných požiadaviek a povinností, a to aj pokiaľ ide o transparentnosť, technickú dokumentáciu a vedenie záznamov o systémoch AI. Povinnosti uložené rôznym prevádzkovateľom zapojeným do hodnotového reťazca AI podľa tohto nariadenia by sa zároveň mali uplatňovať bez toho, aby bolo dotknuté vnútroštátne právo, ktoré je v súlade s právom Únie a ktorým sa obmedzuje používanie určitých systémov AI v prípadoch, keď takéto právo nepatrí do rozsahu pôsobnosti tohto nariadenia alebo sleduje iné legitímne ciele verejného záujmu, než sú ciele tohto nariadenia. Toto nariadenie by napríklad nemalo mať vplyv na vnútroštátne pracovné právo a právne predpisy o ochrane maloletých, teda osôb mladších ako 18 rokov, s prihliadnutím na všeobecnú poznámku č. 25 (2021) Dohovoru OSN o právach dieťaťa v súvislosti s digitálnym prostredím, pokiaľ sa osobitne netýkajú systémov AI a sú zamerané na iné legitímne ciele verejného záujmu.
(9)
Deverão ser previstas regras harmonizadas aplicáveis à colocação no mercado, à colocação em serviço e à utilização de sistemas de IA de risco elevado coerentes com o Regulamento (CE) n.o 765/2008 do Parlamento Europeu e do Conselho (7), a Decisão n.o 768/2008/CE do Parlamento Europeu e do Conselho (8) e o Regulamento (UE) 2019/1020 do Parlamento Europeu e do Conselho (9) (novo regime jurídico). As regras harmonizadas estabelecidas no presente regulamento deverão aplicar-se em todos os setores e, em consonância com a abordagem do novo regime jurídico, não deverão prejudicar a legislação da União em vigor, nomeadamente em matéria de proteção de dados, defesa dos consumidores, direitos fundamentais, emprego, proteção dos trabalhadores e segurança dos produtos, que o presente regulamento vem complementar. Consequentemente, permanecem inalterados e plenamente aplicáveis todos os direitos e vias de recurso concedidos nessa legislação da União aos consumidores e a outras pessoas em relação às quais os sistemas de IA possam ter um impacto negativo, nomeadamente no que diz respeito à indemnização por eventuais danos nos termos da Diretiva 85/374/CEE do Conselho (10). Além disso, no contexto do emprego e da proteção dos trabalhadores, o presente regulamento não deverá, por conseguinte, afetar o direito da União em matéria de política social nem a legislação laboral nacional, que seja conforme com o direito da União, no que diz respeito ao emprego e às condições de trabalho, incluindo a saúde e a segurança no trabalho e a relação entre empregadores e trabalhadores. O presente regulamento também não deverá prejudicar o exercício dos direitos fundamentais reconhecidos pelos Estados-Membros e a nível da União, incluindo o direito ou a liberdade de fazer greve ou a liberdade de realizar outras ações abrangidas pelos sistemas específicos de relações laborais dos Estados-Membros, os direitos de negociação, de celebração e execução de convenções coletivas, ou de realização de ações coletivas de acordo com o direito nacional. O presente regulamento não deverá afetar as disposições destinadas a melhorar as condições de trabalho nas plataformas digitais estabelecidas numa Diretiva do Parlamento Europeu e do Conselho relativa à melhoria das condições de trabalho nas plataformas digitais. Além disso, presente regulamento visa ainda reforçar a eficácia desses direitos e vias de recurso existentes, estabelecendo requisitos e obrigações específicos, nomeadamente no que diz respeito à transparência, à documentação técnica e à manutenção de registos dos sistemas de IA. Além disso, as obrigações impostas aos vários operadores envolvidos na cadeia de valor da IA nos termos do presente regulamento deverão aplicar-se sem prejuízo da legislação nacional, que seja conforme com o direito da União, com o efeito de limitar a utilização de determinados sistemas de IA sempre que essa legislação não seja abrangida pelo âmbito de aplicação do presente regulamento ou prossiga objetivos legítimos de interesse público que não os prosseguidos pelo presente regulamento. Por exemplo, a legislação laboral nacional e a legislação em matéria de proteção de menores, nomeadamente pessoas com menos de 18 anos, tendo em conta o Comentário Geral n.o 25 (2021) das Nações Unidas sobre os direitos das crianças em ambiente digital, na medida em que não sejam específicos dos sistemas de IA e prossigam outros objetivos legítimos de interesse público, não deverão ser afetados pelo presente regulamento.
(10)
Základné právo na ochranu osobných údajov je zaručené najmä nariadeniami Európskeho parlamentu a Rady (EÚ) 2016/679 (11) a (EÚ) 2018/1725 (12) a smernicou Európskeho parlamentu a Rady (EÚ) 2016/680 (13). Súkromný život a dôvernosť komunikácií dodatočne chráni smernica Európskeho parlamentu a Rady 2002/58/ES (14), okrem iného prostredníctvom stanovenia podmienok akéhokoľvek uchovávania osobných a iných ako osobných údajov, ktoré boli uložené v koncovom zariadení a ku ktorým sa pristupuje prostredníctvom tohto zariadenia. Uvedené legislatívne akty Únie vytvárajú základ udržateľného a zodpovedného spracúvania údajov vrátane prípadov, keď súbory údajov obsahujú kombináciu osobných a iných ako osobných údajov. Cieľom tohto nariadenia nie je ovplyvniť uplatňovanie existujúcich právnych predpisov Únie upravujúcich spracúvanie osobných údajov vrátane úloh a právomocí nezávislých dozorných orgánov zodpovedných za monitorovanie súladu s týmito nástrojmi. Nie sú ním dotknuté ani povinnosti poskytovateľov systémov AI a subjektov nasadzujúcich systémy AI v ich úlohe prevádzkovateľov alebo sprostredkovateľov vyplývajúce z práva Únie alebo vnútroštátneho práva o ochrane osobných údajov, pokiaľ dizajn, vývoj alebo používanie systémov AI zahŕňa spracúvanie osobných údajov. Takisto je vhodné objasniť, že dotknuté osoby naďalej požívajú všetky práva a záruky, ktoré im takéto právo Únie priznáva, vrátane práv súvisiacich s výlučne automatizovaným individuálnym rozhodovaním vrátane profilovania. Harmonizované pravidlá uvádzania na trh, uvádzania do prevádzky a používania systémov AI stanovené v tomto nariadení by mali uľahčiť účinné vykonávanie a umožniť uplatňovanie práv dotknutých osôb a iných prostriedkov nápravy zaručených právom Únie o ochrane osobných údajov a iných základných práv.
(10)
O direito fundamental à proteção de dados pessoais está salvaguardado em especial pelos Regulamentos (UE) 2016/679 (11) e (UE) 2018/1725 (12) do Parlamento Europeu e do Conselho e pela Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho (13). Além disso, a Diretiva 2002/58/CE do Parlamento Europeu e do Conselho (14) protege a vida privada e a confidencialidade das comunicações, nomeadamente através de condições colocadas ao armazenamento de dados pessoais e não pessoais em equipamentos terminais e a qualquer acesso a partir dos mesmos. Esses atos jurídicos da União constituem a base para um tratamento de dados sustentável e responsável, nomeadamente quando os conjuntos de dados incluem uma combinação de dados pessoais e não pessoais. O presente regulamento não visa afetar a aplicação do direito da União já em vigor que rege o tratamento de dados pessoais, incluindo as funções e as competências das autoridades de supervisão independentes responsáveis pelo controlo do cumprimento desses instrumentos. Da mesma forma, não afeta as obrigações dos prestadores nem dos responsáveis pela implantação de sistemas de IA, enquanto responsáveis pelo tratamento de dados ou subcontratantes, decorrentes do direito da União ou do direito nacional em matéria de proteção de dados pessoais, na medida em que a conceção, o desenvolvimento ou a utilização de sistemas de IA envolva o tratamento de dados pessoais. É igualmente conveniente clarificar que os titulares de dados continuam a usufruir de todos os direitos e garantias que lhes são conferidos por esse direito da União, incluindo os direitos relacionados com as decisões individuais exclusivamente automatizadas, nomeadamente a definição de perfis. As regras harmonizadas para a colocação no mercado, a colocação em serviço e a utilização de sistemas de IA estabelecidas no presente regulamento deverão facilitar a aplicação efetiva e permitir o exercício dos direitos dos titulares de dados e de outras vias de recurso garantidas pelo direito da União em matéria de proteção de dados pessoais e de outros direitos fundamentais.
(11)
Týmto nariadením by nemali byť dotknuté ustanovenia o zodpovednosti poskytovateľov sprostredkovateľských služieb stanovené v nariadení Európskeho parlamentu a Rady (EÚ) 2022/2065 (15).
(11)
O presente regulamento não prejudica as disposições em matéria de responsabilidade dos prestadores de serviços intermediários conforme prevista no Regulamento (UE) 2022/2065 do Parlamento Europeu e do Conselho (15).
(12)
Pojem „systém AI“ v tomto nariadení by sa mal jasne vymedziť a mal by sa úzko zosúladiť s prácou medzinárodných organizácií, ktoré sa zaoberajú AI, s cieľom zabezpečiť právnu istotu, uľahčiť medzinárodné zbližovanie a širokú akceptáciu, a zároveň poskytnúť flexibilitu na prispôsobenie sa rýchlemu technologickému vývoju v tejto oblasti. Okrem toho by vymedzenie malo byť založené na kľúčových charakteristikách systémov AI, ktorými sa odlišuje od jednoduchších tradičných softvérových systémov alebo programovacích prístupov, a nemalo by sa vzťahovať na systémy, ktoré sú založené na pravidlách vymedzených výlučne fyzickými osobami na automatické vykonávanie operácií. Kľúčovou charakteristikou systémov AI je ich spôsobilosť odvodzovať. Táto spôsobilosť odvodzovať sa týka procesu získavania výstupov, ako sú predpovede, obsah, odporúčania alebo rozhodnutia, ktoré môžu ovplyvniť fyzické alebo virtuálne prostredie, a spôsobilosti systémov AI odvodzovať zo vstupov alebo údajov modely alebo algoritmy, alebo oboje. Techniky, ktoré umožňujú odvodzovať pri budovaní systému AI, zahŕňajú prístupy strojového učenia, ktoré sa z údajov učia, ako dosiahnuť určité ciele, a prístupy založené na logike a vedomostiach, ktoré odvodzujú riešenie úloh zo zakódovaných poznatkov alebo symbolického znázornenia. Schopnosť systému AI odvodzovať presahuje základné spracúvanie údajov tým, že umožňuje učenie sa, odôvodňovanie alebo modelovanie. Pojem „strojový“ sa vzťahuje na skutočnosť, že systémy AI fungujú na strojoch. Odkaz na explicitné alebo implicitné ciele zdôrazňuje, že systémy AI môžu fungovať podľa explicitných definovaných cieľov alebo podľa implicitných cieľov. Ciele systému AI sa môžu líšiť od zamýšľaného účelu systému AI v konkrétnom kontexte. Na účely tohto nariadenia by sa pod prostrediami mali rozumieť kontexty, v ktorých systémy AI fungujú, zatiaľ čo výstupy generované systémom AI odrážajú rôzne funkcie vykonávané systémami AI a zahŕňajú predpovede, obsah, odporúčania alebo rozhodnutia. Systémy AI sú dizajnované tak, aby fungovali s rôznymi úrovňami autonómnosti, čo znamená, že pri svojej činnosti majú určitý stupeň nezávislosti od ľudskej účasti a určitý stupeň spôsobilosti fungovať bez ľudského zásahu. Adaptabilita, ktorú by systém AI mohol preukázať po nasadení, sa týka samovzdelávacích spôsobilostí, vďaka ktorým sa môže systém zmeniť počas používania. Systémy AI sa môžu používať samostatne alebo ako komponent výrobku bez ohľadu na to, či je tento systém do výrobku fyzicky integrovaný (zabudovaný) alebo či slúži funkčnosti tohto výrobku bez toho, aby doň bol integrovaný (nezabudovaný).
(12)
O conceito de «sistema de IA» constante do presente regulamento deverá ser definido de forma inequívoca e estar estreitamente alinhado com o trabalho das organizações internacionais ativas no domínio da IA, a fim de assegurar a segurança jurídica, facilitar a convergência internacional e a ampla aceitação, concedendo em simultâneo a flexibilidade suficiente para se adaptar a rápidas evoluções tecnológicas neste domínio. Além disso, a definição deverá basear-se nas principais características dos sistemas de IA que o distinguem de sistemas de software ou abordagens de programação tradicionais mais simples e não deverá abranger sistemas baseados nas regras definidas exclusivamente por pessoas singulares para executarem operações automaticamente. Uma característica principal dos sistemas de IA é a sua capacidade de fazer inferências. Esta capacidade de fazer inferências refere-se ao processo de obtenção dos resultados, tais como previsões, conteúdos, recomendações ou decisões, que possam influenciar ambientes físicos e virtuais, e à capacidade dos sistemas de IA para obter modelos ou algoritmos, ou ambos, a partir de entradas ou dados. As técnicas que permitem fazer inferências durante a construção de um sistema de IA incluem abordagens de aprendizagem automática que aprendem com os dados a forma de alcançarem determinados objetivos, e abordagens baseadas na lógica e no conhecimento que fazem inferências a partir do conhecimento codificado ou da representação simbólica da tarefa a resolver. A capacidade de um sistema de IA fazer inferências vai além do tratamento básico de dados, permitindo a aprendizagem, o raciocínio ou a modelização. O termo «baseado em máquinas» refere-se ao facto de os sistemas de IA funcionarem em máquinas. A referência a objetivos explícitos ou implícitos visa sublinhar que os sistemas de IA podem funcionar de acordo com objetivos explícitos definidos ou com objetivos implícitos. Os objetivos do sistema de IA podem ser diferentes da finalidade prevista para o sistema de IA num contexto específico. Para efeitos do presente regulamento, deverá entender-se por «ambientes» os contextos em que os sistemas de IA operam, ao passo que os resultados gerados pelo sistema de IA refletem diferentes funções desempenhadas pelos sistemas de IA e incluem previsões, conteúdos, recomendações ou decisões. Os sistemas de IA são concebidos para operar com diferentes níveis de autonomia, o que significa que têm um certo grau de independência das ações efetuadas por intervenção humana e de capacidade para funcionarem sem intervenção humana. A capacidade de adaptação que um sistema de IA poderá apresentar após a implantação refere-se a capacidades de autoaprendizagem, permitindo que o sistema mude enquanto estiver a ser utilizado. Os sistemas de IA podem ser utilizados autonomamente ou como componentes de um produto, independentemente de o sistema estar fisicamente incorporado no produto (integrado) ou servir a funcionalidade do produto sem estar incorporado nele (não integrado).
(13)
Pojem „nasadzujúci subjekt“ uvedený v tomto nariadení by sa mal vykladať ako akákoľvek fyzická alebo právnická osoba vrátane orgánu verejnej moci, verejnej agentúry alebo iného verejného subjektu, ktorá systém AI používa v rámci svojej právomoci, s výnimkou systému AI používaného počas osobnej neprofesionálnej činnosti. V závislosti od typu systému AI môže mať používanie systému vplyv na iné osoby, než je nasadzujúci subjekt.
(13)
O conceito de «responsável pela implantação» a que se refere o presente regulamento deverá ser interpretado como qualquer pessoa singular ou coletiva, incluindo uma autoridade pública, agência ou outro organismo, que utilize um sistema de IA sob a sua autoridade, salvo se o sistema de IA for utilizado no âmbito da sua atividade pessoal não profissional. Dependendo do tipo de sistema de IA, a utilização do sistema pode afetar outras pessoas além do responsável pela implantação.
(14)
Pojem „biometrické údaje“ použitý v tomto nariadení by sa mal vykladať so zreteľom na pojem biometrické údaje v zmysle vymedzenia v článku 4 bode 14 nariadenia (EÚ) 2016/679, článku 3 bode 18 nariadenia (EÚ) 2018/1725 a článku 3 bode 13 smernice (EÚ) 2016/680. Biometrické údaje môžu umožniť autentifikáciu, identifikáciu alebo kategorizáciu fyzických osôb a rozpoznávanie emócií fyzických osôb.
(14)
O conceito de «dados biométricos» utilizado no presente regulamento deverá ser interpretado à luz do conceito de dados biométricos na aceção do artigo 4.o, ponto 14, do Regulamento (UE) 2016/679, do artigo 3.o, ponto 18, do Regulamento (UE) 2018/1725 e do artigo 3.o, ponto 13, da Diretiva (UE) 2016/680. Os dados biométricos podem permitir a autenticação, identificação ou categorização de pessoas singulares e o reconhecimento de emoções de pessoas singulares.
(15)
Pojem „biometrická identifikácia“ uvedený v tomto nariadení by sa mal vymedziť ako automatické rozpoznávanie fyzických, fyziologických a behaviorálnych ľudských znakov, ako sú tvár, pohyb očí, tvar tela, hlas, reč, chôdza, držanie tela, srdcová frekvencia, tlak krvi, vôňa, dynamika písania na klávesnici, na účely stanovenia totožnosti jednotlivca porovnaním biometrických údajov daného jednotlivca s biometrickými údajmi jednotlivcov uloženými v referenčnej databáze, bez ohľadu na to, či jednotlivec udelil súhlas alebo nie. To nezahŕňa systémy AI určené na biometrické overenie zahŕňajúce autentifikáciu, ktorého jediným účelom je potvrdiť, že konkrétna fyzická osoba je tou osobou, o ktorej tvrdí, že ňou je, a potvrdiť totožnosť fyzickej osoby výlučne na účely prístupu k službe, odomknutia zariadenia alebo získania bezpečnostného prístupu do priestorov.
(15)
O conceito de «identificação biométrica» a que se refere o presente regulamento deverá ser definido como o reconhecimento automatizado de características humanas físicas, fisiológicas e comportamentais, tais como o rosto, o movimento dos olhos, a forma do corpo, a voz, a pronúncia, a marcha, a postura, a frequência cardíaca, a pressão arterial, o odor, as características da digitação, com o objetivo de verificar a identidade de uma pessoa comparando os dados biométricos dessa pessoa com dados biométricos de pessoas armazenados numa base de dados de referência, independentemente de a pessoa ter ou não dado consentimento prévio. Estão excluídos os sistemas de IA concebidos para serem utilizados na verificação biométrica, que inclui a autenticação, cujo único objetivo seja confirmar que uma pessoa singular específica é quem afirma ser, e confirmar a identidade de uma pessoa singular com o único objetivo de ter acesso a um serviço, desbloquear um dispositivo ou ter acesso de segurança a um local.
(16)
Pojem „biometrická kategorizácia“ uvedený v tomto nariadení by sa mal vymedziť ako zaradenie fyzických osôb do osobitných kategórií na základe ich biometrických údajov. Takéto špecifické kategórie sa môžu týkať aspektov ako pohlavie, vek, farba vlasov, farba očí, tetovania, behaviorálne alebo osobnostné črty, jazyk, náboženstvo, príslušnosť k národnostnej menšine, sexuálna alebo politická orientácia. Nezahŕňa to systémy biometrickej kategorizácie, ktoré sú čisto vedľajšou funkciou neoddeliteľne spojenou s inou komerčnou službou, čo znamená, že táto funkcia sa z objektívnych technických dôvodov nemôže používať bez hlavnej služby, a integrácia uvedenej funkcie alebo funkcionality nie je prostriedkom obchádzania uplatniteľnosti pravidiel tohto nariadenia. Napríklad filtre, ktoré kategorizujú tvárové alebo telesné znaky používané na online trhoch, by mohli predstavovať takúto vedľajšiu funkciu, keďže sa môžu použiť len v súvislosti s hlavnou službou, ktorá spočíva v predaji výrobku tým, že sa spotrebiteľovi umožní nahliadnuť do zobrazenia výrobku na sebe a pomôcť mu pri rozhodovaní o kúpe. Filtre používané pri online službách sociálnych sietí, ktoré kategorizujú tvárové alebo telesné znaky s cieľom umožniť používateľom pridávať alebo upravovať obrázky alebo videá, by sa takisto mohli považovať za vedľajšiu funkciu, keďže takýto filter nemožno použiť bez hlavnej služby sociálnej siete spočívajúcej v zdieľaní obsahu online.
(16)
O conceito de «sistema de categorização biométrica» a que se refere o presente regulamento deverá ser definido como a atribuição de pessoas singulares a categorias específicas com base nos seus dados biométricos. Essas categorias específicas podem dizer respeito a aspetos como sexo, idade, cor do cabelo, cor dos olhos, tatuagens, traços comportamentais ou de personalidade, língua, religião, pertença a uma minoria nacional, orientação sexual ou política. Tal não inclui os sistemas de categorização biométrica que sejam um elemento meramente acessório intrinsecamente ligado a outro serviço comercial, o que significa que o elemento não pode, por razões técnicas objetivas, ser utilizado sem o serviço principal e a integração desse elemento ou funcionalidade não constitui um meio para contornar a aplicabilidade das regras do presente regulamento. Por exemplo, os filtros que categorizam as características faciais ou corporais utilizadas nos mercados em linha poderão constituir um desses elementos acessórios, uma vez que só podem ser utilizados associados ao serviço principal que consiste em vender um produto, ao darem ao consumidor a possibilidade de se pré-visualizar a usar o produto e ajudando-o a tomar uma decisão de compra. Os filtros utilizados nos serviços de redes sociais em linha que categorizam características faciais ou corporais para permitir que os utilizadores acrescentem ou alterem imagens ou vídeos também poderão ser considerados elementos acessórios, uma vez que esses filtros não podem ser utilizados sem o serviço principal dos serviços da rede social, que consiste na partilha de conteúdos em linha.
(17)
Pojem „systém diaľkovej biometrickej identifikácie“ uvedený v tomto nariadení by sa mal vymedziť funkčne ako systém AI určený na identifikáciu fyzických osôb bez ich aktívneho zapojenia, zvyčajne na diaľku, porovnávaním biometrických údajov osoby s biometrickými údajmi obsiahnutými v referenčnej databáze, a to bez ohľadu na konkrétne použité technológie, procesy alebo typy biometrických údajov. Takéto systémy diaľkovej biometrickej identifikácie sa zvyčajne používajú na vnímanie viacerých osôb alebo ich správania súčasne, a to s cieľom výrazne uľahčiť identifikáciu fyzických osôb bez ich aktívneho zapojenia. To nezahŕňa systémy AI určené na biometrické overenie zahŕňajúce autentifikáciu, ktorého jediným účelom je potvrdiť, že konkrétna fyzická osoba je tou osobou, o ktorej tvrdí, že ňou je, a potvrdiť totožnosť fyzickej osoby výlučne na účely prístupu k službe, odomknutia zariadenia alebo získania bezpečnostného prístupu do priestorov. Toto vylúčenie je odôvodnené skutočnosťou, že takéto systémy majú pravdepodobne malý vplyv na základné práva fyzických osôb v porovnaní so systémami diaľkovej biometrickej identifikácie, ktoré sa môžu použiť na spracúvanie biometrických údajov veľkého počtu osôb bez ich aktívneho zapojenia. V prípade systémov „v reálnom čase“ prebieha zachytávanie biometrických údajov, ich porovnávanie a identifikácia okamžite, takmer okamžite alebo v každom prípade bez výrazného časového odstupu. V tejto súvislosti by nemal existovať priestor na obchádzanie pravidiel tohto nariadenia o používaní predmetných systémov AI „v reálnom čase“ tým, že sa zavedú malé časové odstupy. Systémy „v reálnom čase“ zahŕňajú používanie materiálu „naživo“ alebo „s malým časovým posunom“, ako sú napríklad videozáznamy, generovaného kamerou alebo iným zariadením s podobnými funkciami. Naopak, v prípade systémov „následnej“ identifikácie už boli biometrické údaje zachytené a porovnanie a identifikácia sa uskutočňujú až s výrazným časovým odstupom. Ide o materiály, ako sú fotografie alebo videozáznamy generované kamerami priemyselnej televízie alebo súkromnými zariadeniami, ktoré boli vytvorené pred použitím tohto systému vo vzťahu k dotknutým fyzickým osobám.
(17)
O conceito de «sistema de identificação biométrica à distância» a que se refere o presente regulamento deverá ser definido, de modo funcional, como um sistema de IA que se destina à identificação de pessoas singulares sem a sua participação ativa, normalmente à distância, por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência, independentemente da tecnologia, dos processos ou dos tipos de dados biométricos específicos utilizados. Tais sistemas de identificação biométrica à distância são geralmente utilizados para detetar várias pessoas ou o seu comportamento em simultâneo, a fim de facilitar significativamente a identificação de pessoas singulares sem a sua participação ativa. Estão excluídos os sistemas de IA concebidos para serem utilizados na verificação biométrica, que inclui a autenticação, cujo único objetivo seja confirmar que uma pessoa singular específica é quem afirma ser e confirmar a identidade de uma pessoa singular com o único objetivo de lhe conceder acesso a um serviço, desbloquear um dispositivo ou ter acesso de segurança a um local. Essa exclusão justifica-se pelo facto de esses sistemas serem suscetíveis de ter um impacto ligeiro nos direitos fundamentais das pessoas singulares em comparação com os sistemas de identificação biométrica à distância que podem ser utilizados para o tratamento de dados biométricos de um grande número de pessoas sem a sua participação ativa. No caso dos sistemas «em tempo real», a recolha dos dados biométricos, a comparação e a identificação ocorrem de forma instantânea, quase instantânea ou, em todo o caso, sem um desfasamento significativo. Não deverá haver, a este respeito, margem para contornar as regras do presente regulamento sobre a utilização «em tempo real» dos sistemas de IA em causa prevendo ligeiros desfasamentos no sistema. Os sistemas «em tempo real» implicam a utilização «ao vivo» ou «quase ao vivo» de materiais, como imagens vídeo, gerados por uma câmara ou outro dispositivo com uma funcionalidade semelhante. No caso dos sistemas «em diferido», ao invés, os dados biométricos já foram recolhidos e a comparação e a identificação ocorrem com um desfasamento significativo. Estes sistemas utilizam materiais, tais como imagens ou vídeos, gerados por câmaras de televisão em circuito fechado ou dispositivos privados antes de o sistema ser utilizado relativamente às pessoas singulares em causa.
(18)
Pojem „systém na rozpoznávanie emócií“ uvedený v tomto nariadení by sa mal vymedziť ako systém AI na účely identifikácie alebo odvodenia emócií alebo úmyslov fyzických osôb na základe ich biometrických údajov. Tento pojem sa vzťahuje na emócie alebo úmysly, ako sú šťastie, smútok, hnev, prekvapenie, znechutenie, rozpaky, vzrušenie, hanba, pohŕdanie, spokojnosť a zábava. Nezahŕňa fyzické stavy, ako je bolesť alebo únava vrátane napríklad systémov používaných na zisťovanie stavu únavy profesionálnych pilotov alebo vodičov na účely prevencie nehôd. Nezahŕňa ani samotné zisťovanie ľahko viditeľných výrazov, gest alebo pohybov, pokiaľ sa nepoužívajú na identifikáciu alebo odvodenie emócií. Tieto výrazy môžu byť základnými výrazmi tváre, ako je zamračenie alebo úsmev, alebo gestami, ako je pohyb rúk, ramien alebo hlavy, alebo charakteristickými znakmi hlasu osoby, ako je zdvihnutý hlas alebo šepot.
(18)
O conceito de «sistema de reconhecimento de emoções» a que se refere o presente regulamento deverá ser definido como um sistema de IA concebido para identificar ou inferir emoções ou intenções de pessoas singulares com base nos seus dados biométricos. O conceito refere-se a emoções ou intenções como a felicidade, a tristeza, a raiva, a surpresa, a repugnância, o embaraço, o entusiasmo, a vergonha, o desprezo, a satisfação e o divertimento. Não inclui estados físicos, como dor ou fadiga, incluindo, por exemplo, sistemas utilizados para detetar o estado de fadiga dos pilotos ou motoristas profissionais para efeitos de prevenção de acidentes. Também não inclui a mera deteção de expressões, gestos ou movimentos rapidamente visíveis, a menos que sejam utilizados para identificar ou inferir emoções. Essas expressões podem ser expressões faciais básicas, tais como franzir a testa ou sorrir, ou gestos como o movimento das mãos, dos braços ou da cabeça, ou características da voz de uma pessoa, como levantar a voz ou sussurrar.
(19)
Na účely tohto nariadenia by sa pojem „verejne prístupný priestor“ mal vykladať tak, že sa vzťahuje na akýkoľvek fyzický priestor, ktorý je prístupný neurčenému počtu fyzických osôb a bez ohľadu na to, či je daný priestor v súkromnom alebo verejnom vlastníctve, bez ohľadu na činnosť, na ktorú sa priestor môže používať, napríklad na obchodovanie, ako napríklad predajne, reštaurácie, kaviarne, pre služby, ako napríklad banky, profesionálne činnosti, ubytovanie a pohostinské služby, na šport, ako napríklad plavecké bazény, posilňovne, štadióny, pre dopravu, ako napríklad autobusové zastávky, stanice metra a železničné stanice, letiská, dopravné prostriedky, na zábavu, ako napríklad kiná, divadlá, múzeá, koncertné a konferenčné siene, alebo na voľný čas alebo iné činnosti, ako napríklad verejné cesty a námestia, parky, lesy, ihriská. Priestor by sa mal klasifikovať ako verejne prístupný vtedy, ak bez ohľadu na potenciálne kapacitné alebo bezpečnostné obmedzenia podlieha prístup určitým vopred určeným podmienkam, ktoré môže splniť neurčený počet osôb, ako je kúpa vstupenky alebo cestovného lístka, predchádzajúca registrácia alebo určitá veková hranica. Naopak, priestor by sa nemal považovať za verejne prístupný, ak je prístup naň obmedzený na konkrétne a vymedzené fyzické osoby buď prostredníctvom práva Únie alebo vnútroštátneho práva priamo súvisiaceho s verejnou bezpečnosťou alebo ochranou, alebo prostredníctvom jasného prejavu vôle osoby, ktorá má nad daným priestorom príslušné právomoci. Samotná faktická možnosť prístupu, ako napríklad nezamknuté dvere alebo otvorená brána v oplotení, neznamená, že priestor je verejne prístupný, ak existujú náznaky alebo okolnosti, ktoré naznačujú opak, napríklad označenia zakazujúce alebo obmedzujúce prístup. Priestory spoločností a tovární, ako aj kancelárie a pracoviská, ku ktorým majú prístup len príslušní zamestnanci a poskytovatelia služieb, sú priestory, ktoré nie sú verejne prístupné. Verejne prístupné priestory by nemali zahŕňať väznice ani hraničnú kontrolu. Niektoré ďalšie priestory môžu zahŕňať verejne prístupné aj neverejne prístupné priestory, ako napríklad vstupná hala súkromnej obytnej budovy potrebná na vstup do ordinácie lekára alebo letisko. Nezahŕňajú online priestory, pretože nejde o fyzické priestory. To, či je daný priestor prístupný verejnosti, by sa však malo určovať od prípadu k prípadu so zreteľom na osobitosti konkrétnej situácie.
(19)
Para efeitos do presente regulamento, deverá entender-se por «espaço acessível ao público» qualquer espaço físico que seja acessível a um número indeterminado de pessoas singulares e independentemente de o espaço em questão ser detido por uma entidade privada ou pública, independentemente da atividade para a qual o espaço possa ser utilizado — por exemplo, para o comércio (por exemplo, lojas, restaurantes, cafés), para a prestação de serviços (por exemplo, bancos, atividades profissionais, hotelaria), para o desporto (por exemplo, piscinas, ginásios, estádios), para os transportes (designadamente estações de autocarros, metropolitanos e ferroviárias, aeroportos, meios de transporte), para o entretenimento (por exemplo, cinemas, teatros, museus, salas de concertos e salas de conferências), ou para o lazer ou outros (por exemplo, estradas, praças, parques, florestas ou parques infantis públicos). Um espaço também deverá ser classificado como acessível ao público se, independentemente das eventuais restrições de capacidade ou de segurança, o acesso estiver sujeito a certas condições predeterminadas, que podem ser preenchidas por um número indeterminado de pessoas, tais como a compra de um bilhete ou título de transporte, a inscrição prévia ou uma determinada idade. Em contrapartida, um espaço não deverá ser considerado acessível ao público se o acesso for limitado a pessoas singulares específicas e definidas, seja nos termos do direito da União ou do direito nacional diretamente relacionado com a segurança pública ou por manifestação clara da vontade da pessoa que exerça a autoridade pertinente no espaço. A possibilidade factual de acesso por si só, (como uma porta destrancada ou um portão aberto numa vedação) não implica que o espaço seja acessível ao público na presença de indicações ou circunstâncias que sugiram o contrário, como sinais que proíbam ou restrinjam o acesso. As instalações de empresas e fábricas, bem como os escritórios e os locais de trabalho a que se pretende que apenas os trabalhadores e prestadores de serviços pertinentes tenham acesso, são espaços que não são acessíveis ao público. Os espaços acessíveis ao público não deverão incluir prisões nem zonas de controlo fronteiriço. Alguns outros espaços são compostos tanto por espaços não acessíveis ao público como e por espaços acessíveis ao público, tais como um corredor de um edifício residencial privado necessário para aceder a um gabinete médico ou a um aeroporto. Os espaços em linha também não são abrangidos, uma vez que não são espaços físicos. Para determinar se um espaço é acessível ao público deverá recorrer-se a uma análise casuística, tendo em conta as especificidades da situação em apreço.
(20)
S cieľom získať čo najväčšie výhody systémov AI a zároveň chrániť základné práva, zdravie a bezpečnosť a umožniť demokratickú kontrolu by gramotnosť v oblasti AI mala vybaviť poskytovateľov, nasadzujúce subjekty a dotknuté osoby znalosťami potrebnými na prijímanie informovaných rozhodnutí týkajúcich sa systémov AI. Tieto znalosti sa môžu líšiť, pokiaľ ide o príslušný kontext, a môžu zahŕňať pochopenie správneho uplatňovania technických prvkov počas fázy vývoja systému AI, opatrenia, ktoré sa majú uplatňovať počas jeho používania, vhodné spôsoby výkladu výstupu systému AI a v prípade dotknutých osôb znalosti potrebné na pochopenie toho, ako na ne budú mať rozhodnutia prijaté s pomocou AI vplyv. V kontexte uplatňovania tohto nariadenia by gramotnosť v oblasti AI mala všetkým relevantným aktérom v hodnotovom reťazci AI poskytnúť spoľahlivé poznatky potrebné na zabezpečenie primeraného súladu a jeho správneho presadzovania. Okrem toho by rozsiahle vykonávanie opatrení týkajúcich sa gramotnosti v oblasti AI a zavedenie vhodných následných opatrení mohlo prispieť k zlepšeniu pracovných podmienok a v konečnom dôsledku k zachovaniu konsolidácie a inovačnej cesty dôveryhodnej AI v Únii. Európska rada pre umelú inteligenciu (ďalej len „rada pre AI“) by mala podporovať Komisiu pri presadzovaní gramotnosti v oblasti AI, informovanosti verejnosti a chápaní prínosov, rizík, záruk, práv a povinností v súvislosti s používaním systémov AI. V spolupráci s relevantnými zainteresovanými stranami by Komisia a členské štáty mali uľahčiť vypracovanie dobrovoľných kódexov správania na podporu gramotnosti v oblasti AI medzi osobami, ktoré sa zaoberajú vývojom, prevádzkou a používaním AI.
(20)
A fim de obter os maiores benefícios dos sistemas de IA, protegendo simultaneamente os direitos fundamentais, a saúde e a segurança e permitir o controlo democrático, a literacia no domínio da IA deverá dotar os prestadores, os responsáveis pela implantação e as pessoas afetadas das noções necessárias para tomarem decisões informadas sobre os sistemas de IA. Essas noções podem variar em função do contexto pertinente e podem incluir a compreensão da correta aplicação dos elementos técnicos durante a fase de desenvolvimento do sistema de IA, as medidas a aplicar durante a sua utilização, as formas adequadas de interpretar o resultado do sistema de IA e, no caso das pessoas afetadas, os conhecimentos necessários para compreender de que forma as decisões tomadas com a assistência da IA as afetarão. No contexto da aplicação do presente regulamento, a literacia no domínio da IA deverá proporcionar a todos os intervenientes pertinentes da cadeia de valor da IA os conhecimentos necessários para assegurar o cumprimento adequado e a sua correta execução. Além disso, a ampla aplicação de medidas de literacia no domínio da IA e a introdução de medidas de acompanhamento adequadas poderão contribuir para melhorar as condições de trabalho e, em última análise, apoiar a consolidação e a trajetória da inovação de uma IA de confiança na União. O Comité Europeu para a Inteligência Artificial («Comité») deverá apoiar a Comissão na promoção de ferramentas de literacia no domínio da IA, da sensibilização do público e da compreensão das vantagens, riscos, garantias, direitos e obrigações relacionados com a utilização de sistemas de IA. Em cooperação com as partes interessadas pertinentes, a Comissão e os Estados-Membros deverão facilitar a elaboração de códigos de conduta voluntários para promover a literacia no domínio da IA entre as pessoas que lidam com o desenvolvimento, o funcionamento e a utilização da IA.
(21)
S cieľom zabezpečiť rovnaké podmienky a účinnú ochranu práv a slobôd fyzických osôb v celej Únii by sa pravidlá stanovené v tomto nariadení mali uplatňovať na poskytovateľov systémov AI nediskriminačným spôsobom bez ohľadu na to, či sú usadení v Únii alebo v tretej krajine, a na subjekty nasadzujúce systémy AI usadené v Únii.
(21)
Para assegurar condições de concorrência equitativas e uma proteção eficaz dos direitos e das liberdades das pessoas em toda a União, as regras estabelecidas no presente regulamento deverão aplicar-se aos prestadores de sistemas de IA de uma forma não discriminatória, independentemente de estarem estabelecidos na União ou num país terceiro, e aos responsáveis pela implantação de sistemas de IA estabelecidos na União.
(22)
Určité systémy AI by vzhľadom na svoju digitálnu povahu mali patriť do rozsahu pôsobnosti tohto nariadenia, aj keď sa v Únii neuvádzajú na trh ani do prevádzky, ani sa v nej nepoužívajú. Ide napríklad o prevádzkovateľa usadeného v Únii, ktorý zmluvne zadáva určité služby prevádzkovateľovi usadenému v tretej krajine v súvislosti s činnosťou vykonávanou systémom AI, ktorý by mohol byť označený ako vysokorizikový. Za týchto okolností by systém AI, ktorý používa prevádzkovateľ v tretej krajine, mohol spracúvať údaje zákonne zozbierané v Únii a prenášané z Únie a poskytovať zadávajúcemu prevádzkovateľovi v Únii výstup uvedeného systému AI vyplývajúci z tohto spracúvania bez toho, aby sa uvedený systém AI uvádzal na trh, do prevádzky alebo sa používal v Únii. S cieľom zabrániť obchádzaniu tohto nariadenia a zabezpečiť účinnú ochranu fyzických osôb nachádzajúcich sa v Únii by sa toto nariadenie malo vzťahovať aj na poskytovateľov systémov AI a subjekty nasadzujúce systémy AI, ktoré sú usadené v tretej krajine, a to v rozsahu, v akom je výstup generovaný týmito systémami určený na používanie v Únii. S cieľom zohľadniť existujúce dojednania a osobitné potreby budúcej spolupráce so zahraničnými partnermi, s ktorými sa vymieňajú informácie a dôkazy, by sa však toto nariadenie nemalo vzťahovať na orgány verejnej moci tretej krajiny a medzinárodné organizácie, ak konajú v rámci spolupráce alebo medzinárodných dohôd uzavretých na únijnej alebo vnútroštátnej úrovni v oblasti presadzovania práva a justičnej spolupráce s Úniou alebo členskými štátmi, pod podmienkou, že príslušná tretia krajina alebo medzinárodná organizácia poskytuje primerané záruky týkajúce sa ochrany základných práv a slobôd jednotlivcov. V relevantných prípadoch sa to môže vzťahovať na činnosti subjektov, ktoré tretie krajiny poverili vykonávaním osobitných úloh na podporu takejto spolupráce v oblasti presadzovania práva a justičnej spolupráce. Takéto rámce spolupráce alebo dohody boli zriadené dvojstranne medzi členskými štátmi a tretími krajinami alebo medzi Európskou úniou, Europolom a inými agentúrami Únie a tretími krajinami a medzinárodnými organizáciami. Orgány zodpovedné za dohľad nad orgánmi presadzovania práva a justičnými orgánmi podľa tohto nariadenia by mali posúdiť, či tieto rámce spolupráce alebo medzinárodné dohody obsahujú primerané záruky, pokiaľ ide o ochranu základných práv a slobôd jednotlivcov. Prijímajúce vnútroštátne orgány a prijímajúce inštitúcie, orgány, úrady a agentúry Únie využívajúce takéto výstupy v Únii zostávajú zodpovedné za zabezpečenie súladu ich využívania s právom Únie. Pri revízii uvedených medzinárodných dohôd alebo uzatváraní nových dohôd v budúcnosti by zmluvné strany mali vynaložiť maximálne úsilie na zosúladenie týchto dohôd s požiadavkami tohto nariadenia.
(22)
Atendendo à sua natureza digital, determinados sistemas de IA deverão ser abrangidos pelo âmbito do presente regulamento, mesmo não sendo colocados no mercado, colocados em serviço nem utilizados na União. Tal aplica-se, por exemplo, quando um operador estabelecido na União contrata determinados serviços a um operador estabelecido num país terceiro relativamente a uma atividade a realizar por um sistema de IA que seja considerado de risco elevado. Nessas circunstâncias, o sistema de IA utilizado num país terceiro pelo operador poderá tratar dados recolhidos e transferidos licitamente da União e facultar ao operador contratante na União os resultados desse sistema de IA decorrentes do tratamento desses dados, sem que o sistema de IA em causa seja colocado no mercado, colocado em serviço ou utilizado na União. Para evitar que o presente regulamento seja contornado e para assegurar uma proteção eficaz das pessoas singulares localizadas na União, o presente regulamento deverá ser igualmente aplicável a prestadores e a responsáveis pela implantação de sistemas de IA que estejam estabelecidos num país terceiro, na medida em que esteja prevista a utilização na União dos resultados produzidos por esses sistemas. No entanto, para ter em conta os mecanismos existentes e as necessidades especiais da cooperação futura com os parceiros estrangeiros com quem são trocadas informações e dados, o presente regulamento não deverá ser aplicável às autoridades públicas de um país terceiro nem às organizações internacionais quando estas atuam no âmbito da cooperação ou de acordos internacionais celebrados a nível da União ou ao nível nacional para efeitos de cooperação policial e judiciária com a União ou os Estados-Membros, desde que o país terceiro ou organização internacional em causa apresente garantias adequadas em matéria de proteção dos direitos e liberdades fundamentais das pessoas. Se for caso disso, tal pode abranger as atividades das entidades às quais os países terceiros confiam a funções específicas de apoio a essa cooperação policial e judiciária. Tais regimes de cooperação ou acordos têm sido estabelecidos bilateralmente entre Estados-Membros e países terceiros, ou entre a União Europeia, a Europol e outras agências da União e países terceiros e organizações internacionais. As autoridades competentes para a supervisão das autoridades responsáveis pela aplicação da lei e judiciárias ao abrigo do presente regulamento deverão avaliar se esses regimes de cooperação ou acordos internacionais preveem garantias adequadas no que diz respeito à proteção dos direitos e liberdades fundamentais das pessoas. As autoridades nacionais destinatárias e as instituições, órgãos e organismos destinatários da União que utilizam esses resultados na União continuam a ser responsáveis por assegurar que a sua utilização é conforme com o direito da União. Se esses acordos internacionais forem revistos ou se forem celebrados novos acordos no futuro, as partes contratantes deverão envidar todos os esforços para alinhar esses acordos com os requisitos do presente regulamento.
(23)
Toto nariadenie by sa malo vzťahovať aj na inštitúcie, orgány, úrady a agentúry Únie, ak konajú ako poskytovateľ systému AI alebo subjekt nasadzujúci systém AI.
(23)
O presente regulamento deverá ser também aplicável a instituições, órgãos e organismos da União quando atuam como prestador ou responsável pela implantação de um sistema de IA.
(24)
V rozsahu, v akom sa systémy AI uvádzajú na trh, uvádzajú do prevádzky alebo s úpravami alebo bez nich používajú na vojenské alebo obranné účely alebo na účely národnej bezpečnosti, by takéto systémy mali byť vylúčené z rozsahu pôsobnosti tohto nariadenia bez ohľadu na to, ktorý typ subjektu vykonáva uvedené činnosti, napríklad či ide o verejný alebo súkromný subjekt. Pokiaľ ide o vojenské a obranné účely, takéto vylúčenie je odôvodnené článkom 4 ods. 2 Zmluvy o EÚ, ako aj osobitosťami obrannej politiky členských štátov a spoločnej obrannej politiky Únie, na ktoré sa vzťahuje hlava V kapitola 2 Zmluvy o EÚ a ktoré podliehajú medzinárodnému právu verejnému, ktoré je preto vhodnejším právnym rámcom na reguláciu systémov AI v kontexte používania smrtiacej sily a iných systémov AI v kontexte vojenských a obranných činností. Pokiaľ ide o účely národnej bezpečnosti, vylúčenie je odôvodnené skutočnosťou, že národná bezpečnosť zostáva výlučnou zodpovednosťou členských štátov v súlade s článkom 4 ods. 2 Zmluvy o EÚ, ako aj osobitnou povahou a operačnými potrebami činností v oblasti národnej bezpečnosti a osobitnými vnútroštátnymi pravidlami uplatniteľnými na tieto činnosti. Ak sa však systém AI, ktorý je vyvinutý, uvedený na trh, uvedený do prevádzky alebo používaný na vojenské alebo obranné účely alebo na účely národnej bezpečnosti, používa dočasne alebo trvalo na iné účely, napríklad na civilné alebo humanitárne účely, účely presadzovania práva alebo verejnej bezpečnosti, takýto systém by patril do rozsahu pôsobnosti tohto nariadenia. V takom prípade by subjekt, ktorý používa systém AI na iné ako vojenské alebo obranné účely alebo na účely národnej bezpečnosti, mal zabezpečiť súlad systému AI s týmto nariadením, pokiaľ systém už s ním nie je v súlade. Systémy AI uvedené na trh alebo do prevádzky na účely vylúčené z pôsobnosti, konkrétne vojenské alebo obranné účely alebo účely národnej bezpečnosti, a jeden alebo viacero účelov nevylúčených z pôsobnosti, napríklad civilné účely alebo presadzovanie práva atď., patria do rozsahu pôsobnosti tohto nariadenia a poskytovatelia týchto systémov by mali zabezpečiť ich súlad s týmto nariadením. V takýchto prípadoch by skutočnosť, že systém AI môže patriť do rozsahu pôsobnosti tohto nariadenia, nemala mať vplyv na možnosť subjektov vykonávajúcich činnosti v oblasti národnej bezpečnosti, obrany a vojenské činnosti, a to bez ohľadu na typ subjektu vykonávajúceho uvedené činnosti, používať systémy AI na účely národnej bezpečnosti, na vojenské a obranné účely, ktoré sú vylúčené z rozsahu pôsobnosti tohto nariadenia. Systém AI uvedený na trh na civilné účely alebo na účely presadzovania práva, ktorý sa s úpravami alebo bez nich používa na vojenské alebo obranné účely alebo na účely národnej bezpečnosti, by nemal patriť do rozsahu pôsobnosti tohto nariadenia bez ohľadu na typ subjektu vykonávajúceho tieto činnosti.
(24)
Se, e na medida em que, os sistemas de IA forem colocados no mercado, colocados em serviço ou utilizados com ou sem modificação desses sistemas para fins militares, de defesa ou de segurança nacional, tais sistemas deverão ser excluídos do âmbito de aplicação do presente regulamento, independentemente do tipo de entidade que realiza essas atividades, seja ela designadamente uma entidade pública ou privada. No que diz respeito aos fins militares e de defesa, essa exclusão é justificada tanto pelo artigo 4.o, n.o 2, do TUE como pelas especificidades da política de defesa dos Estados—Membros e da União abrangidas pelo título V, capítulo 2, do TUE, que estão sujeitas ao direito internacional público, que é, por conseguinte, o regime jurídico mais adequado para a regulamentação dos sistemas de IA no contexto da utilização da força letal e de outros sistemas de IA no contexto de atividades militares e de defesa. No que diz respeito aos fins de segurança nacional, a exclusão justifica-se tanto pelo facto de a segurança nacional continuar a ser da exclusiva responsabilidade dos Estados—Membros, em conformidade com o artigo 4.o, n.o 2, do TUE, como pela natureza específica e pelas necessidades operacionais específicas das atividades de segurança nacional e pelas regras nacionais específicas aplicáveis a essas atividades. No entanto, se um sistema de IA desenvolvido, colocado no mercado, colocado em serviço ou utilizado para fins militares, de defesa ou de segurança nacional for utilizado, temporária ou permanentemente, para outros fins, como por exemplo, para fins civis ou humanitários, de aplicação da lei ou de segurança pública, será abrangido pelo âmbito de aplicação do presente regulamento. Nesse caso, as entidades que utilizarem o sistema de IA para fins que não sejam fins militares, de defesa ou de segurança nacional deverão assegurar a conformidade do sistema com o presente regulamento, a menos que o sistema de IA já esteja em conformidade com o presente regulamento. Os sistemas de IA colocados no mercado ou colocados em serviço para um fim excluído, nomeadamente um fim militar, de defesa ou de segurança nacional, e um ou mais fins não excluídos, como fins civis ou de aplicação da lei, são abrangidos pelo âmbito de aplicação do presente regulamento e os prestadores desses sistemas deverão assegurar a conformidade com o presente regulamento. Nesses casos, o facto de um sistema de IA poder ser abrangido pelo âmbito de aplicação do presente regulamento não deverá afetar a possibilidade de as entidades que realizam atividades de segurança nacional, de defesa e militares, independentemente do tipo de entidade que realiza essas atividades, utilizarem para fins de segurança nacional, de defesa e militares sistemas de IA cuja utilização esteja excluída do âmbito de aplicação do presente regulamento. Um sistema de IA colocado no mercado para fins civis ou de aplicação da lei que seja utilizado com ou sem modificações para fins militares, de defesa ou de segurança nacional não deverá ser abrangido pelo âmbito de aplicação do presente regulamento, independentemente do tipo de entidade que realiza essas atividades.
(25)
Toto nariadenie by malo podporovať inováciu, malo by rešpektovať slobodu vedy a nemalo by oslabovať výskumnú a vývojovú činnosť. Preto je potrebné vylúčiť z jeho pôsobnosti systémy a modely AI osobitne vyvinuté a uvedené do prevádzky výlučne na účely vedeckého výskumu a vývoja. Navyše je potrebné zabezpečiť, aby toto nariadenie iným spôsobom neovplyvňovalo vedeckú, výskumnú a vývojovú činnosť týkajúcu sa systémov alebo modelov AI pred ich uvedením na trh alebo do prevádzky. Pokiaľ ide o výskumnú, testovaciu a vývojovú činnosť zameranú na výrobky v oblasti systémov alebo modelov AI, ustanovenia tohto nariadenia by sa taktiež nemali uplatňovať pred uvedením týchto systémov a modelov do prevádzky alebo pred ich uvedením na trh. Týmto vylúčením nie je dotknutá povinnosť dodržiavať toto nariadenie, keď sa systém AI patriaci do rozsahu pôsobnosti tohto nariadenia uvádza na trh alebo do prevádzky ako výsledok takejto výskumnej a vývojovej činnosti, ani uplatňovanie ustanovení o regulačných experimentálnych prostrediach pre AI a testovaní v reálnych podmienkach. Navyše, bez toho, aby bolo dotknuté vylúčenie systémov AI osobitne vyvinutých a uvedených do prevádzky výlučne na účely vedeckého výskumu a vývoja, akýkoľvek iný systém AI, ktorý sa môže používať na vykonávanie akejkoľvek výskumnej a vývojovej činnosti, by mal naďalej podliehať ustanoveniam tohto nariadenia. Každá výskumná a vývojová činnosť by sa v každom prípade mala vykonávať v súlade s uznávanými etickými a profesijnými normami pre vedecký výskum, ako aj v súlade s uplatniteľným právom Únie.
(25)
O presente regulamento deverá apoiar a inovação, deverá respeitar a liberdade da ciência e não deverá prejudicar as atividades de investigação e desenvolvimento. Por conseguinte, é necessário excluir do seu âmbito de aplicação os sistemas e modelos de IA especificamente desenvolvidos e colocados em serviço exclusivamente para fins de investigação e desenvolvimento científicos. Além disso, é necessário assegurar que o presente regulamento não afete de outra forma as atividades científicas de investigação e desenvolvimento em matéria de sistemas ou modelos de IA antes de ser colocado no mercado ou colocado em serviço. No que diz respeito às atividades de investigação, testagem e desenvolvimento orientadas para os produtos relativas a sistemas ou modelos de IA, as disposições do presente regulamento também não deverão ser aplicáveis antes de esses sistemas e modelos serem colocados em serviço ou colocados no mercado. Essa exclusão não prejudica a obrigação de cumprir o presente regulamento sempre que um sistema de IA abrangido pelo âmbito de aplicação do presente regulamento for colocado no mercado ou colocado em serviço em resultado dessas atividades de investigação e desenvolvimento, nem a aplicação das disposições relativas aos ambientes de testagem da regulamentação da IA e à testagem em condições reais. Além disso, sem prejuízo da exclusão de sistemas de IA especificamente desenvolvidos e colocados em serviço para fins exclusivos de investigação e desenvolvimento científicos, qualquer outro sistema de IA que possa ser utilizado para a realização de atividades de investigação e desenvolvimento deverá continuar sujeito às disposições do presente regulamento. Em todo o caso, todas as atividades de investigação e desenvolvimento deverão ser realizadas em conformidade com normas éticas e profissionais reconhecidas em matéria de investigação científica e deverão ser conduzidas em conformidade com o direito da União aplicável.
(26)
Na účely zavedenia primeraného a účinného súboru záväzných pravidiel pre systémy AI by sa mal dodržiavať jasne vymedzený prístup založený na riziku. Týmto prístupom by sa mal typ a obsah takýchto pravidiel prispôsobiť intenzite a rozsahu rizík, ktoré môžu systémy AI vytvárať. Preto je potrebné zakázať určité neakceptovateľné praktiky využívajúce AI, stanoviť požiadavky na vysokorizikové systémy AI a povinnosti príslušných prevádzkovateľov, ako aj stanoviť povinnosti transparentnosti pre určité systémy AI.
(26)
Para que o conjunto de normas vinculativas aplicáveis aos sistemas de IA seja proporcionado e eficaz, deverá seguir-se uma abordagem baseada no risco claramente definida. Essa abordagem deverá adaptar o tipo e o conteúdo dessas normas à intensidade e ao âmbito dos riscos que podem ser criados pelos sistemas de IA. Como tal, é necessário proibir determinadas práticas inaceitáveis de IA, estabelecer requisitos aplicáveis aos sistemas de IA de risco elevado e obrigações para os operadores pertinentes, bem como estabelecer obrigações de transparência para determinados sistemas de IA.
(27)
Hoci je prístup založený na riziku základom pre primeraný a účinný súbor záväzných pravidiel, je dôležité pripomenúť etické usmernenia pre dôveryhodnú AI z roku 2019, ktoré vypracovala nezávislá expertná skupina na vysokej úrovni pre umelú inteligenciu vymenovaná Komisiou. V týchto usmerneniach expertná skupina na vysokej úrovni pre umelú inteligenciu stanovila sedem nezáväzných etických zásad pre AI, ktorých účelom je pomôcť zabezpečiť, aby bola AI dôveryhodná a etická. Uvedenými siedmimi zásadami sú ľudský faktor a dohľad; technická spoľahlivosť a bezpečnosť; súkromie a správa údajov; transparentnosť; rozmanitosť, nediskriminácia a spravodlivosť; spoločenský a environmentálny blahobyt a zodpovednosť. Bez toho, aby boli dotknuté právne záväzné požiadavky tohto nariadenia a akéhokoľvek iného uplatniteľného práva Únie, tieto usmernenia prispievajú k dizajnu súdržnej, dôveryhodnej a na človeka sústredenej AI v súlade s chartou a hodnotami, na ktorých je Únia založená. Podľa usmernení expertnej skupiny na vysokej úrovni pre umelú inteligenciu „ľudský faktor a dohľad“ znamená, že systémy AI sa vyvíjajú a používajú ako nástroj, ktorý slúži ľuďom, rešpektuje ľudskú dôstojnosť a osobnú samostatnosť a funguje spôsobom umožňujúcim primeranú kontrolu a dohľad človekom. „Technická spoľahlivosť a bezpečnosť“ znamená, že systémy AI sa vyvíjajú a používajú tak, aby sa umožnila spoľahlivosť v prípade problémov a odolnosť voči pokusom o zmenu použitia alebo výkonu systému AI na účely nezákonného používania tretími stranami a aby sa minimalizovala nechcená ujma. „Súkromie a správa údajov“ znamená, že systémy AI sa vyvíjajú a používajú v súlade s pravidlami ochrany súkromia a údajov pri súčasnom spracúvaní údajov podľa vysokých noriem kvality a integrity. „Transparentnosť“ znamená, že systémy AI sa vyvíjajú a používajú tak, aby umožňovali náležitú vysledovateľnosť a vysvetliteľnosť, pričom upozorňujú ľudí na to, že komunikujú a interagujú so systémom AI, a zároveň náležite informujú subjekty nasadzujúce systém AI o spôsobilostiach a obmedzeniach daného systému a dotknuté osoby o ich právach. „Rozmanitosť, nediskriminácia a spravodlivosť“ znamená, že systémy AI sa vyvíjajú a používajú tak, aby zapájali rôznych aktérov, podporovali rovnosť prístupu, rodovú rovnosť a kultúrnu rozmanitosť a zároveň predchádzali diskriminačným vplyvom a nespravodlivej zaujatosti, ktoré právo Únie a vnútroštátne právo zakazuje. „Spoločenský a environmentálny blahobyt“ znamená, že systémy AI sa vyvíjajú a používajú udržateľným spôsobom priaznivým pre životného prostredie, ako aj v prospech všetkých ľudí, pričom sa monitoruje a posudzuje dlhodobý vplyv na jednotlivca, spoločnosť a demokraciu. Uplatňovanie týchto zásad by sa malo podľa možnosti premietnuť do dizajnu a používania modelov AI. V každom prípade by mali slúžiť ako základ pre vypracovanie kódexov správania podľa tohto nariadenia. Všetky zainteresované strany vrátane priemyselných odvetví, akademickej obce, občianskej spoločnosti a normalizačných organizácií sa vyzývajú, aby tieto etické zásady podľa potreby zohľadnili pri vypracúvaní dobrovoľných najlepších postupov a noriem.
(27)
Embora a abordagem baseada no risco constitua a base para um conjunto proporcionado e eficaz de regras vinculativas, é importante recordar as Orientações Éticas para uma IA de Confiança, elaboradas em 2019 pelo IA HLEG independente nomeado pela Comissão. Nessas orientações, o IA HLEG desenvolveu sete princípios éticos não vinculativos para a IA, que se destinam a ajudar a garantir que a IA é de confiança e eticamente correta. Os sete princípios incluem: iniciativa e supervisão por humanos; solidez técnica e segurança; privacidade e governação dos dados; transparência; diversidade, não discriminação e equidade; bem-estar social e ambiental e responsabilização. Sem prejuízo dos requisitos juridicamente vinculativos do presente regulamento e de qualquer outras disposições aplicáveis do direito da União, essas orientações contribuem para a conceção de uma IA coerente, de confiança e centrada no ser humano, em consonância com a Carta e com os valores em que se funda a União. De acordo com as orientações do IA HLEG, «iniciativa e supervisão por humanos» significa que todos os sistemas de IA são desenvolvidos e utilizados como uma ferramenta ao serviço das pessoas, que respeita a dignidade humana e a autonomia pessoal e que funciona de uma forma que possa ser adequadamente controlada e supervisionada por seres humanos. Solidez técnica e segurança significa que os sistemas de IA são desenvolvidos e utilizados de forma a permitir a solidez em caso de problemas e a resiliência contra tentativas de alteração da sua utilização ou desempenho que permitam a utilização ilícita por terceiros, e a minimizar os danos não intencionais. Por privacidade e governação dos dados entende-se que os sistemas de IA são desenvolvidos e utilizados em conformidade com as regras existentes em matéria de privacidade e de proteção de dados, ao mesmo tempo que o tratamento de dados satisfaz normas elevadas em termos de qualidade e de integridade. A transparência significa que os sistemas de IA são desenvolvidos e utilizados de forma a permitir uma rastreabilidade e explicabilidade adequadas, sensibilizando ao mesmo tempo os seres humanos para o facto de estarem a comunicar ou a interagir com um sistema de IA, informando devidamente os responsáveis pela implantação das capacidades e limitações desse sistema de IA e informando as pessoas afetadas dos direitos que lhes assistem. Diversidade, não discriminação e equidade indica que os sistemas de IA são desenvolvidos e utilizados de forma a incluir diferentes intervenientes e a promover a igualdade de acesso, a igualdade de género e a diversidade cultural, evitando simultaneamente efeitos discriminatórios e enviesamentos injustos que sejam proibidos pelo direito da União ou pelo direito nacional. Por bem-estar social e ambiental entende-se que os sistemas de IA são desenvolvidos e utilizados de forma sustentável e respeitadora do ambiente, bem como de forma a beneficiar todos os seres humanos, controlando e avaliando ao mesmo tempo os impactos de longo prazo nas pessoas, na sociedade e na democracia. A aplicação desses princípios deverá traduzir-se, sempre que possível, na conceção e na utilização de modelos de IA. Em qualquer caso, deverão servir de base para a elaboração de códigos de conduta ao abrigo do presente regulamento. Todas as partes interessadas, incluindo a indústria, o meio académico, a sociedade civil e as organizações de normalização, são incentivadas a ter em conta, consoante o caso, os princípios éticos para o desenvolvimento de boas práticas e normas voluntárias.
(28)
Hoci využívanie AI prináša mnoho výhod, možno ju zneužiť a môže sa stať zdrojom nových a výkonných nástrojov umožňujúcich manipulatívne a zneužívajúce praktiky a praktiky ovládania spoločnosti. Takéto praktiky sú mimoriadne škodlivé a zneužívajúce a mali by sa zakázať, pretože sú v rozpore s hodnotami Únie týkajúcimi sa rešpektovania ľudskej dôstojnosti, slobody, rovnosti, demokracie a právneho štátu a základných práv ukotvených v charte vrátane práva na nediskrimináciu, ochranu údajov a súkromia a práv dieťaťa.
(28)
Além das suas inúmeras utilizações benéficas, a IA, pode também ser utilizada indevidamente e conceder instrumentos novos e poderosos para práticas manipuladoras, exploratórias e de controlo social. Essas práticas são particularmente prejudiciais e abusivas e deverão ser proibidas por desrespeitarem valores da União, como a dignidade do ser humano, a liberdade, a igualdade, a democracia e o Estado de direito, bem como os direitos fundamentais consagrados na Carta, nomeadamente o direito à não discriminação, à proteção de dados pessoais e à privacidade, e os direitos das crianças.
(29)
Manipulatívne techniky, ktoré umožňuje AI, sa môžu použiť na presviedčanie osôb, aby sa správali neželaným spôsobom, alebo na ich zavádzanie nabádaním na rozhodnutia spôsobom, ktorý narúša a oslabuje ich samostatnosť, rozhodovacie schopnosti a slobodnú voľbu. Uvádzanie na trh, uvádzanie do prevádzky alebo používanie určitých systémov AI, ktorých cieľom alebo účinkom je podstatné narušenie ľudského správania, pri ktorom je pravdepodobné, že dôjde k značnej ujme, najmä dostatočne závažným nepriaznivým vplyvom na fyzické zdravie, psychické zdravie alebo finančné záujmy, je obzvlášť nebezpečné a malo by sa preto zakázať. Takéto systémy AI využívajú podprahové komponenty, ako sú zvukové a obrazové podnety alebo videopodnety, ktoré osoby nemôžu vnímať, keďže tieto podnety sú mimo ľudského vnímania, alebo iné manipulatívne alebo klamlivé techniky, ktoré narúšajú alebo oslabujú samostatnosť, rozhodovacie schopnosti alebo slobodnú voľbu osôb takým spôsobom, že si ľudia tieto techniky neuvedomujú, alebo ak si ich uvedomujú, napriek tomu môžu byť zavádzaní alebo nie sú schopní ich ovládať alebo im odolávať. To by sa mohlo uľahčiť napríklad rozhraniami medzi strojom a mozgom alebo virtuálnou realitou, pretože umožňujú vyšší stupeň kontroly toho, akým stimulom sú osoby vystavené, pokiaľ môžu výrazne škodlivým a podstatným spôsobom narušiť ich správanie. Systémy AI môžu okrem toho aj iným spôsobom zneužívať zraniteľnosti osôb alebo osobitných skupín osôb z dôvodu ich veku, zdravotného postihnutia v zmysle smernice Európskeho parlamentu a Rady (EÚ) 2019/882 (16) alebo osobitnej sociálnej alebo ekonomickej situácie, v dôsledku čoho môžu byť tieto osoby zraniteľnejšie voči zneužívaniu, ako napríklad osoby žijúce v extrémnej chudobe, etnické alebo náboženské menšiny. Takéto systémy AI sa môžu uvádzať na trh, uvádzať do prevádzky alebo používať s cieľom alebo účinkom podstatného narušenia správania osoby spôsobom, ktorý spôsobuje alebo pri ktorom je odôvodnené predpokladať, že spôsobí značnú ujmu tejto alebo inej osobe alebo skupinám osôb vrátane škôd, ktoré sa môžu časom kumulovať, a preto by sa mali zakázať. Môže sa stať, že úmysel narušiť správanie nie je možné predpokladať, ak narušenie vyplýva z faktorov mimo systému AI, ktoré nie sú pod kontrolou poskytovateľa alebo nasadzujúceho subjektu, konkrétne faktorov, ktoré poskytovateľ systému AI alebo subjekt nasadzujúci systém AI nemôže odôvodnene predvídať, a teda zmierňovať. V každom prípade nie je potrebné, aby poskytovateľ alebo subjekt nasadzujúci systém AI mal úmysel spôsobiť značnú ujmu, pokiaľ takáto ujma vyplýva z manipulatívnych alebo zneužívajúcich praktík využívajúcich AI. Zákazmi takýchto praktík využívajúcich AI sa dopĺňajú ustanovenia smernice Európskeho parlamentu a Rady 2005/29/ES (17), najmä to, že nekalé obchodné praktiky vedúce k hospodárskej alebo finančnej ujme pre spotrebiteľov sú zakázané za každých okolností bez ohľadu na to, či sú zavedené prostredníctvom systémov AI alebo inak. Zákazmi manipulatívnych a zneužívajúcich praktík v tomto nariadení by nemali byť dotknuté zákonné postupy v súvislosti s liečbou, ako je psychologická liečba duševnej choroby alebo fyzická rehabilitácia, ak sa tieto praktiky vykonávajú v súlade s platnými lekárskymi normami a právnymi predpismi, napríklad výslovný súhlas fyzických osôb alebo ich právnych zástupcov. Okrem toho by sa bežné a legitímne obchodné praktiky, napríklad v oblasti reklamy, ktoré sú v súlade s uplatniteľným právom, nemali samy osebe považovať za škodlivé manipulatívne praktiky využívajúce AI.
(29)
As técnicas de manipulação propiciadas pela IA podem ser utilizadas para persuadir as pessoas a adotarem comportamentos indesejados, ou para as enganar incentivando-as a tomar decisões de uma forma que subverta e prejudique a sua autonomia, a sua tomada de decisões e a sua liberdade de escolha. A colocação no mercado, a colocação em serviço ou a utilização de determinados sistemas de IA com o objetivo ou o efeito de distorcer substancialmente o comportamento humano, sendo passível a ocorrência de danos significativos, em especial com repercussões negativas suficientemente importantes na saúde física, psicológica ou nos interesses financeiros, são particularmente perigosas e deverão, por isso, ser proibidas. Esses sistemas de IA utilizam quer componentes subliminares, como estímulos de áudio, de imagem e de vídeo dos quais as pessoas não se conseguem aperceber por serem estímulos que ultrapassam a perceção humana, quer outras técnicas manipuladoras ou enganadoras que subvertem ou prejudicam a autonomia, a tomada de decisões ou a liberdade de escolha das pessoas de uma maneira de que estas não têm consciência dessas técnicas ou que, mesmo que tenham consciência das mesmas, ainda possam ser enganadas ou não as possam impedir de controlar ou não lhes possam resistir. Tal poderá ser facilitado, por exemplo, por interfaces máquina-cérebro ou por realidade virtual, que permitem um maior nível de controlo do tipo de estímulos apresentados às pessoas, na medida em que podem distorcer substancialmente o seu comportamento de uma forma significativamente nociva. Além disso, os sistemas de IA podem também explorar vulnerabilidades de uma pessoa ou de um grupo específico de pessoas devido à sua idade, à sua deficiência na aceção da Diretiva (UE) 2019/882 do Parlamento Europeu e do Conselho (16), ou a uma situação social ou económica específica suscetível de tornar essas pessoas mais vulneráveis à exploração, como as pessoas que vivem em situação de pobreza extrema ou as minorias étnicas ou religiosas. Esses sistemas de IA podem ser colocados no mercado, colocados em serviço ou utilizados com o objetivo ou o efeito de distorcer substancialmente o comportamento de uma pessoa e de uma forma que cause ou seja razoavelmente suscetível de causar danos significativos a essa ou a outra pessoa ou grupos de pessoas, incluindo danos que possam ser acumulados ao longo do tempo, razão pela qual deverão ser proibidos. Pode não ser possível presumir que existe intenção de distorcer o comportamento se a distorção resultar de fatores externos ao sistema de IA que estejam fora do controlo do prestador ou do responsável pela implantação, nomeadamente fatores que podem não ser razoavelmente previsíveis e que, por conseguinte, o prestador ou responsável pela implantação do sistema de IA não possam atenuar. De qualquer modo, não é necessário que o prestador ou o responsável pela implantação tenha a intenção de causar danos significativos, basta que tal dano resulte das práticas manipuladoras ou exploratórias baseadas na IA. As proibições de tais práticas de IA complementam as disposições da Diretiva 2005/29/CE do Parlamento Europeu e do Conselho (17), nomeadamente as que proíbem as práticas comerciais desleais que causam danos económicos ou financeiros aos consumidores, em quaisquer circunstâncias, independentemente de serem aplicadas através de sistemas de IA ou de outra forma. As proibições de práticas manipuladoras e exploratórias previstas no presente regulamento não deverão afetar as práticas lícitas no contexto de tratamentos médicos, como o tratamento psicológico de uma doença mental ou a reabilitação física, sempre que tais práticas sejam realizadas em conformidade com a lei e as normas médicas aplicáveis, como, por exemplo, o consentimento explícito das pessoas ou dos seus representantes legais. Além disso, as práticas comerciais comuns e legítimas, como por exemplo no domínio da publicidade, que cumpram a lei aplicável não deverão, por si só, ser consideradas práticas manipuladoras prejudiciais tornadas possíveis pela IA.
(30)
Mali by sa zakázať systémy biometrickej kategorizácie založené na biometrických údajoch fyzických osôb, ako je tvár alebo odtlačky prstov, s cieľom alebo odvodiť politické názory osôb, členstvo v odboroch, náboženské alebo filozofické presvedčenie, rasu, sexuálny život alebo sexuálnu orientáciu. Tento zákaz by sa nemal vzťahovať na zákonné označovanie, filtrovanie alebo kategorizáciu súborov biometrických údajov získaných v súlade s právom Únie alebo vnútroštátnym právom v oblasti biometrických údajov, ako je triedenie obrázkov podľa farby vlasov alebo farby očí, ktoré možno použiť napríklad v oblasti presadzovania práva.
(30)
Deverão ser proibidos os sistemas de categorização biométrica baseados em dados biométricos de pessoas singulares, como o rosto ou as impressões digitais, para deduzir ou inferir as suas opiniões políticas, a filiação sindical, as convicções religiosas ou filosóficas, a raça, a vida sexual ou a orientação sexual de uma pessoa. Essa proibição não deverá abranger a rotulagem legal, a filtragem ou a categorização de conjuntos de dados biométricos adquiridos em conformidade com o direito da União ou o direito nacional em função dos dados biométricos, como a triagem de imagens em função da cor do cabelo ou da cor dos olhos, que podem, por exemplo, ser utilizadas no domínio da aplicação da lei.
(31)
Systémy AI na sociálne bodovanie fyzických osôb používané orgánmi verejnej moci alebo súkromnými aktérmi môžu viesť k diskriminačným výsledkom a vylúčeniu určitých skupín. Môžu porušovať právo na dôstojnosť a nediskrimináciu a hodnoty rovnosti a spravodlivosti. Takéto systémy AI hodnotia alebo klasifikujú fyzické osoby alebo skupiny fyzických osôb na základe viacerých dátových bodov týkajúcich sa ich spoločenského správania vo viacerých kontextoch alebo známych, odvodených či predpokladaných osobných alebo osobnostných charakteristík za určité časové obdobia. Sociálne skóre získané na základe takýchto systémov AI môže viesť k škodlivému alebo nepriaznivému zaobchádzaniu s fyzickými osobami alebo celými skupinami takýchto osôb v sociálnych kontextoch nesúvisiacich s kontextom, v ktorom boli údaje pôvodne vygenerované alebo zhromaždené, prípadne k poškodzujúcemu zaobchádzaniu, ktoré je neprimerané alebo neodôvodnené vzhľadom na závažnosť ich spoločenského správania. Systémy AI, ktoré zahŕňajú takéto neprijateľné bodovacie praktiky a vedú k takýmto škodlivým alebo nepriaznivým výsledkom, by sa preto mali zakázať. Tento zákaz by nemal mať vplyv na zákonné postupy hodnotenia fyzických osôb vykonávané na špecifické účely v súlade s právom Únie a vnútroštátnym právom.
(31)
Os sistemas de IA que possibilitam a classificação social de pessoas singulares por intervenientes públicos ou privados podem criar resultados discriminatórios e levar à exclusão de determinados grupos. Estes sistemas podem ainda violar o direito à dignidade e à não discriminação e os valores da igualdade e da justiça. Esses sistemas de IA avaliam ou classificam pessoas singulares ou grupos de pessoas singulares com base em múltiplos pontos de dados relacionados com o seu comportamento social em diversos contextos ou em características pessoais ou de personalidade conhecidas, inferidas ou previsíveis ao longo de determinados períodos. A classificação social obtida por meio desses sistemas de IA pode levar ao tratamento prejudicial ou desfavorável de pessoas singulares ou grupos inteiros de pessoas singulares em contextos sociais não relacionados com o contexto em que os dados foram originalmente gerados ou recolhidos, ou a um tratamento prejudicial desproporcionado ou injustificado face à gravidade do seu comportamento social. Como tal, deverão ser proibidos sistemas de IA que impliquem tais práticas de classificação inaceitáveis e conducentes a esses resultados prejudiciais ou desfavoráveis. Essa proibição não deverá afetar as práticas de avaliação lícitas de pessoas singulares efetuadas para um fim específico, em conformidade com o direito da União e o direito nacional.
(32)
Používanie systémov AI na diaľkovú biometrickú identifikáciu fyzických osôb „v reálnom čase“ vo verejne prístupných priestoroch na účely presadzovania práva sa považuje za obzvlášť rušivý zásah do práv a slobôd dotknutých osôb, keďže môže ovplyvniť súkromie veľkej časti obyvateľstva, vyvoláva pocit neustáleho sledovania a nepriamo odrádza od využívania slobody zhromažďovania a iných základných práv. Technické nepresnosti systémov AI určených na diaľkovú biometrickú identifikáciu fyzických osôb môžu viesť ku skresleným výsledkom a mať diskriminačné účinky. Takéto možné skreslené výsledky a diskriminačné účinky sú obzvlášť relevantné z hľadiska veku, etnickej príslušnosti, rasy, pohlavia alebo zdravotného postihnutia. Okrem toho, bezprostrednosť vplyvu a obmedzené možnosti ďalších kontrol alebo opráv v súvislosti s používaním takýchto systémov fungujúcich „v reálnom čase“ so sebou prinášajú zvýšené riziká z hľadiska práv a slobôd dotknutých osôb v súvislosti s činnosťami presadzovania práva alebo v ich dôsledku.
(32)
A utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» de pessoas singulares em espaços acessíveis ao público para efeitos de aplicação da lei é particularmente intrusiva para os direitos e as liberdades das pessoas em causa, visto que pode afetar a vida privada de uma grande parte da população, dar origem a uma sensação de vigilância constante e dissuadir indiretamente o exercício da liberdade de reunião e de outros direitos fundamentais. As imprecisões técnicas dos sistemas de IA concebidos para a identificação biométrica à distância de pessoas singulares podem conduzir a resultados enviesados e ter efeitos discriminatórios. Estes possíveis resultados enviesados e efeitos discriminatórios são particularmente relevantes no que diz respeito à idade, etnia, raça, sexo ou deficiência. Além disso, o impacto imediato e as oportunidades limitadas para a realização de controlos adicionais ou correções no que respeita à utilização desses sistemas que funcionam em tempo real acarretam riscos acrescidos para os direitos e as liberdades das pessoas em causa no contexto, ou afetadas, pelas autoridades responsáveis pela aplicação da lei.
(33)
Používanie týchto systémov na účely presadzovania práva by sa preto malo zakázať s výnimkou taxatívne vymenovaných a úzko vymedzených situácií, keď je toto použitie nevyhnutne potrebné na dosiahnutie významného verejného záujmu, ktorého význam prevažuje nad rizikami. Tieto situácie zahŕňajú pátranie po určitých obetiach trestných činov vrátane nezvestných osôb; určité ohrozenie života alebo fyzickej bezpečnosti fyzických osôb alebo hrozby teroristického útoku; a lokalizáciu alebo identifikáciu páchateľov trestných činov uvedených v prílohe k tomuto nariadeniu alebo osôb podozrivých zo spáchania týchto trestných činov, ak za tieto trestné činy možno v dotknutom členskom štáte uložiť trest odňatia slobody alebo ochranné opatrenie spojené s obmedzením osobnej slobody s hornou hranicou trestnej sadzby najmenej štyri roky a podľa ich vymedzenia v práve tohto členského štátu. Takáto hranica trestu odňatia slobody alebo ochranného opatrenia spojeného s obmedzením osobnej slobody v súlade s vnútroštátnym právom prispieva k zabezpečeniu toho, že daný trestný čin bude dostatočne závažný na to, aby sa ním dalo potenciálne odôvodniť použitie systémov diaľkovej biometrickej identifikácie „v reálnom čase“. Okrem toho zoznam trestných činov uvedený v prílohe k tomuto nariadeniu vychádza z 32 trestných činov uvedených v rámcovom rozhodnutí Rady 2002/584/SVV (18), pričom sa zohľadňuje skutočnosť, že niektoré z uvedených trestných činov sú v praxi pravdepodobne relevantnejšie ako iné v tom zmysle, že nevyhnutnosť a primeranosť použitia diaľkovej biometrickej identifikácie „v reálnom čase“ by mohli byť pravdepodobne veľmi rôznorodé jednak z hľadiska praktického vykonávania lokalizácie alebo identifikácie páchateľa jednotlivých uvedených trestných činov alebo osôb podozrivých z ich spáchania a jednak vzhľadom na pravdepodobné rozdiely v závažnosti, pravdepodobnosti a rozsahu spôsobenej ujmy alebo možných negatívnych dôsledkov. Bezprostredné ohrozenie života alebo fyzickej bezpečnosti fyzických osôb by mohlo vyplývať aj zo závažného narušenia kritickej infraštruktúry v zmysle vymedzenia uvedeného v článku 2 bode 4 smernice Európskeho parlamentu a Rady (EÚ) 2022/2557 (19), ak by narušenie alebo zničenie takejto kritickej infraštruktúry viedlo k bezprostrednému ohrozeniu života alebo fyzickej bezpečnosti osoby, a to aj v dôsledku vážnej ujmy na poskytovaní základných dodávok pre obyvateľstvo alebo výkone základných funkcií štátu. Okrem toho by sa týmto nariadením mala zachovať možnosť orgánov presadzovania práva, kontroly hraníc, imigračných alebo azylových orgánov vykonávať kontroly totožnosti v prítomnosti dotknutej osoby v súlade s podmienkami stanovenými v práve Únie a vo vnútroštátnom práve pre takéto kontroly. Orgány presadzovania práva, kontroly hraníc, imigračné alebo azylové orgány by konkrétne mali mať možnosť využívať informačné systémy v súlade s právom Únie alebo vnútroštátnym právom na identifikáciu osôb, ktoré sa počas kontroly totožnosti buď odmietnu identifikovať, alebo nie sú schopné uviesť alebo preukázať svoju totožnosť, a to bez toho, aby sa podľa tohto nariadenia vyžadovalo získanie povolenia vopred. Môže ísť napríklad o osobu zapojenú do trestného činu, ktorá nie je ochotná alebo z dôvodu úrazu alebo zdravotného stavu nie je schopná uviesť svoju totožnosť orgánom presadzovania práva.
(33)
Como tal, deverá ser proibida a utilização desses sistemas para efeitos de aplicação da lei, salvo em situações enunciadas exaustivamente e definidas de modo restrito, em que essa utilização é estritamente necessária por motivos de interesse público importante e cuja importância prevalece sobre os riscos. Nessas situações incluem-se a busca de determinadas vítimas de crimes, nomeadamente pessoas desaparecidas; certas ameaças à vida ou à segurança física de pessoas singulares ou ameaças de ataque terrorista; e a localização ou identificação de infratores ou suspeitos de infrações penais a que se refere um anexo do presente regulamento, desde que essas infrações penais sejam puníveis no Estado-Membro em causa com pena ou medida de segurança privativa de liberdade de duração máxima não inferior a quatro anos e tal como definidas pela legislação desse Estado-Membro. Esse limiar para a pena ou medida de segurança privativa de liberdade prevista no direito nacional contribui para assegurar que a infração seja suficientemente grave para justificar potencialmente a utilização de sistemas de identificação biométrica à distância em tempo real. Além disso, a lista de infrações penais prevista no anexo do presente regulamento baseia-se nas 32 infrações penais enumeradas na Decisão-Quadro 2002/584/JAI do Conselho (18), tendo em conta que algumas delas são na prática provavelmente mais pertinentes do que outras, já que o recurso à identificação biométrica à distância «em tempo real» poderá previsivelmente ser necessário e proporcionado em graus extremamente variáveis no respeitante à localização ou identificação de um infrator ou suspeito das diferentes infrações penais enumeradas e tendo em conta as prováveis diferenças em termos de gravidade, probabilidade e magnitude dos danos ou das possíveis consequências negativas. Uma ameaça iminente à vida ou à segurança física de pessoas singulares também poderá resultar de uma perturbação grave causada a uma infraestrutura crítica, na aceção do artigo 2.o, ponto 4, da Diretiva (UE) 2022/2557 do Parlamento Europeu e do Conselho (19), sempre que a perturbação ou a destruição dessa infraestrutura crítica resulte numa ameaça iminente à vida ou à segurança física de uma pessoa, inclusive ao prejudicar gravemente o fornecimento de bens essenciais à população ou o exercício das funções essenciais do Estado. Além disso, o presente regulamento deverá preservar a capacidade das autoridades competentes em matéria de aplicação da lei, controlo das fronteiras, imigração ou asilo para realizarem controlos de identidade na presença da pessoa em causa, em conformidade com as condições estabelecidas no direito da União e no direito nacional para esses controlos. Em especial, as autoridades competentes em matéria de aplicação da lei, controlo das fronteiras, imigração ou asilo deverão poder utilizar sistemas de informação, em conformidade com o direito da União ou o direito nacional, para identificar pessoas que, durante um controlo de identidade, se recusem a ser identificadas ou não sejam capazes de declarar ou provar a sua identidade, sem serem obrigadas a obter uma autorização prévia por força do presente regulamento. Pode tratar-se, por exemplo, de uma pessoa envolvida num crime que não queira, ou não possa devido a um acidente ou doença, revelar a sua identidade às autoridades responsáveis pela aplicação da lei.
(34)
S cieľom zabezpečiť, aby sa tieto systémy používali zodpovedným a primeraným spôsobom, je tiež dôležité stanoviť, že v každej z týchto taxatívne vymenovaných a úzko vymedzených situácií by sa mali zohľadniť určité prvky, najmä pokiaľ ide o povahu situácie, ktorá viedla k predloženiu žiadosti, o dôsledky využívania týchto systémov na práva a slobody všetkých dotknutých osôb a o záruky a podmienky zabezpečené pri tomto používaní. Okrem toho by sa používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva malo nasadzovať len na potvrdenie totožnosti špecificky zacieleného jednotlivca a malo by sa obmedziť na to, čo je nevyhnutne potrebné, pokiaľ ide o časové obdobie, ako aj geografický a osobný rozsah, najmä so zreteľom na dôkazy alebo indície týkajúce sa hrozieb, obetí alebo páchateľa. Používanie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch by sa malo povoliť len vtedy, ak príslušný orgán presadzovania práva ukončil posúdenie vplyvu na základné práva a, pokiaľ sa v tomto nariadení nestanovuje inak, zaregistroval systém v databáze, ako sa stanovuje v tomto nariadení. Referenčná databáza osôb by mala byť vhodná pre každý prípad použitia v každej z uvedených situácií.
(34)
A fim de assegurar que esses sistemas sejam utilizados de uma forma responsável e proporcionada, também importa estabelecer que, em cada uma dessas situações enunciadas exaustivamente e definidas de modo restrito, é necessário ter em conta determinados elementos, em especial no que se refere à natureza da situação que dá origem ao pedido e às consequências da utilização para os direitos e as liberdades de todas as pessoas em causa e ainda às salvaguardas e condições previstas para a utilização. Além disso, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei só deverá ocorrer para efeitos de confirmação da identidade de uma pessoa especificamente visada e deverá ser limitada ao estritamente necessário no que respeita ao período, bem como ao âmbito geográfico e pessoal, tendo em conta, especialmente, os dados ou indícios relativos às ameaças, às vítimas ou ao infrator. A utilização do sistema de identificação biométrica à distância em tempo real em espaços acessíveis ao público só deverá ser autorizada se a competente autoridade responsável pela aplicação da lei tiver concluído uma avaliação de impacto sobre os direitos fundamentais e, salvo disposição em contrário no presente regulamento, tiver registado o sistema na base de dados prevista no presente regulamento. A base de dados de pessoas utilizada como referência deverá ser adequada a cada utilização em cada uma das situações acima indicadas.
(35)
Každé použitie systému diaľkovej biometrickej identifikácie „v reálnom čase“ vo verejne prístupných priestoroch na účely presadzovania práva by malo podliehať výslovnému a osobitnému povoleniu justičného orgánu alebo nezávislého správneho orgánu členského štátu, ktorého rozhodnutie je záväzné. Takéto povolenie by sa v zásade malo získať pred použitím systému AI s cieľom identifikovať osobu alebo osoby. Výnimky z tohto pravidla by mali byť povolené v riadne odôvodnených naliehavých situáciách, teda v situáciách, v ktorých je natoľko potrebné použiť predmetné systémy, že je naozaj objektívne nemožné získať povolenie pred začatím použitia systému AI. V takýchto naliehavých situáciách by sa používanie systému AI malo obmedziť na absolútne nevyhnutné minimum a malo by podliehať primeraným zárukám a podmienkam stanoveným vo vnútroštátnom práve a špecifikovaným v kontexte každého jednotlivého naliehavého prípadu použitia samotným orgánom presadzovania práva. Okrem toho by orgán presadzovania práva mal v takýchto situáciách požiadať o takéto povolenie a zároveň uviesť dôvody, prečo oň nemohol požiadať skôr, a to bez zbytočného odkladu a najneskôr do 24 hodín. Ak sa takéto povolenie zamietne, používanie systémov biometrickej identifikácie v reálnom čase spojených s daným povolením by sa malo s okamžitou účinnosťou ukončiť a všetky údaje súvisiace s takýmto použitím by sa mali zlikvidovať a vymazať. Takéto údaje zahŕňajú vstupné údaje priamo získané systémom AI v priebehu používania takéhoto systému, ako aj výsledky a výstupy používania spojeného s daným povolením. Nemalo by zahŕňať vstupy, ktoré sú zákonne získané v súlade s iným právom Únie alebo vnútroštátnym právom. V každom prípade, žiadne rozhodnutie, ktoré má nepriaznivé právne účinky na osobu, by sa nemalo prijať výlučne na základe výstupu systému diaľkovej biometrickej identifikácie.
(35)
Cada utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei deverá estar sujeita a uma autorização expressa e específica de uma autoridade judiciária ou de uma autoridade administrativa independente de um Estado-Membro cuja decisão seja vinculativa. Em princípio, essa autorização deverá ser obtida antes da utilização do sistema de IA com vista a identificar uma ou várias pessoas. Deverão ser permitidas exceções a essa regra em situações devidamente justificadas por motivos de urgência, nomeadamente em situações em que a necessidade de utilizar os sistemas em causa seja tal que torne efetiva e objetivamente impossível obter uma autorização antes de iniciar a utilização do sistema de IA. Nessas situações de urgência, a utilização do sistema de IA deverá limitar-se ao mínimo absolutamente necessário e estar sujeita a salvaguardas e condições adequadas, conforme determinado pelo direito nacional e especificado no contexto de cada caso de utilização urgente pela própria autoridade responsável pela aplicação da lei. Além disso, em tais situações, a autoridade responsável pela aplicação da lei deverá solicitar essa autorização, apresentando simultaneamente as razões para não ter podido solicitá-la mais cedo, sem demora injustificada e, o mais tardar, no prazo de 24 horas. Se essa autorização for recusada, a utilização de sistemas de identificação biométrica em tempo real associados a essa autorização deverá cessar com efeitos imediatos e todos os dados relacionados com essa utilização deverão ser suprimidos e apagados. Tais dados incluem dados de entrada adquiridos diretamente por um sistema de IA durante a utilização desse sistema, bem como os resultados da utilização associada a essa autorização. Não deverá incluir os dados de entrada licitamente adquiridos em conformidade com outras disposições pertinentes do direito da União ou do direito nacional. Em qualquer caso, nenhuma decisão que produza efeitos jurídicos adversos sobre uma pessoa deverá ser tomada exclusivamente com base nos resultados saídos do sistema de identificação biométrica à distância.
(36)
S cieľom vykonávať svoje úlohy v súlade s požiadavkami stanovenými v tomto nariadení, ako aj vo vnútroštátnych predpisoch by mal byť o každom použití systému biometrickej identifikácie v reálnom čase informovaný príslušný orgán dohľadu nad trhom a vnútroštátny orgán pre ochranu údajov. Orgány dohľadu nad trhom a vnútroštátne orgány pre ochranu údajov, ktoré boli informované, by mali Komisii predkladať výročnú správu o používaní systémov biometrickej identifikácie v reálnom čase.
(36)
A fim de desempenharem as suas funções em conformidade com os requisitos estabelecidos no presente regulamento e nas regras nacionais, as autoridades de fiscalização do mercado competentes e a autoridade nacional de proteção de dados deverão ser notificadas de cada utilização do sistema de identificação biométrica em tempo real. As autoridades de fiscalização do mercado e as autoridades nacionais de proteção de dados que tenham sido notificadas deverão apresentar à Comissão um relatório anual sobre a utilização de sistemas de identificação biométrica em tempo real.
(37)
Navyše je vhodné v rámci podrobne opísanom týmto nariadením stanoviť, že takéto použitie na území členského štátu v súlade s týmto nariadením by malo byť možné len vtedy a do takej miery, do akej sa dotknutý členský štát rozhodol výslovne stanoviť možnosť povoliť toto použitie vo svojich podrobných pravidlách vnútroštátneho práva. V dôsledku toho sa členské štáty môžu podľa tohto nariadenia naďalej na základe vlastného uváženia rozhodnúť, že takúto možnosť vôbec nestanovia alebo ju stanovia len v súvislosti s niektorými z cieľov, ktorými možno odôvodniť povolené použitie určené v tomto nariadení. Takéto vnútroštátne pravidlá by sa mali oznámiť Komisii do 30 dní od ich prijatia.
(37)
Além disso, no âmbito do regime exaustivo estabelecido pelo presente regulamento, importa salientar que essa utilização no território de um Estado-Membro em conformidade com o presente regulamento apenas deverá ser possível uma vez que o Estado-Membro em causa tenha decidido possibilitar expressamente a autorização dessa utilização nas regras de execução previstas no direito nacional. Consequentemente, ao abrigo do presente regulamento, os Estados-Membros continuam a ser livres de não possibilitar essa utilização ou de apenas possibilitar essa utilização relativamente a alguns dos objetivos passíveis de justificar uma utilização autorizada identificados no presente regulamento. Essas regras nacionais deverão ser comunicadas à Comissão no prazo de 30 dias a contar da sua adoção.
(38)
Používanie systémov AI na diaľkovú biometrickú identifikáciu fyzických osôb v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva nevyhnutne zahŕňa spracúvanie biometrických údajov. Pravidlá tohto nariadenia, ktorými sa s výhradou určitých výnimiek takéto používanie zakazuje a ktoré sú založené na článku 16 ZFEÚ, by sa mali uplatňovať ako lex specialis, pokiaľ ide o pravidlá spracúvania biometrických údajov uvedené v článku 10 smernice (EÚ) 2016/680, čím by sa takéto používanie a spracúvanie príslušných biometrických údajov upravovalo vyčerpávajúcim spôsobom. Takéto používanie a spracúvanie by preto malo byť možné, len pokiaľ je zlučiteľné s rámcom stanoveným v tomto nariadení, a mimo tohto rámca by nemal existovať priestor na to, aby príslušné orgány, ak konajú na účely presadzovania práva, používali takéto systémy a spracúvali takéto údaje v súvislosti s týmto použitím z dôvodov uvedených v článku 10 smernice (EÚ) 2016/680. V tejto súvislosti nie je cieľom tohto nariadenia poskytnúť právny základ pre spracúvanie osobných údajov podľa článku 8 smernice (EÚ) 2016/680. Na používanie systémov na diaľkovú biometrickú identifikáciu v reálnom čase vo verejne prístupných priestoroch na iné účely ako na presadzovanie práva, a to aj príslušnými orgánmi, by sa však nemal vzťahovať osobitný rámec týkajúci sa takéhoto použitia na účely presadzovania práva stanovený v tomto nariadení. Takéto použitie na iné účely ako na presadzovanie práva by preto nemalo podliehať požiadavke povolenia podľa tohto nariadenia a uplatniteľných podrobných pravidiel vnútroštátneho práva, na základe ktorých sa toto povolenie môže vykonávať.
(38)
A utilização de sistemas de IA para a identificação biométrica à distância em tempo real de pessoas singulares em espaços acessíveis ao público para efeitos de aplicação da lei implica necessariamente o tratamento de dados biométricos. As regras do presente regulamento que proíbem essa utilização, salvo em certas exceções, e que têm por base o artigo 16.o do TFUE, deverão aplicar-se como lex specialis relativamente às regras em matéria de tratamento de dados biométricos previstas no artigo 10.o da Diretiva (UE) 2016/680, regulando assim essa utilização e o tratamento de dados biométricos conexo de uma forma exaustiva. Como tal, essa utilização e esse tratamento apenas deverão ser possíveis se forem compatíveis com o regime estabelecido pelo presente regulamento, sem que exista margem, fora desse regime, para as autoridades competentes utilizarem esses sistemas e efetuarem o tratamento desses dados pelos motivos enunciados no artigo 10.o da Diretiva (UE) 2016/680, caso atuem para efeitos de aplicação da lei. Nesse contexto, o presente regulamento não pretende constituir o fundamento jurídico do tratamento de dados pessoais, nos termos do artigo 8.o da Diretiva (UE) 2016/680. Contudo, a utilização de sistemas de identificação biométrica à distância em tempo real em espaços acessíveis ao público para outros fins que não os de aplicação da lei, inclusive por parte das autoridades competentes, não deverá ser abrangida pelo regime específico relativo a essa utilização para efeitos de aplicação da lei estabelecido pelo presente regulamento. Assim, uma utilização para outros fins que não a aplicação da lei não deverá estar sujeita ao requisito de autorização previsto no presente regulamento nem às regras de execução aplicáveis do direito nacional que possam dar prevalência a essa autorização.
(39)
Každé spracúvanie biometrických údajov a iných osobných údajov súvisiace s používaním systémov AI na biometrickú identifikáciu, okrem spracúvania v súvislosti s používaním systémov na diaľkovú biometrickú identifikáciu fyzických osôb „v reálnom čase“ vo verejne prístupných priestoroch na účely presadzovania práva, ako sa stanovuje v tomto nariadení, by malo naďalej spĺňať všetky požiadavky vyplývajúce z článku 10 smernice (EÚ) 2016/680. Pokiaľ ide o iné účely ako presadzovanie práva, v článku 9 ods. 1 nariadenia (EÚ) 2016/679 a v článku 10 ods. 1 nariadenia (EÚ) 2018/1725 zakazuje spracúvanie biometrických údajov s výhradou obmedzených výnimiek stanovených v uvedených článkoch. Používanie diaľkovej biometrickej identifikácie na iné účely ako na účely presadzovania práva už podliehalo rozhodnutiam vnútroštátnych orgánov pre ochranu údajov o zákaze v kontexte uplatňovania článku 9 ods. 1 nariadenia (EÚ) 2016/679.
(39)
Qualquer tratamento de dados biométricos e de outros dados pessoais envolvidos na utilização de sistemas de IA para fins de identificação biométrica, desde que não estejam associados à utilização de sistemas de identificação biométrica à distância em tempo real em espaços acessíveis ao público para efeitos de aplicação da lei conforme regida pelo presente regulamento deverá continuar a cumprir todos os requisitos decorrentes do artigo10.o da Diretiva (UE) 2016/680. Para outros fins que não a aplicação da lei, o artigo 9.o, n.o 1, do Regulamento (UE) 2016/679 e o artigo 10.o, n.o 1, do Regulamento (UE) 2018/1725 proíbem o tratamento de dados biométricos, salvo nos casos abrangidos pelas exceções limitadas previstas nesses artigos. Em aplicação do artigo 9.o, n.o 1, do Regulamento (UE) 2016/679, a utilização da identificação biométrica à distância para outros fins que não a aplicação da lei já foi objeto de decisões de proibição por parte das autoridades nacionais de proteção de dados.
(40)
V súlade s článkom 6a Protokolu č. 21 o postavení Spojeného kráľovstva a Írska s ohľadom na priestor slobody, bezpečnosti a spravodlivosti, ktorý je pripojený k Zmluve o EÚ a ZFEÚ, nie je Írsko viazané pravidlami stanovenými v článku 5 ods. 1 prvom pododseku písm. g) v rozsahu, v akom sa uplatňuje na použitie systémov biometrickej kategorizácie pri činnostiach v oblasti policajnej spolupráce a justičnej spolupráce v trestných veciach, v článku 5 ods. 1 prvom pododseku písm. d) v rozsahu, v akom sa uplatňuje na používanie systémov AI, na ktoré sa vzťahuje uvedené ustanovenie, v článku 5 ods. 1 prvom pododseku písm. h), článku 5 ods. 2 až 6 a v článku 26 ods. 10 tohto nariadenia, prijatými na základe článku 16 ZFEÚ, ktoré sa týkajú spracúvania osobných údajov členskými štátmi pri vykonávaní činností, ktoré patria do rozsahu pôsobnosti tretej časti hlavy V kapitoly 4 alebo kapitoly 5 ZFEÚ, ak Írsko nie je viazané pravidlami, ktorými sa spravujú formy justičnej spolupráce v trestných veciach alebo policajnej spolupráce, v rámci ktorých sa musia dodržiavať ustanovenia prijaté na základe článku 16 ZFEÚ.
(40)
Nos termos do artigo 6.o-A do Protocolo (n.o 21) relativo à posição do Reino Unido e da Irlanda em relação ao espaço de liberdade, segurança e justiça, anexo ao TUE e ao TFUE, a Irlanda não fica vinculada pelas regras estabelecidas no artigo 5.o, n.o 1, primeiro parágrafo, alínea g), na medida em que se aplica à utilização de sistemas de categorização biométrica para atividades no domínio da cooperação policial e da cooperação judicial em matéria penal, no artigo 5.o, n.o1, primeiro parágrafo, alínea d), na medida em que se aplica à utilização de sistemas de IA abrangidos por essa disposição, no artigo 5.o, n.o 1, primeiro parágrafo, alínea h), no artigo 5.o, n.os 2 a 6, e no artigo 26.o, n.o 10, do presente regulamento, adotadas com base no artigo 16.o do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito da parte III, título V, capítulos 4 ou 5, do TFUE, caso a Irlanda não esteja vinculada por regras que rejam formas de cooperação judiciária em matéria penal ou de cooperação policial no âmbito das quais devam ser observadas as disposições definidas com base no artigo 16.o do TFUE.
(41)
V súlade s článkami 2 a 2a Protokolu č. 22 o postavení Dánska, ktorý je pripojený k Zmluve o EÚ a ZFEÚ, nie je Dánsko viazané pravidlami stanovenými v článku 5 ods. 1 prvom pododseku písm. g) v rozsahu, v akom sa uplatňuje na použitie systémov biometrickej kategorizácie pri činnostiach v oblasti policajnej spolupráce a justičnej spolupráce v trestných veciach, v článku 5 ods. 1 prvom pododseku písm. d) v rozsahu, v akom sa uplatňuje na používanie systémov AI, na ktoré sa vzťahuje uvedené ustanovenie, v článku 5 ods. 1 prvom pododseku písm. h), článku 5 ods. 2 až 6 a v článku 26 ods. 10 tohto nariadenia, prijatými na základe článku 16 ZFEÚ, ktoré sa týkajú spracúvania osobných údajov členskými štátmi pri vykonávaní činností, ktoré patria do rozsahu pôsobnosti tretej časti hlavy V kapitoly 4 alebo kapitoly 5 ZFEÚ, ani nepodlieha ich uplatňovaniu.
(41)
Nos termos dos artigos 2.o e 2.o-A do Protocolo (n.o 22) relativo à posição da Dinamarca, anexo ao TUE e ao TFUE, a Dinamarca não fica vinculada pelas regras estabelecidas no artigo 5.o, n.o 1, primeiro parágrafo, alínea g), na medida em que se aplica à utilização de sistemas de categorização biométrica para atividades no domínio da cooperação policial e da cooperação judicial em matéria penal, no artigo 5.o, n.o1, primeiro parágrafo, alínea d), na medida em que se aplica à utilização de sistemas de IA abrangidos por essa disposição, e no artigo 5.o, n.o 1, primeiro parágrafo, alínea h), n.os 2 a 6, e no artigo 26.o, n. 10, do presente regulamento, adotadas com base no artigo 16.o do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito de aplicação da parte III, título V, capítulos 4 ou 5, do TFUE, nem fica sujeita à aplicação das mesmas.
(42)
V súlade s prezumpciou neviny by sa fyzické osoby v Únii mali vždy posudzovať podľa ich skutočného správania. Fyzické osoby by sa nikdy nemali posudzovať podľa správania predpokladaného AI výlučne na základe ich profilovania, osobnostných čŕt alebo charakteristík, ako je štátna príslušnosť, miesto narodenia, miesto bydliska, počet detí, výška dlhu alebo typ ich vozidla, bez odôvodneného podozrenia, že daná osoba je zapojená do trestnej činnosti na základe objektívnych overiteľných skutočností a bez ich ľudského posúdenia. Preto by sa malo zakázať vykonávanie posudzovania rizika fyzických osôb s cieľom posúdiť pravdepodobnosť spáchania trestného činu takýmito osobami alebo s cieľom predpovedať skutočný alebo potenciálny trestný čin výlučne na základe profilovania fyzických osôb alebo posúdenia ich osobnostných čŕt a charakteristík. Takýto zákaz v žiadnom prípade ale neodkazuje na analýzu rizika ani sa netýka analýzy rizika, ktorá nie je založená na profilovaní jednotlivcov ani na osobnostných črtách a charakteristikách jednotlivcov, ako sú systémy AI využívajúce analýzu rizika na posúdenie pravdepodobnosti finančného podvodu zo strany podnikov na základe podozrivých transakcií, alebo nástroje analýzy rizika na predpovedanie pravdepodobnosti lokalizácie omamných látok alebo nezákonného tovaru colnými orgánmi, napríklad na základe známych pašeráckych trás.
(42)
Em conformidade com a presunção de inocência, as pessoas singulares na União deverão ser sempre avaliadas em função do seu comportamento real. As pessoas singulares nunca poderão ser julgadas com base no comportamento previsto pela IA com base exclusivamente na definição do seu perfil, nos traços ou características da sua personalidade, como a nacionalidade, o local de nascimento, o local de residência, o número de filhos, o nível de endividamento ou o tipo de automóvel que têm, sem que exista uma suspeita razoável do seu envolvimento numa atividade criminosa com base em factos objetivos verificáveis, e sem uma avaliação humana dos mesmos. Por conseguinte, deverá ser proibido efetuar avaliações de risco de pessoas singulares que visem avaliar a probabilidade de cometerem infrações ou prever a ocorrência de uma infração penal real ou potencial exclusivamente com base na definição do seu perfil ou na avaliação dos traços e características da sua personalidade. Em todo o caso, essa proibição não se refere nem diz respeito a análises de risco que não se baseiem na definição de perfis de pessoas ou nos traços e características da personalidade de pessoas, tais como sistemas de IA que utilizam análises de risco para avaliar a probabilidade de fraude financeira por parte de empresas com base em transações suspeitas, ou ferramentas de análise de risco para prever a probabilidade de localização de estupefacientes ou mercadorias ilícitas pelas autoridades aduaneiras, por exemplo, com base em rotas de tráfico conhecidas.
(43)
Uvádzanie na trh, uvádzanie do prevádzky na tento konkrétny účel alebo používanie systémov AI, ktoré vytvárajú alebo rozširujú databázy na rozpoznávanie tváre prostredníctvom necielenej extrakcie podôb tváre z internetu alebo zo záznamov CCTV, by sa mali zakázať, pretože takáto prax zvyšuje pocit hromadného sledovania a môže viesť k hrubému porušovaniu základných práv vrátane práva na súkromie.
(43)
A colocação no mercado, a colocação em serviço para esse fim específico ou a utilização de sistemas de IA que criam ou expandem bases de dados de reconhecimento facial através da recolha aleatória de imagens faciais da Internet ou de imagens de CCTV deverão ser proibidas por essa prática aumentar o sentimento de vigilância em larga escala e poder conduzir a violações grosseiras dos direitos fundamentais, incluindo o direito à privacidade.
(44)
Existujú vážne obavy v súvislosti s vedeckým základom systémov AI, ktorých cieľom je identifikovať alebo odvodzovať emócie, najmä preto, že prejav emócií sa v jednotlivých kultúrach a situáciách a dokonca aj v prípade jedného jednotlivca značne líši. Medzi hlavné nedostatky takýchto systémov patrí obmedzená spoľahlivosť, nedostatočná špecifickosť a obmedzená možnosť zovšeobecnenia. Systémy AI, ktoré identifikujú alebo odvodzujú emócie alebo zámery fyzických osôb na základe ich biometrických údajov, preto môžu viesť k diskriminačným výsledkom a môžu zasahovať do práv a slobôd dotknutých osôb. Vzhľadom na nerovnováhu moci v kontexte práce alebo vzdelávania v kombinácii s rušivým charakterom týchto systémov by takéto systémy mohli viesť k škodlivému alebo nepriaznivému zaobchádzaniu s niektorými fyzickými osobami alebo celými skupinami fyzických osôb. Preto by sa malo zakázať uvádzanie na trh, uvádzanie do prevádzky alebo používanie systémov AI na zisťovanie emocionálneho stavu jednotlivcov v situáciách súvisiacich s pracoviskom a vzdelávaním. Tento zákaz by sa nemal vzťahovať na systémy AI uvádzané na trh výlučne zo zdravotných alebo bezpečnostných dôvodov, ako sú systémy určené na terapeutické použitie.
(44)
Existem sérias preocupações quanto à base científica dos sistemas de IA que visam identificar ou inferir emoções, especialmente porque a expressão de emoções varia consideravelmente entre culturas e situações, e até num mesmo indivíduo. Entre as principais deficiências desses sistemas contam-se a fiabilidade limitada, a falta de especificidade e a possibilidade limitada de generalização. Assim sendo, os sistemas de IA que identificam ou fazem inferências de emoções ou intenções de pessoas singulares com base nos seus dados biométricos podem conduzir a resultados discriminatórios e ser intrusivos nos direitos e liberdades das pessoas em causa. Tendo em conta o desequilíbrio de poder no contexto do trabalho ou da educação, combinado com a natureza intrusiva destes sistemas, tais sistemas podem conduzir a um tratamento prejudicial ou desfavorável de certas pessoas singulares ou de grupos inteiros de pessoas singulares. Por conseguinte, deverá ser proibida a colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA concebidos para serem utilizados na deteção do estado emocional das pessoas em situações relacionadas com o local de trabalho e a educação. Essa proibição não deverá abranger os sistemas de IA colocados no mercado exclusivamente por razões médicas ou de segurança, como os sistemas destinados a utilização terapêutica.
(45)
Postupy, ktoré sú zakázané právom Únie, okrem iného právom v oblasti ochrany údajov, nediskriminácie, ochrany spotrebiteľa a právom hospodárskej súťaže, by nemali byť týmto nariadením dotknuté.
(45)
As práticas proibidas pelo direito da União, nomeadamente a legislação sobre proteção de dados, não discriminação, defesa do consumidor e direito da concorrência, não poderão ser afetadas pelo presente regulamento.
(46)
Vysokorizikové systémy AI by sa mali uviesť na trh Únie alebo do prevádzky alebo by sa mali využívať len vtedy, ak spĺňajú určité povinné požiadavky. Týmito požiadavkami by sa malo zabezpečiť, aby vysokorizikové systémy AI, ktoré sú dostupné v Únii alebo ktorých výstupy sú v Únii inak využívané, nepredstavovali neprijateľné riziká pre dôležité verejné záujmy Únie uznané a chránené právom Únie. Na základe nového legislatívneho rámca, ako sa uvádza v oznámení Komisie s názvom „Modrá príručka na vykonávanie právnych predpisov EÚ týkajúcich sa výrobkov 2022“ (20), všeobecným pravidlom je, že viac ako jeden právny akt z harmonizačných právnych predpisov Únie, ako sú nariadenia Európskeho parlamentu a Rady (EÚ) 2017/745 (21) a (EÚ) 2017/746 (22) alebo smernica Európskeho parlamentu a Rady 2006/42/ES (23), sa môže uplatňovať na jeden výrobok, keďže sprístupnenie alebo uvedenie do prevádzky sa môže uskutočniť len vtedy, keď je výrobok v súlade so všetkými uplatniteľnými harmonizačnými právnymi predpismi Únie. S cieľom zabezpečiť konzistentnosť a zabrániť zbytočnému administratívnemu zaťaženiu alebo nákladom by poskytovatelia výrobku, ktorý obsahuje jeden alebo viacero vysokorizikových systémov AI, na ktoré sa vzťahujú požiadavky tohto nariadenia a požiadavky harmonizačných právnych predpisov Únie uvedených v prílohe k tomuto nariadeniu, mali mať flexibilitu, pokiaľ ide o operačné rozhodnutia týkajúce sa zabezpečenia súladu výrobku obsahujúceho jeden alebo viacero systémov AI so všetkými uplatniteľnými požiadavkami harmonizačných právnych predpisov Únie optimálnym spôsobom. Systémy AI označené ako vysokorizikové by sa mali obmedziť na tie, ktoré majú významný škodlivý vplyv na zdravie, bezpečnosť a základné práva osôb v Únii, a takéto obmedzenie by malo minimalizovať akékoľvek prípadné obmedzenie medzinárodného obchodu.
(46)
Os sistemas de IA de risco elevado só deverão ser colocados no mercado da União, colocados em serviço ou utilizados se cumprirem determinados requisitos obrigatórios. Esses requisitos deverão assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representem riscos inaceitáveis para interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União. Com base no novo regime jurídico, tal como clarificado na comunicação da Comissão intitulada «Guia Azul de 2022 sobre a aplicação das regras da UE em matéria de produtos» (20), a regra geral é a de que mais do que um ato jurídico da legislação de harmonização da União, como os Regulamentos (UE) 2017/745 (21) e (UE) 2017/746 (22) do Parlamento Europeu e do Conselho ou a Diretiva 2006/42/CE do Parlamento Europeu e do Conselho (23), pode ser aplicável a um produto, uma vez que a disponibilização ou a colocação em serviço só pode ter lugar quando o produto cumprir toda a legislação de harmonização da União aplicável. A fim de assegurar a coerência e evitar encargos administrativos ou custos desnecessários, os prestadores de um produto que contenha um ou mais sistemas de IA de risco elevado, aos quais se aplicam os requisitos do presente regulamento e os requisitos dos atos enumerados na lista da legislação de harmonização da União constante de um anexo do presente regulamento, deverão ser flexíveis no que diz respeito às decisões operacionais sobre a forma otimizada de assegurar a conformidade de um produto que contenha um ou mais sistemas de IA com todos os requisitos aplicáveis da legislação harmonizada da União. A classificação de risco elevado aplicada a sistemas de IA deverá limitar-se aos sistemas que têm um impacto prejudicial substancial na saúde, na segurança e nos direitos fundamentais das pessoas na União, e tal limitação deverá minimizar quaisquer potenciais restrições ao comércio internacional.
(47)
Systémy AI by mohli mať nepriaznivý vplyv na zdravie a bezpečnosť osôb, najmä ak takéto systémy fungujú ako bezpečnostné komponenty výrobkov. V súlade s cieľmi harmonizačných právnych predpisov Únie uľahčiť voľný pohyb výrobkov na vnútornom trhu a zabezpečiť, aby sa na trh dostali len bezpečné a inak vyhovujúce výrobky, je dôležité, aby sa riadne predchádzalo bezpečnostným rizikám, ktoré môže výrobok ako celok vytvárať svojimi digitálnymi komponentmi vrátane systémov AI, a aby sa tieto riziká náležite zmierňovali. Napríklad čoraz autonómnejšie roboty, či už v kontexte výroby alebo osobnej asistencie a starostlivosti, by mali byť schopné bezpečne fungovať a vykonávať svoje funkcie v zložitých prostrediach. Podobne v sektore zdravotníctva, kde existuje obzvlášť vysoké riziko v oblasti života a zdravia, by mali byť čoraz sofistikovanejšie diagnostické systémy a systémy podporujúce ľudské rozhodnutia spoľahlivé a presné.
(47)
Os sistemas de IA poderão ter repercussões negativas na saúde e na segurança das pessoas, em particular quando esses sistemas funcionam como componentes de segurança de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, cada vez mais autónomos, deverão poder operar com segurança e desempenhar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde — um setor no qual os riscos para a vida e a saúde são particularmente elevados —, os sistemas de diagnóstico e os sistemas que apoiam decisões humanas, que estão cada vez mais sofisticados, deverão produzir resultados exatos e de confiança.
(48)
Pri klasifikácii systému AI ako vysokorizikového je obzvlášť dôležitý rozsah nepriaznivého vplyvu systému AI na základné práva chránené chartou. Medzi tieto práva patrí právo na ľudskú dôstojnosť, rešpektovanie súkromného a rodinného života, ochrana osobných údajov, sloboda prejavu a právo na informácie, sloboda zhromažďovania a združovania, právo na nediskrimináciu, právo na vzdelávanie, ochrana spotrebiteľa, pracovné práva, práva osôb so zdravotným postihnutím, rodová rovnosť, práva duševného vlastníctva, právo na účinný prostriedok nápravy a na spravodlivý proces, právo na obhajobu a prezumpcia neviny a právo na dobrú správu vecí verejných. Okrem týchto práv je dôležité zdôrazniť, že deti majú osobitné práva zakotvené v článku 24 charty a v Dohovore Organizácie Spojených národov o právach dieťaťa, ďalej rozpracované vo všeobecnej poznámke č. 25 Dohovoru OSN o právach dieťaťa v súvislosti s digitálnym prostredím, ktoré si v oboch prípadoch vyžadujú zváženie zraniteľnosti detí a poskytnutie takejto ochrany a starostlivosti nevyhnutných pre ich blaho. Pri posudzovaní závažnosti ujmy, ktorú môže systém AI spôsobiť, a to aj v súvislosti so zdravím a bezpečnosťou osôb, by sa malo zohľadniť aj základné právo na vysokú úroveň ochrany životného prostredia zakotvené v charte a vykonávané v politikách Únie.
(48)
A dimensão das repercussões negativas causadas pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais, a liberdade de expressão e de informação, a liberdade de reunião e de associação, o direito à não discriminação, o direito à educação, a defesa dos consumidores, os direitos dos trabalhadores, os direitos das pessoas com deficiência, a igualdade de género, os direitos de propriedade intelectual, o direito à ação e a um tribunal imparcial, o direito à defesa e a presunção de inocência, e o direito a uma boa administração. Além desses direitos, é importante salientar o facto de que as crianças têm direitos específicos, consagrados no artigo 24.o da Carta e na Convenção das Nações Unidas sobre os Direitos da Criança, desenvolvidos com mais pormenor no Comentário Geral n.o 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital, que exigem que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem-estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deverá ser tido em conta ao avaliar a gravidade dos danos que um sistema de IA pode causar, nomeadamente em relação à saúde e à segurança das pessoas.
(49)
Pokiaľ ide o vysokorizikové systémy AI, ktoré sú bezpečnostnými komponentmi výrobkov alebo systémov, alebo ktoré sú samy výrobkami alebo systémami patriacimi do rozsahu pôsobnosti nariadenia Európskeho parlamentu a Rady (ES) č. 300/2008 (24), nariadenia Európskeho parlamentu a Rady (EÚ) č. 167/2013 (25), nariadenia Európskeho parlamentu a Rady (EÚ) č. 168/2013 (26), smernice Európskeho parlamentu a Rady 2014/90/EÚ (27), smernice Európskeho parlamentu a Rady (EÚ) 2016/797 (28), nariadenia Európskeho parlamentu a Rady (EÚ) 2018/858 (29), nariadenia Európskeho parlamentu a Rady (EÚ) 2018/1139 (30) a nariadenia Európskeho parlamentu a Rady (EÚ) 2019/2144 (31), je vhodné uvedené akty zmeniť s cieľom zaistiť, aby Komisia pri prijímaní akýchkoľvek relevantných delegovaných alebo vykonávacích aktov na základe uvedených aktov zohľadňovala povinné požiadavky na vysokorizikové systémy AI stanovené v tomto nariadení na základe technických a regulačných osobitostí jednotlivých odvetví bez toho, aby zasahovala do existujúcich mechanizmov správy, posudzovania zhody a presadzovania a do orgánov zriadených v rámci uvedených aktov.
(49)
Relativamente aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito de aplicação do Regulamento (CE) n.o 300/2008 do Parlamento Europeu e do Conselho (24), do Regulamento (UE) n.o 167/2013 do Parlamento Europeu e do Conselho (25), do Regulamento (UE) n.o 168/2013 do Parlamento Europeu e do Conselho (26), da Diretiva 2014/90/UE do Parlamento Europeu e do Conselho (27), da Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho (28), do Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho (29), do Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho (30) e do Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho (31), é adequado alterar esses atos para assegurar que a Comissão tenha em conta os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado estabelecidos no presente regulamento aquando da adoção de quaisquer atos delegados ou de execução pertinentes com base nesses atos, atendendo às especificidades técnicas e regulamentares de cada setor e sem interferir nos mecanismos existentes de governação, de avaliação da conformidade e de execução nem com as autoridades estabelecidas nesses atos.
(50)
Pokiaľ ide o systémy AI, ktoré sú bezpečnostnými komponentmi výrobkov alebo ktoré sú samy výrobkami, ktoré patria do rozsahu pôsobnosti určitých harmonizačných právnych predpisov Únie uvedených v prílohe k tomuto nariadeniu, je vhodné klasifikovať ich podľa tohto nariadenia ako vysokorizikové, pokiaľ v prípade dotknutého výrobku vykonáva postup posudzovania zhody orgán posudzovania zhody tretej strany podľa príslušných harmonizačných právnych predpisov Únie. Medzi takéto výrobky patria najmä strojové zariadenia, hračky, výťahy, zariadenia a ochranné systémy určené na použitie v potenciálne výbušnej atmosfére, rádiové zariadenia, tlakové zariadenia, vybavenie rekreačných plavidiel, lanovkové zariadenia, spotrebiče spaľujúce plynné palivá, zdravotnícke pomôcky, diagnostické zdravotnícke pomôcky in vitro, automobilový a letecký priemysel.
(50)
Relativamente aos sistemas de IA que são componentes de segurança de produtos ou que são, eles próprios, produtos abrangidos pelo âmbito de determinada legislação de harmonização da União enumerada num anexo do presente regulamento, é apropriado classificá-los como sendo de risco elevado nos termos do presente regulamento se o produto em causa for objeto de um procedimento de avaliação da conformidade realizado por um organismo terceiro de avaliação da conformidade nos termos dessa legislação de harmonização da União aplicável. Em particular, esses produtos são máquinas, brinquedos, ascensores, aparelhos e sistemas de proteção destinados a ser utilizados em atmosferas potencialmente explosivas, equipamentos de rádio, equipamentos sob pressão, equipamentos de embarcações de recreio, instalações por cabo, aparelhos a gás, dispositivos médicos, dispositivos médicos para diagnóstico in vitro, automóveis e aviação
(51)
Klasifikácia systému AI ako vysokorizikového podľa tohto nariadenia by nemala nevyhnutne znamenať, že sa výrobok, ktorého bezpečnostným komponentom je systém AI, alebo samotný systém AI ako výrobok považuje za vysokorizikový podľa kritérií stanovených v príslušných harmonizačných právnych predpisoch Únie, ktoré sa vzťahujú na daný výrobok. Platí to najmä pre nariadenia (EÚ) 2017/745 a (EÚ) 2017/746, kde sa pre výrobky so stredným a vysokým rizikom vyžaduje posudzovanie zhody treťou stranou.
(51)
A classificação de um sistema de IA como sendo de risco elevado nos termos do presente regulamento não deverá implicar necessariamente que se considere o produto cujo componente de segurança é o sistema de IA, ou o próprio sistema de IA enquanto produto, como sendo de «risco elevado» segundo os critérios estabelecidos na legislação de harmonização da União aplicável ao produto. É o caso, nomeadamente dos Regulamentos (UE) 2017/745 e (UE) 2017/746, em que é prevista uma avaliação da conformidade por terceiros para produtos de risco médio e elevado.
(52)
Pokiaľ ide o samostatné systémy AI, konkrétne iné vysokorizikové systémy AI ako tie, ktoré sú bezpečnostnými komponentmi výrobkov alebo ktoré sú samy výrobkami, je vhodné klasifikovať ich ako vysokorizikové, ak vzhľadom na svoj zamýšľaný účel predstavujú vysoké riziko poškodenia zdravia a bezpečnosti alebo základných práv osôb, pričom sa berie do úvahy závažnosť možnej ujmy a pravdepodobnosť jej výskytu, a ak sa využívajú vo viacerých oblastiach uvedených v tomto nariadení, ktoré sú jasne vopred vymedzené. Identifikácia týchto systémov je založená na rovnakej metodike a kritériách, aké sa predpokladajú aj v prípade akýchkoľvek budúcich zmien zoznamu vysokorizikových systémov AI, ktoré by Komisia mala byť splnomocnená prijímať prostredníctvom delegovaných aktov s cieľom zohľadniť rýchle tempo technologického vývoja, ako aj potenciálne zmeny v používaní systémov AI.
(52)
Relativamente aos sistemas de IA autónomos, nomeadamente os sistemas de IA de risco elevado que não são componentes de segurança de produtos, ou que não são, eles próprios, produtos, é apropriado classificá-los como sendo de risco elevado se, à luz da sua finalidade prevista, representarem um risco elevado de danos para a saúde e a segurança ou de prejuízo para os direitos fundamentais das pessoas, tendo em conta a gravidade dos possíveis danos e a probabilidade da ocorrência desses danos, e se forem utilizados num conjunto de domínios especificamente predefinidos no presente regulamento. A identificação desses sistemas baseia-se na mesma metodologia e nos mesmos critérios previstos também para futuras alterações da lista de sistemas de IA de risco elevado que a Comissão deverá ficar habilitada a adotar, através de atos delegados, a fim de ter em conta o rápido ritmo da evolução tecnológica, bem como as potenciais alterações na utilização de sistemas de IA.
(53)
Takisto je dôležité upresniť, že môžu existovať osobitné prípady, v ktorých systémy AI uvedené vo vopred vymedzených oblastiach špecifikovaných v tomto nariadení nevedú k významnému riziku ujmy na právnych záujmoch chránených v týchto oblastiach, pretože podstatne neovplyvňujú rozhodovanie ani nespôsobujú týmto záujmom podstatnú ujmu. Na účely tohto nariadenia by sa mal systém AI, ktorý významne neovplyvňuje výsledok rozhodovania, chápať ako systém AI, ktorý nemá vplyv na podstatu, a teda na výsledok rozhodovania, či už ľudského alebo automatizovaného. Systém AI, ktorý významne neovplyvňuje výsledok rozhodovania, by mohol zahŕňať situácie, v ktorých je splnená jedna alebo viaceré z ďalej uvedených podmienok. Prvou takouto podmienkou by malo byť, že systém AI má plniť úzku procedurálnu úlohu, ako je systém AI, ktorý transformuje neštruktúrované údaje na štruktúrované údaje; systém AI, ktorý klasifikuje prichádzajúce dokumenty do kategórií; alebo systém AI, ktorý sa používa na odhaľovanie duplikátov medzi veľkým počtom aplikácií. Tieto úlohy sú takej úzkej a obmedzenej povahy, že predstavujú len obmedzené riziká, ktoré sa nezvýšia používaním systému AI v kontexte, ktorý sa v prílohe k tomuto nariadeniu uvádza ako vysokorizikové použitie. Druhou podmienkou by malo byť, že systém AI vykonáva úlohu s cieľom zlepšiť výsledok predtým ukončenej ľudskej činnosti, ktorá môže byť relevantná na účely vysokorizikových použití uvedených v prílohe k tomuto nariadeniu. Vzhľadom na tieto vlastnosti poskytuje systém AI len ďalšiu vrstvu k ľudskej činnosti s následne zníženým rizikom. Táto podmienka by sa vzťahovala napríklad na systémy AI, ktorých cieľom je zlepšiť jazyk používaný v predchádzajúcich dokumentoch, napríklad v súvislosti s profesionálnym tónom, akademickým štýlom jazyka alebo zosúladením textu s určitou brandovou komunikáciou. Treťou podmienkou by malo byť, že systém AI je určený na odhaľovanie vzorcov rozhodovania alebo odchýlok od predchádzajúcich vzorcov rozhodovania. Riziko by sa znížilo, pretože používanie systému AI sa riadi predtým dokončeným ľudským posúdením, ktoré nemá nahradiť ani ovplyvniť bez náležitého ľudského preskúmania. Medzi takéto systémy AI patria napríklad tie, ktoré sa vzhľadom na určitý známkovací vzorec učiteľa môžu použiť na ex post kontrolu toho, či sa učiteľ neodchýlil od známkovacieho vzorca, aby sa upozornilo na možné nezrovnalosti alebo anomálie. Štvrtou podmienkou by malo byť, že systém AI má plniť úlohu, ktorá je len prípravou na posúdenie relevantné na účely systémov AI uvedených v prílohe k tomuto nariadeniu, čím sa možný vplyv výstupu systému z hľadiska rizika pre posúdenie, ktoré sa má vykonať, výrazne zníži. Táto podmienka sa týka najmä inteligentných riešení na spracovanie súborov, ktoré zahŕňajú rôzne funkcie ako indexovanie, vyhľadávanie, spracovanie textu a reči alebo prepojenie údajov s inými zdrojmi údajov, alebo systémy AI používané na preklad pôvodných dokumentov. V každom prípade by sa systémy AI používané vo vysokorizikových prípadoch použitia uvedených v prílohe k tomuto nariadeniu mali považovať za systémy predstavujúce významné riziko ujmy na zdraví, bezpečnosti alebo základných právach, ak systém AI zahŕňa profilovanie v zmysle článku 4 bodu 4 nariadenia (EÚ) 2016/679 alebo článku 3 bodu 4 smernice (EÚ) 2016/680 alebo článku 3 bodu 5 nariadenia (EÚ) 2018/1725. S cieľom zabezpečiť vysledovateľnosť a transparentnosť by mal poskytovateľ, ktorý sa na základe vyššie uvedených podmienok domnieva, že systém AI nie je vysokorizikový, vypracovať dokumentáciu posúdenia pred uvedením tohto systému na trh alebo do prevádzky a na požiadanie by mal túto dokumentáciu poskytnúť vnútroštátnym príslušným orgánom. Takýto poskytovateľ by mal byť povinný zaregistrovať systém AI v databáze Únie zriadenej podľa tohto nariadenia. S cieľom poskytnúť ďalšie usmernenia pre praktické vykonávanie podmienok, za ktorých systémy AI uvedené v prílohe k tomuto nariadeniu výnimočne nepredstavujú vysoké riziko, by Komisia mala po konzultácii s radou pre AI poskytnúť usmernenia, v ktorých sa uvedie, že praktické vykonávanie doplnené komplexným zoznamom praktických príkladov prípadov použitia systémov AI, ktoré sú vysokorizikové, a prípadov použitia, ktoré nie sú vysokorizikové.
(53)
É igualmente importante esclarecer que podem existir casos específicos em que os sistemas de IA referidos em domínios predefinidos especificados no presente regulamento não conduzam a um risco significativo de prejuízo para os interesses jurídicos protegidos nesses domínios por não influenciarem significativamente a tomada de decisões ou não prejudicarem substancialmente esses interesses. Para efeitos do presente regulamento, um sistema de IA que não influencie significativamente o resultado da tomada de decisões deverá ser entendido como um sistema de IA que não tem impacto na substância nem, por conseguinte, no resultado da tomada de decisões, seja ele humano ou automatizado. Um sistema de IA que não influencie significativamente o resultado da tomada de decisões poderá incluir situações em que uma ou mais das seguintes condições estejam preenchidas. A primeira condição deverá ser a de que o sistema de IA se destina a desempenhar uma tarefa processual restrita, como um sistema de IA que transforma dados não estruturados em dados estruturados, um sistema de IA que classifica os documentos recebidos em categorias ou um sistema de IA que é utilizado para detetar duplicações entre um grande número de aplicações. Essas tarefas são de natureza tão restrita e limitada que representam apenas riscos limitados que não aumentam pela utilização num contexto que seja enumerado num anexo do presente regulamento como sendo uma utilização de um sistema de IA de risco elevado. A segunda condição deverá ser a de que a tarefa desempenhada pelo sistema de IA se destina a melhorar o resultado de uma atividade humana previamente concluída que possa ser relevante para efeitos dos usos de risco elevado enumerados num anexo do presente regulamento. Tendo em conta essas características, o sistema de IA proporciona apenas uma camada adicional a uma atividade humana, consequentemente com um risco reduzido. Essa condição será, por exemplo, aplicável aos sistemas de IA destinados a melhorar a linguagem utilizada em documentos redigidos anteriormente, por exemplo em relação ao tom profissional, ao estilo académico ou ao alinhamento do texto com uma determinada mensagem de marca. A terceira condição deverá ser a de que o sistema de IA se destina a detetar padrões de tomada de decisão ou desvios em relação aos padrões de tomada de decisão anteriores. O risco será reduzido porque a utilização do sistema de IA segue-se a uma avaliação humana previamente concluída, que não se destina a substituir nem a influenciar, sem uma revisão humana adequada. Esses sistemas de IA incluem, por exemplo, os que, tendo em conta um determinado padrão de atribuição de notas de um professor, podem ser utilizados para verificar ex post se o professor se pode ter desviado do padrão de atribuição de notas, de modo a assinalar potenciais incoerências ou anomalias. A quarta condição deverá ser a de que o sistema de IA se destina a executar uma tarefa que é apenas preparatória para uma avaliação pertinente para efeitos dos sistemas de IA enumerados num anexo do presente regulamento, tornando assim o possível impacto do resultado do sistema muito reduzido em termos de risco para a avaliação a realizar. Essa condição abrange, entre outras coisas, soluções inteligentes para o tratamento de ficheiros que incluem várias funções, como a indexação, a pesquisa, o processamento de texto e de voz ou a ligação de dados a outras fontes de dados, ou sistemas de IA utilizados para a tradução de documentos iniciais. Em qualquer caso, deverá considerar-se que os sistemas de IA utilizados em casos concretos de utilização de risco elevado, enumerados num anexo do presente regulamento, apresentam riscos significativos de danos para a saúde, a segurança ou os direitos fundamentais se o sistema de IA implicar a definição de perfis na aceção do artigo 4.o, ponto 4, do Regulamento (UE) 2016/679, do artigo 3.o, ponto 4, da Diretiva (UE) 2016/680 ou do artigo 3.o, ponto 5, do Regulamento (UE) 2018/1725. A fim de assegurar a rastreabilidade e a transparência, um prestador que considere que um sistema de IA não é de risco elevado com base nas condições referidas supra deverá elaborar a documentação da avaliação antes de esse sistema ser colocado no mercado ou colocado em serviço e deverá apresentar essa documentação às autoridades nacionais competentes mediante pedido. Tal prestador deverá ser obrigado a registar o sistema de IA na base de dados da UE criada ao abrigo do presente regulamento. Com vista a disponibilizar orientações adicionais para a aplicação prática das condições ao abrigo das quais os sistemas de IA referidos num anexo ao presente regulamento não são, a título excecional, de risco elevado, a Comissão deverá, após consulta do Comité, disponibilizar orientações que especifiquem essa aplicação prática, completadas por uma lista exaustiva de exemplos práticos de casos de utilização de sistemas de IA que sejam de risco elevado e de casos de utilização risco não elevado.
(54)
Keďže biometrické údaje predstavujú osobitnú kategóriu osobných údajov, je vhodné klasifikovať ako vysokorizikové niekoľko prípadov kritického použitia biometrických systémov, pokiaľ ich použitie povoľuje príslušné právo Únie a vnútroštátne právo. Technické nepresnosti systémov AI určených na diaľkovú biometrickú identifikáciu fyzických osôb môžu viesť ku skresleným výsledkom a mať diskriminačné účinky. Riziko takýchto skreslených výsledkov a diskriminačných účinkov je obzvlášť relevantné z hľadiska veku, etnickej príslušnosti, rasy, pohlavia alebo zdravotného postihnutia. Systémy diaľkovej biometrickej identifikácie by sa preto mali klasifikovať ako vysokorizikové vzhľadom na riziká, ktoré predstavujú. Takáto klasifikácia nezahŕňa systémy AI určené na biometrické overenie zahŕňajúce autentifikáciu, ktorých jediným účelom je potvrdiť, že konkrétna fyzická osoba je tou osobou, o ktorej tvrdí, že ňou je, a potvrdiť totožnosť fyzickej osoby výlučne na účely prístupu k službe, odomknutia zariadenia alebo získania bezpečnostného prístupu do priestorov. Okrem toho by sa systémy AI určené na biometrickú kategorizáciu podľa citlivých atribútov alebo charakteristík chránených podľa článku 9 ods. 1 nariadenia (EÚ) 2016/679 na základe biometrických údajov, pokiaľ nie sú zakázané podľa tohto nariadenia, a systémy na rozpoznávanie emócií, ktoré nie sú zakázané podľa tohto nariadenia, mali klasifikovať ako vysokorizikové. Biometrické systémy určené výlučne na účely umožnenia kybernetickej bezpečnosti a opatrení na ochranu osobných údajov, by sa nemali považovať za vysokorizikové systémy AI.
(54)
Uma vez que os dados biométricos constituem uma categoria especial de dados pessoais, é adequado classificar como sendo de risco elevado vários casos de utilização críticos de sistemas biométricos, na medida em que a sua utilização seja permitida pelo direito da União e o direito nacional aplicáveis. As inexatidões técnicas dos sistemas de IA concebidos para a identificação biométrica à distância de pessoas singulares podem conduzir a resultados enviesados e ter efeitos discriminatórios. O risco desses resultados enviesados e efeitos discriminatórios é particularmente relevante no que diz respeito à idade, etnia, raça, sexo ou deficiência. Os sistemas de identificação biométrica à distância deverão ser, por conseguinte, classificados como de risco elevado, tendo em conta os riscos que representam. Dessa classificação estão excluídos os sistemas de IA concebidos para serem utilizados na verificação biométrica, incluindo a autenticação, cujo único objetivo é confirmar que uma pessoa singular específica é quem afirma ser e confirmar a identidade de uma pessoa singular com o único objetivo de ter acesso a um serviço, desbloquear um dispositivo ou ter acesso seguro a uma instalação. Além disso, os sistemas de IA concebidos para serem utilizados para categorização biométrica de acordo com atributos ou características sensíveis protegidos nos termos do artigo 9.o, n.o 1, do Regulamento (UE) 2016/679 com base em dados biométricos, na medida em que não sejam proibidos nos termos do presente regulamento, e os sistemas de reconhecimento de emoções não proibidos nos termos do presente regulamento deverão ser classificados como sendo de risco elevado. Os sistemas biométricos destinados a serem utilizados exclusivamente para permitir medidas de cibersegurança e de proteção de dados pessoais não deverão ser considerados sistemas de IA de risco elevado.
(55)
Pokiaľ ide o riadenie a prevádzku kritickej infraštruktúry, je vhodné klasifikovať ako vysokorizikové také systémy AI, ktoré sú určené na používanie ako bezpečnostné komponenty pri riadení a prevádzke kritickej digitálnej infraštruktúry, ako sa uvádza v bode 8 prílohy k smernici (EÚ) 2022/2557, cestnej premávky a pri dodávkach vody, plynu, tepla a elektrickej energie, keďže ich zlyhanie alebo porucha môžu ohroziť život a zdravie osôb vo veľkom rozsahu a viesť k značným narušeniam bežného vykonávania spoločenských a hospodárskych činností. Bezpečnostné komponenty kritickej infraštruktúry vrátane kritickej digitálnej infraštruktúry sú systémy používané na priamu ochranu fyzickej integrity kritickej infraštruktúry alebo zdravia a bezpečnosti osôb a majetku, ktoré však nie sú potrebné na fungovanie systému. Zlyhanie alebo porucha takýchto komponentov môže priamo viesť k rizikám pre fyzickú integritu kritickej infraštruktúry, a tým k rizikám pre zdravie a bezpečnosť osôb a majetku. Komponenty, ktoré sa majú používať výlučne na účely kybernetickej bezpečnosti, by sa nemali považovať za bezpečnostné komponenty. Príklady bezpečnostných komponentov takejto kritickej infraštruktúry môžu zahŕňať systémy monitorovania tlaku vody alebo systémy riadenia požiarneho poplachu v centrách cloud computingu.
(55)
No tocante à gestão e ao funcionamento de infraestruturas críticas, é apropriado classificar como sendo de risco elevado os sistemas de IA que se destinam a ser utilizados como componentes de segurança na gestão e no funcionamento das infraestruturas digitais críticas conforme enumeradas no ponto 8 do anexo I da Diretiva (UE) 2022/2557, do trânsito rodoviário e das redes de abastecimento de água, gás, aquecimento e eletricidade, uma vez que a falha ou anomalia desses sistemas pode pôr em risco a vida e a saúde das pessoas em larga escala e provocar perturbações substanciais das atividades sociais e económicas normais. Os componentes de segurança das infraestruturas críticas, incluindo as infraestruturas digitais críticas, são sistemas utilizados para proteger diretamente a integridade física das infraestruturas críticas ou a saúde e a segurança das pessoas e dos bens, mas que não são necessários para o funcionamento do sistema. A falha ou a anomalia desses componentes pode conduzir diretamente a riscos para a integridade física das infraestruturas críticas e, por conseguinte, a riscos para a saúde e a segurança das pessoas e dos bens. Os componentes destinados a serem utilizados exclusivamente para fins de cibersegurança não deverão ser considerados componentes de segurança. Os exemplos de componentes de segurança dessas infraestruturas críticas podem incluir sistemas de monitorização da pressão da água ou sistemas de controlo de alarmes de incêndio em centros de computação em nuvem.
(56)
Nasadzovanie systémov AI v oblasti vzdelávania je dôležité na podporu vysokokvalitného digitálneho vzdelávania a odbornej prípravy a na to, aby sa všetkým vzdelávajúcim sa osobám a učiteľom umožnilo získať a zdieľať potrebné digitálne zručnosti a kompetencie vrátane mediálnej gramotnosti a kritického myslenia, aby mohli zohrávať aktívnu úlohu v hospodárstve, spoločnosti a demokratických procesoch. Systémy AI používané v oblasti vzdelávania alebo odbornej prípravy, obzvlášť na určovanie prístupu alebo prijatia, na prideľovanie osôb do inštitúcií alebo programov vzdelávania a odbornej prípravy na všetkých stupňoch, na hodnotenie učebných výsledkov osôb, na posúdenie primeranej úrovne vzdelania pre jednotlivca a podstatné ovplyvňovanie úrovne vzdelávania a odbornej prípravy, ktoré jednotlivci dostanú alebo ku ktorým budú mať prístup, alebo na jeho monitorovanie a odhaľovanie zakázaného správania študentov počas testov by sa mali klasifikovať ako vysokorizikové systémy AI, pretože môžu určovať vzdelávací a profesijný priebeh života osoby, a tým môžu ovplyvňovať jej schopnosť zabezpečiť si živobytie. Ak sú takéto systémy dizajnované a používané nesprávne, môžu byť obzvlášť rušivé a môžu porušovať právo na vzdelanie a odbornú prípravu, ako aj právo nebyť diskriminovaný, a tým zachovávať zaužívané vzorce diskriminácie, napríklad žien, určitých vekových skupín, osôb so zdravotným postihnutím alebo osôb určitého rasového alebo etnického pôvodu alebo s určitou sexuálnou orientáciou.
(56)
A implantação de sistemas de IA no domínio da educação é importante para promover a educação e a formação digitais de elevada qualidade e permitir que todos os aprendentes e professores adquiram e partilhem as aptidões e competências digitais necessárias, incluindo a literacia mediática e o pensamento crítico, a fim de participarem ativamente na economia, na sociedade e nos processos democráticos. Contudo, os sistemas de IA utilizados no domínio da educação ou da formação profissional, nomeadamente para determinar o acesso ou a admissão, para afetar pessoas a instituições ou a programas de ensino e de formação profissional em todos os níveis, para avaliar os resultados de aprendizagem das pessoas, para aferir o grau de ensino adequado para uma pessoa e influenciar de forma substancial o nível de ensino e formação que as pessoas receberão, ou a que serão capazes de aceder, ou para monitorizar e detetar comportamentos proibidos de estudantes durante os testes, deverão ser considerados sistemas de IA de risco elevado, uma vez que podem determinar o percurso educativo e profissional de uma pessoa e, como tal, pode afetar a capacidade dessa pessoa assegurar a subsistência. Se indevidamente concebidos e utilizados, estes sistemas podem ser particularmente intrusivos e violar o direito à educação e à formação, bem como o direito a não ser alvo de discriminação nem de perpetuação de padrões históricos de discriminação, por exemplo contra as mulheres, determinados grupos etários, pessoas com deficiência ou pessoas de uma determinada origem racial ou étnica ou orientação sexual.
(57)
Ako vysokorizikové by sa mali klasifikovať aj systémy AI používané v oblasti zamestnania, pri riadení pracovníkov a prístupe k samostatnej zárobkovej činnosti, najmä pri nábore a výbere osôb, pri prijímaní rozhodnutí ovplyvňujúcich vzťah súvisiaci s pracovnými podmienkami, pri kariérnom postupe v zamestnaní a ukončení zmluvného pracovnoprávneho vzťahu, pri prideľovaní úloh na základe individuálneho správania, osobných čŕt alebo charakteristík a pri monitorovaní alebo hodnotení osôb v zmluvných pracovnoprávnych vzťahoch, pretože tieto systémy môžu významne ovplyvniť budúce kariérne vyhliadky a živobytie týchto osôb a práva pracovníkov. Príslušné zmluvné pracovnoprávne vzťahy by mali zmysluplne zahŕňať zamestnancov a osoby poskytujúce služby prostredníctvom platforiem, ako sa uvádza v pracovnom programe Komisie na rok 2021. Takéto systémy môžu počas celého procesu prijímania do zamestnania a počas hodnotenia, povyšovania alebo udržiavania osôb v zmluvných pracovnoprávnych vzťahoch zachovávať zaužívané vzorce diskriminácie, napríklad žien, určitých vekových skupín, osôb so zdravotným postihnutím alebo osôb určitého rasového alebo etnického pôvodu alebo sexuálnej orientácie. Systémy AI používané na monitorovanie výkonu a správania týchto osôb môžu mať vplyv aj na ich základné práva na ochranu údajov a súkromia.
(57)
Os sistemas de IA utilizados nos domínios do emprego, da gestão de trabalhadores e do acesso ao emprego por conta própria, nomeadamente para efeitos de recrutamento e seleção de pessoal, de tomada de decisões que afetem os termos da relação de trabalho, de promoção e cessação das relações contratuais de trabalho, de atribuição de tarefas com base em comportamentos individuais, traços ou características pessoais, e de controlo ou avaliação de pessoas no âmbito de relações contratuais de trabalho também deverão ser classificados como sendo de risco elevado, uma vez que podem ter um impacto significativo nas perspetivas de carreira, na subsistência dessas pessoas e nos direitos dos trabalhadores. O conceito de «relações contratuais de trabalho» deverá abranger de forma significativa os funcionários e as pessoas que prestam serviços por intermédio de plataformas a que se refere o programa de trabalho da Comissão para 2021. Ao longo do processo de recrutamento e na avaliação, promoção ou retenção de pessoal em relações contratuais de trabalho, esses sistemas podem perpetuar padrões históricos de discriminação, por exemplo, contra as mulheres, contra certos grupos etários, contra as pessoas com deficiência ou contra pessoas de uma determinada origem racial ou étnica ou orientação sexual. Os sistemas de IA utilizados para controlar o desempenho e o comportamento dessas pessoas podem ainda comprometer os seus direitos fundamentais à proteção de dados pessoais e à privacidade.
(58)
Ďalšou oblasťou, v ktorej si využívanie systémov AI zaslúži osobitnú pozornosť, je prístup k určitým základným súkromným a verejným službám a dávkam, ktoré sú potrebné na to, aby sa ľudia mohli plne zapojiť do spoločnosti alebo si mohli zlepšiť životnú úroveň, a ich využívanie. Najmä fyzické osoby, ktoré žiadajú orgány verejnej moci o základné dávky a služby verejnej pomoci alebo ktoré ich od týchto orgánov dostávajú, konkrétne služby zdravotnej starostlivosti, dávky sociálneho zabezpečenia, sociálne služby poskytujúce ochranu v prípadoch, ako je materstvo, choroba, pracovné úrazy, závislosť alebo staroba a strata zamestnania a sociálna pomoc a pomoc pri bývaní, sú zvyčajne závislé od týchto dávok a služieb a sú vo vzťahu k zodpovedným orgánom v zraniteľnom postavení. Ak sa systémy AI používajú na určenie toho, či by orgány mali takéto dávky a služby poskytnúť, zamietnuť, znížiť, zrušiť alebo žiadať o ich vrátenie, vrátane toho, či majú poberatelia oprávnený nárok na takéto dávky alebo služby, takéto systémy môžu mať významný vplyv na živobytie osôb a môžu porušovať ich základné práva, ako je právo na sociálnu ochranu, nediskrimináciu, ľudskú dôstojnosť alebo účinný prostriedok nápravy, a mali by sa preto klasifikovať ako vysokorizikové. Toto nariadenie by však nemalo brániť vývoju a využívaniu inovačných prístupov vo verejnej správe, pre ktorú by mohlo byť širšie využívanie vyhovujúcich a bezpečných systémov AI prospešné, za predpokladu, že tieto systémy nepredstavujú vysoké riziko pre právnické a fyzické osoby. Ako vysokorizikové by sa okrem toho mali klasifikovať aj systémy AI používané na bodové hodnotenie kreditného rizika alebo hodnotenie úverovej bonity fyzických osôb, pretože určujú prístup týchto osôb k finančným zdrojom alebo základným službám, ako sú bývanie, elektrická energia a telekomunikačné služby. Systémy AI používané na takéto účely môžu viesť k diskriminácii osôb alebo skupín a môžu zachovávať zaužívané vzorce diskriminácie, napríklad na základe rasového alebo etnického pôvodu, rodu, zdravotných postihnutí, veku alebo sexuálnej orientácie, alebo môžu vytvárať nové formy diskriminačných vplyvov. Systémy AI stanovené v práve Únie na účely odhaľovania podvodov pri ponúkaní finančných služieb a na prudenciálne účely výpočtu kapitálových požiadaviek úverových inštitúcií a poisťovní by sa však podľa tohto nariadenia nemali považovať za vysokorizikové. Okrem toho systémy AI, ktoré sa majú používať na posudzovanie rizika a stanovovanie cien v súvislosti s fyzickými osobami na účely zdravotného a životného poistenia, môžu mať tiež významný vplyv na živobytie osôb, a ak nie sú riadne dizajnované, vyvinuté a používané, môžu porušovať ich základné práva a viesť k vážnym dôsledkom pre život a zdravie ľudí vrátane finančného vylúčenia a diskriminácie. Napokon, ako vysokorizikové by sa mali klasifikovať aj systémy AI používané na hodnotenie a klasifikáciu tiesňových volaní fyzických osôb alebo na vysielanie alebo prioritizáciu vysielania záchranných služieb prvej reakcie, vrátane polície, hasičov a zdravotnej pomoci, ako aj systémy triedenia pacientov v rámci pohotovostnej zdravotnej starostlivosti, pretože prijímajú rozhodnutia v situáciách, ktoré sú veľmi kritické z hľadiska života a zdravia osôb a ich majetku.
(58)
Outro domínio no qual a utilização de sistemas de IA merece especial atenção é o acesso a determinados serviços e prestações essenciais, de cariz privado e público, e o usufruto dos mesmos, os quais são necessários para que as pessoas participem plenamente na sociedade ou melhorem o seu nível de vida. Em especial, as pessoas singulares que se candidatam a receber ou que recebem prestações e serviços de assistência pública essenciais de autoridades públicas, nomeadamente serviços de cuidados de saúde, prestações de segurança social, serviços sociais que prestam proteção em casos como maternidade, doença, acidentes de trabalho, dependência ou velhice e perda de emprego e assistência social e de habitação, dependem normalmente dessas prestações e serviços e estão numa posição vulnerável face às autoridades responsáveis. Caso sejam utilizados para determinar a concessão, recusa, redução, revogação ou recuperação dessas prestações e serviços pelas autoridades, nomeadamente para determinar se os beneficiários têm legítimo direito a essas prestações ou serviços, os sistemas de IA podem ter um impacto significativo na subsistência das pessoas e podem violar os seus direitos fundamentais, como o direito à proteção social, à não discriminação, à dignidade do ser humano ou à ação, pelo que deverão ser classificados como sendo de risco elevado. No entanto, o presente regulamento não deverá constituir um obstáculo ao desenvolvimento e à utilização de abordagens inovadoras na administração pública, que tirariam partido de uma maior utilização de sistemas de IA conformes e seguros, desde que esses sistemas não acarretem um risco elevado para as pessoas coletivas e singulares. Além disso, os sistemas de IA utilizados para avaliar a classificação de crédito ou a solvabilidade de pessoas singulares deverão ser classificados como sistemas de IA de risco elevado, uma vez que determinam o acesso dessas pessoas a recursos financeiros ou a serviços essenciais, como o alojamento, a eletricidade e os serviços de telecomunicações. Os sistemas de IA utilizados para essas finalidades podem conduzir à discriminação entre pessoas ou grupos e podem perpetuar padrões históricos de discriminação, como em razão da origem étnica ou racial, do género, da deficiência, da idade ou da orientação sexual, ou podem criar novas formas de impacto discriminatório. No entanto, os sistemas de IA previstos pelo direito da União para efeitos de deteção de fraudes na oferta de serviços financeiros e para fins prudenciais com vista a calcular os requisitos de capital das instituições de crédito e das seguradoras não deverão ser considerados de risco elevado nos termos do presente regulamento. Além disso, os sistemas de IA concebidos com vista a serem utilizados para avaliação dos riscos e fixação de preços em relação a pessoas singulares para seguros de saúde e de vida também podem ter um impacto significativo na subsistência das pessoas e, se não forem devidamente concebidos, desenvolvidos e utilizados, podem infringir os seus direitos fundamentais e ter consequências graves para a vida e a saúde das pessoas, incluindo a exclusão financeira e a discriminação. Por último, os sistemas de IA utilizados para avaliar e classificar chamadas de emergência efetuadas por pessoas singulares ou para enviar ou estabelecer prioridades no envio de serviços de primeira resposta a emergências, nomeadamente pela polícia, bombeiros e assistência médica, bem como por sistemas de triagem de doentes para cuidados de saúde de emergência, também deverão ser classificados como sendo de risco elevado, uma vez que tomam decisões em situações bastante críticas que afetam a vida, a saúde e os bens das pessoas.
(59)
Konanie orgánov presadzovania práva zahŕňajúce určité použitia systémov AI sa vzhľadom na ich úlohu a zodpovednosť vyznačuje značným stupňom nerovnováhy moci a môže viesť k sledovaniu, zadržaniu alebo pozbaveniu slobody fyzickej osoby, ako aj k iným nepriaznivým vplyvom na základné práva zaručené chartou. Najmä ak systém AI nie je trénovaný na vysokokvalitných údajoch, nespĺňa primerané požiadavky, pokiaľ ide o jeho výkon, presnosť alebo spoľahlivosť, alebo nie je pred uvedením na trh alebo do prevádzky riadne dizajnovaný a otestovaný, môže ľudí selektovať diskriminačným alebo inak nesprávnym či nespravodlivým spôsobom. Okrem toho by mohlo byť obmedzené uplatňovanie dôležitých procesných základných práv, ako je právo na účinný prostriedok nápravy a na spravodlivý proces, ako aj právo na obhajobu a prezumpcia neviny, najmä ak takéto systémy AI nie sú dostatočne transparentné, vysvetliteľné a zdokumentované. Preto je vhodné klasifikovať ako vysokorizikové viaceré systémy AI, pokiaľ je ich používanie povolené na základe relevantného práva Únie alebo vnútroštátneho práva, určené na používanie v kontexte presadzovania práva, kde je presnosť, spoľahlivosť a transparentnosť obzvlášť dôležitá, aby sa zabránilo nepriaznivým vplyvom, zachovala dôvera verejnosti a zabezpečila zodpovednosť a účinná náprava. Vzhľadom na povahu predmetných činností a s nimi súvisiace riziká by tieto vysokorizikové systémy AI mali zahŕňať najmä systémy AI určené na používanie orgánmi presadzovania práva alebo v ich mene alebo inštitúciami, orgánmi, úradmi alebo agentúrami Únie na podporu orgánov presadzovania práva na posúdenie rizika, že sa fyzická osoba stane obeťou trestných činov, ako sú polygrafy a podobné nástroje, na hodnotenie spoľahlivosti dôkazov v priebehu vyšetrovania alebo stíhania trestných činov, a pokiaľ sa to týmto nariadením nezakazuje, aj na posúdenie rizika, že fyzická osoba spácha alebo opakovane spácha trestný čin, a to nielen na základe profilovania fyzických osôb, alebo na základe posúdenia osobnostných čŕt a charakteristík alebo trestnej činnosti fyzických osôb alebo skupín v minulosti, na profilovanie v priebehu odhaľovania, vyšetrovania alebo stíhania trestných činov. Systémy AI, ktoré sú osobitne určené na používanie v správnych konaniach daňovými a colnými orgánmi, ako aj finančnými spravodajskými jednotkami vykonávajúcimi administratívne úlohy spočívajúce v analýze informácií podľa právnych predpisov Únie v oblasti boja proti praniu špinavých peňazí, by sa nemali klasifikovať ako vysokorizikové systémy AI používané orgánmi presadzovania práva na účely predchádzania trestným činom, ich odhaľovania, vyšetrovania a stíhania. Používanie nástrojov AI orgánmi presadzovania práva a inými relevantnými orgánmi by sa nemalo stať faktorom nerovnosti alebo vylúčenia. Vplyv používania nástrojov AI na právo podozrivých osôb na obhajobu by sa nemal ignorovať, predovšetkým pokiaľ ide o ťažkosti pri získavaní zmysluplných informácií o fungovaní takýchto systémov a z toho vyplývajúce ťažkosti pri napadnutí ich výsledkov na súde, najmä zo strany vyšetrovaných fyzických osôb.
(59)
Tendo em conta o papel e a responsabilidade das autoridades responsáveis pela aplicação da lei, as suas ações que implicam certas utilizações dos sistemas de IA são caracterizadas por um grau substancial de desequilíbrio de poder e podem conduzir à vigilância, detenção ou privação da liberdade de uma pessoa singular, bem como ter outras repercussões negativas nos direitos fundamentais garantidos pela Carta. Em particular, se não for treinado com dados de alta qualidade, não cumprir os requisitos adequados em termos de desempenho, de exatidão ou solidez, ou não tiver sido devidamente concebido e testado antes de ser colocado no mercado ou em serviço, o sistema de IA pode selecionar pessoas de uma forma discriminatória, incorreta ou injusta. Além disso, o exercício de importantes direitos fundamentais processuais, como o direito à ação e a um tribunal imparcial, o direito à defesa e a presunção de inocência, pode ser prejudicado, em particular, se esses sistemas de IA não forem suficientemente transparentes, explicáveis e documentados. Como tal, é apropriado classificar como sendo de risco elevado, na medida em que a sua utilização seja permitida nos termos do direito da União e o direito nacional aplicáveis, vários sistemas de IA que se destinam a ser utilizados no contexto da aplicação da lei, no qual a exatidão, a fiabilidade e a transparência são particularmente importantes para evitar repercussões negativas, manter a confiança do público e assegurar a responsabilidade e vias de recurso eficazes. Tendo em conta a natureza das atividades e os riscos associados às mesmas, esses sistemas de IA de risco elevado deverão incluir, em particular, sistemas de IA concebidos para serem utilizados por autoridades responsáveis pela aplicação da lei ou por instituições, órgãos ou organismos da União, ou em seu nome, em apoio das autoridades responsáveis pela aplicação da lei para avaliar o risco de uma pessoa singular vir a ser vítima de infrações penais, como polígrafos e instrumentos semelhantes, para avaliar a fiabilidade dos elementos de prova no decurso da investigação ou da repressão de infrações penais, e, na medida em que tal não seja proibido nos termos do presente regulamento, para avaliar o risco de uma pessoa singular cometer uma infração ou reincidência não apenas com base na definição de perfis de pessoas singulares ou na avaliação os traços e características da personalidade ou do comportamento criminal passado de pessoas singulares ou grupos, para a definição de perfis no decurso da deteção, investigação ou repressão de infrações penais. Os sistemas de IA especificamente concebidos para serem utilizados em processos administrativos por autoridades fiscais e aduaneiras, bem como por unidades de informação financeira que desempenhem funções administrativas de análise de informações nos termos do direito da União em matéria de combate ao branqueamento de capitais, não deverão ser classificados como sistemas de IA de risco elevado utilizados por autoridades responsáveis pela aplicação da lei para efeitos de prevenção, deteção, investigação e repressão de infrações penais. A utilização de ferramentas de IA pelas autoridades responsáveis pela aplicação da lei e por outras autoridades pertinentes não deverá tornar-se um fator de desigualdade nem de exclusão. Não se deverá descurar o impacto da utilização de ferramentas de IA nos direitos de defesa dos suspeitos, nomeadamente a dificuldade de obter informações significativas sobre o funcionamento desses sistemas e a dificuldade daí resultante de contestar os seus resultados em tribunal, em particular quando se trate de pessoas singulares sob investigação.
(60)
Systémy AI používané v oblastiach migrácie, azylu a riadenia kontroly hraníc majú vplyv na osoby, ktoré sú často v mimoriadne zraniteľnom postavení a ktoré sú závislé od výsledku konania príslušných orgánov verejnej moci. Presnosť, nediskriminačný charakter a transparentnosť systémov AI používaných v tomto kontexte sú preto mimoriadne dôležité na zaručenie dodržiavania základných práv dotknutých osôb, najmä ich práva na voľný pohyb, nediskrimináciu, ochranu súkromia a osobných údajov, medzinárodnú ochranu a dobrú správu vecí verejných. Je preto vhodné klasifikovať ako vysokorizikové tie systémy AI, pokiaľ je ich používanie povolené na základe relevantného práva Únie alebo vnútroštátneho práva, ktoré majú používať príslušné orgány verejnej moci alebo sa majú používať v ich mene, alebo ktoré majú používať inštitúcie, orgány, úrady alebo agentúry Únie poverené úlohami v oblasti migrácie, azylu a riadenia kontroly hraníc, ako napríklad polygrafy a podobné nástroje, na posudzovanie určitých rizík, ktoré predstavujú fyzické osoby vstupujúce na územie členského štátu alebo žiadajúce o vízum alebo azyl, na pomoc príslušným orgánom verejnej moci pri skúmaní žiadostí o azyl, víza a povolenia na pobyt, vrátane súvisiaceho posúdenia spoľahlivosti dôkazov, a súvisiacich sťažností, pokiaľ ide o cieľ zistiť oprávnenosť fyzických osôb žiadajúcich o určitý status, na účely odhaľovania, rozpoznávania alebo identifikácie fyzických osôb v kontexte migrácie, azylu a riadenia kontroly hraníc s výnimkou overovania cestovných dokladov. Systémy AI v oblasti migrácie, azylu a riadenia kontroly hraníc, na ktoré sa vzťahuje toto nariadenie, by mali spĺňať príslušné procedurálne požiadavky stanovené v nariadení Európskeho parlamentu a Rady (ES) č. 810/2009 (32), smernici Európskeho parlamentu a Rady 2013/32/EÚ (33) a iných príslušných právnych predpisoch Únie. Používanie systémov AI v oblasti migrácie, azylu a riadenia kontroly hraníc by členské štáty alebo inštitúcie, orgány, úrady alebo agentúry Únie za žiadnych okolností nemali využívať ako prostriedok na obchádzanie svojich medzinárodných záväzkov podľa Dohovoru OSN o právnom postavení utečencov podpísaného v Ženeve 28. júla 1951 a zmeneného protokolom z 31. januára 1967. Tieto systémy by sa nemali používať ani na to, aby sa akýmkoľvek spôsobom porušovala zásada zákazu vyhostenia alebo vrátenia, alebo aby sa odopierali bezpečné a účinné zákonné spôsoby vstupu na územie Únie vrátane práva na medzinárodnú ochranu.
(60)
Os sistemas de IA utilizados na gestão da migração, do asilo e do controlo das fronteiras afetam pessoas que, muitas vezes, se encontram numa posição particularmente vulnerável e que dependem do resultado das ações das autoridades públicas competentes. Como tal, a exatidão, a natureza não discriminatória e a transparência dos sistemas de IA utilizados nesses contextos são particularmente importantes para garantir o respeito dos direitos fundamentais das pessoas em causa, nomeadamente os seus direitos à livre circulação, à não discriminação, à proteção da vida privada e dos dados pessoais, à proteção internacional e a uma boa administração. Deste modo, na medida em que a sua utilização seja permitida ao abrigo do direito da União e o direito nacional aplicáveis, é apropriado classificar como sendo de risco elevado os sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por instituições, órgãos ou organismos da União incumbidos de funções no domínio da gestão da migração, do asilo e do controlo das fronteiras, como polígrafos e instrumentos semelhantes, para avaliar determinados riscos colocados por pessoas singulares que entram no território de um Estado-Membro ou apresentam um pedido de visto ou asilo, para ajudar as autoridades públicas competentes na análise, incluindo a avaliação conexa da fiabilidade dos elementos de prova, dos pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, no que toca ao objetivo de estabelecer a elegibilidade das pessoas singulares que requerem determinado estatuto, para efeitos de deteção, reconhecimento ou identificação de pessoas singulares no contexto da gestão da migração, do asilo e do controlo das fronteiras, com exceção da verificação de documentos de viagem. Os sistemas de IA no domínio da gestão da migração, do asilo e do controlo das fronteiras abrangidos pelo presente regulamento deverão cumprir os requisitos processuais pertinentes estabelecidos no Regulamento (CE) n.o 810/2009 do Parlamento Europeu e do Conselho (32), na Diretiva 2013/32/UE do Parlamento Europeu e do Conselho (33) e em outras disposições pertinentes do direito da União. A utilização de sistemas de IA na gestão da migração, do asilo e do controlo das fronteiras não deverá, em caso algum, ser utilizada pelos Estados-Membros nem pelas instituições, órgãos ou organismos da União como meio de contornar as suas obrigações internacionais nos termos da Convenção das Nações Unidas relativa ao Estatuto dos Refugiados, celebrada em Genebra em 28 de julho de 1951, com a redação que lhe foi dada pelo Protocolo de 31 de janeiro de 1967. Também não deverão, de modo algum, ser utilizados para violar o princípio da não repulsão nem para recusar vias legais seguras e eficazes de entrada no território da União, incluindo o direito à proteção internacional.
(61)
Niektoré systémy AI určené na výkon spravodlivosti a demokratických procesov by sa mali klasifikovať ako vysokorizikové vzhľadom na ich potenciálne významný vplyv na demokraciu, právny štát, osobné slobody, ako aj právo na účinný prostriedok nápravy a na spravodlivý proces. Ako vysokorizikové je vhodné kvalifikovať systémy AI určené na použitie zo strany justičného orgánu alebo v jeho mene na pomoc justičným orgánom pri skúmaní a výklade skutkových okolností a práva a pri uplatňovaní práva na konkrétny súbor skutkových okolností, najmä z dôvodu riešenia rizík možného skreslenia, chýb a nepriehľadnosti. Systémy AI, ktoré majú používať subjekty alternatívneho riešenia sporov na tieto účely, by sa takisto mali považovať za vysokorizikové, ak výsledky konania o alternatívnom riešení sporov majú pre strany právne účinky. Používanie nástrojov AI môže podporiť rozhodovaciu právomoc sudcov alebo nezávislosť súdnictva, ale nemalo by ju nahrádzať: konečné rozhodovanie musí zostať ľudskou činnosťou. Kvalifikácia systémov AI ako vysokorizikových by sa však nemala vzťahovať na systémy AI určené na čisto pomocné administratívne činnosti, ktoré nemajú vplyv na samotný výkon spravodlivosti v jednotlivých prípadoch, ako napríklad anonymizácia alebo pseudonymizácia súdnych rozhodnutí, dokumentov alebo údajov, komunikácia medzi zamestnancami alebo administratívne úlohy.
(61)
Determinados sistemas de IA concebidos para a administração da justiça e os processos democráticos deverão ser classificados como sendo de risco elevado, tendo em conta o seu impacto potencialmente significativo na democracia, no Estado de direito e nas liberdades individuais, bem como no direito à ação e a um tribunal imparcial. Em particular, para fazer face aos riscos de potenciais enviesamentos, erros e opacidade, é apropriado classificar como sendo de risco elevado os sistemas de IA concebidos para serem utilizados por uma autoridade judiciária ou para, em seu nome, auxiliar autoridades judiciárias na investigação e interpretação de factos e do direito e na aplicação da lei a um conjunto específico de factos. Os sistemas de IA concebidos para serem utilizados por entidades de resolução alternativa de litígios para esses fins também deverão ser considerados de risco elevado quando os resultados dos procedimentos de resolução alternativa de litígios produzam efeitos jurídicos para as partes. A utilização de ferramentas de IA pode auxiliar o poder de tomada de decisão dos magistrados ou da independência judicial, mas não o deverá substituir, a decisão final tem de continuar a ser uma atividade humana. Contudo, a classificação de sistemas de IA como sendo de risco elevado não deverá ser alargada aos sistemas de IA concebidos para atividades administrativas puramente auxiliares que não afetam a administração efetiva da justiça em casos individuais, como a anonimização ou a pseudonimização de decisões judiciais, documentos ou dados, comunicações entre pessoal ou tarefas administrativas.
(62)
Bez toho, aby boli dotknuté pravidlá stanovené v nariadení Európskeho parlamentu a Rady (EÚ) 2024/900 (34), a s cieľom riešiť riziká neprimeraného vonkajšieho zasahovania do práva voliť zakotveného v článku 39 charty a riziká neprimeraných účinkov na demokraciu a právny štát by sa systémy AI, ktoré sa majú používať na ovplyvňovanie výsledku volieb alebo referenda alebo volebného správania fyzických osôb pri výkone ich hlasovania vo voľbách alebo referendách, mali klasifikovať ako vysokorizikové systémy AI s výnimkou systémov AI, ktorých výstupom nie sú fyzické osoby priamo vystavené, ako sú nástroje používané na organizovanie, optimalizáciu a štruktúrovanie politických kampaní z administratívneho a logistického hľadiska.
(62)
Sem prejuízo das regras previstas no Regulamento (UE) 2024/900 do Parlamento Europeu e do Conselho (34), e a fim de fazer face aos riscos quer de interferência externa indevida no direito de voto consagrado no artigo 39.o da Carta, quer de efeitos adversos na democracia e no Estado de direito, os sistemas de IA concebidos para serem utilizados para influenciar o resultado de uma eleição ou referendo, ou o comportamento eleitoral de pessoas singulares no exercício do seu direito de voto em eleições ou referendos, deverão ser classificados como sendo sistemas de IA de risco elevado, com exceção dos sistemas de IA a cujos resultados as pessoas singulares não estejam diretamente expostas, como os instrumentos utilizados para organizar, otimizar e estruturar campanhas políticas de um ponto de vista administrativo e logístico.
(63)
Skutočnosť, že systém AI sa podľa tohto nariadenia klasifikuje ako vysokorizikový systém AI, by sa nemala vykladať ako naznačujúca, že používanie tohto systému je zákonné podľa iných aktov práva Únie alebo vnútroštátneho práva zlučiteľného s právom Únie, ako napríklad práva v oblasti ochrany osobných údajov, používania polygrafov a podobných nástrojov alebo iných systémov na zisťovanie emocionálneho stavu fyzických osôb. Akékoľvek takéto použitie by sa malo naďalej vykonávať výlučne v súlade s uplatniteľnými požiadavkami vyplývajúcimi z charty a z uplatniteľných aktov sekundárneho práva Únie a vnútroštátneho práva. Toto nariadenie by sa nemalo vykladať tak, že poskytuje právny základ pre spracúvanie osobných údajov v relevantných prípadoch vrátane osobitných kategórií osobných údajov, pokiaľ sa v tomto nariadení výslovne neustanovuje inak.
(63)
A classificação de um sistema de IA como sendo de risco elevado por força do presente regulamento não deverá ser interpretada como uma indicação de que a utilização do sistema é lícita ao abrigo de outros atos do direito da União ou ao abrigo do direito nacional compatível com o direito da União, por exemplo, em matéria de proteção de dados pessoais ou de utilização de polígrafos e de instrumentos semelhantes ou de outros sistemas para detetar o estado emocional de pessoas singulares. Essa utilização deverá continuar sujeita ao cumprimento dos requisitos aplicáveis resultantes da Carta e dos atos do direito derivado da União e do direito nacional em vigor. O presente regulamento não deverá ser entendido como um fundamento jurídico para o tratamento de dados pessoais, inclusive de categorias especiais de dados pessoais, se for caso disso, salvo disposição específica em contrário no presente regulamento.
(64)
S cieľom zmierniť riziká, ktoré vyplývajú z vysokorizikových systémov AI uvedených na trh alebo do prevádzky, a zabezpečiť vysokú úroveň dôveryhodnosti, by sa na vysokorizikové systémy AI mali uplatňovať určité povinné požiadavky, pričom by sa mal zohľadniť zamýšľaný účel a kontext používania systému AI a podľa systému riadenia rizík, ktorý má zaviesť poskytovateľ. Opatrenia prijaté poskytovateľmi na dosiahnutie súladu s povinnými požiadavkami tohto nariadenia by mali zohľadňovať všeobecne uznávaný aktuálny stav vývoja AI a mali by byť primerané a účinné na splnenie cieľov tohto nariadenia. Na základe nového legislatívneho rámca, ako sa objasňuje v oznámení Komisie s názvom „Modrá príručka na vykonávanie právnych predpisov EÚ týkajúcich sa výrobkov 2022“, všeobecným pravidlom je, že viac ako jeden právny akt z harmonizačných právnych predpisov Únie sa môže uplatňovať na jeden výrobok, keďže sprístupnenie alebo uvedenie do prevádzky sa môže uskutočniť len vtedy, keď je výrobok v súlade so všetkými uplatniteľnými harmonizačnými právnymi predpismi Únie. Nebezpečenstvá systémov AI, na ktoré sa vzťahujú požiadavky tohto nariadenia, sa týkajú iných aspektov ako existujúce harmonizačné právne predpisy Únie, a preto by požiadavky tohto nariadenia dopĺňali existujúci súbor harmonizačných právnych predpisov Únie. Napríklad strojové zariadenia alebo zdravotnícke pomôcky obsahujúce systém AI by mohli predstavovať riziká, ktoré sa neriešia v základných zdravotných a bezpečnostných požiadavkách stanovených v príslušných harmonizovaných právnych predpisoch Únie, keďže toto odvetvové právo sa nezaoberá rizikami špecifickými pre systémy AI. Je preto potrebné súbežné a komplementárne uplatňovanie rôznych legislatívnych aktov. S cieľom zabezpečiť konzistentnosť a zabrániť zbytočnému administratívnemu zaťaženiu a nákladom by poskytovatelia výrobku, ktorý obsahuje jeden alebo viacero vysokorizikových systémov AI, na ktoré sa vzťahujú požiadavky tohto nariadenia a požiadavky harmonizačných právnych predpisov Únie založených na novom legislatívnom rámci a uvedených v prílohe k tomuto nariadeniu, mali mať flexibilitu, pokiaľ ide o operačné rozhodnutia o tom, ako zabezpečiť súlad výrobku obsahujúceho jeden alebo viacero systémov AI so všetkými uplatniteľnými požiadavkami daných harmonizovaných právnych predpisov Únie optimálnym spôsobom. Uvedená flexibilita by mohla znamenať napríklad rozhodnutie poskytovateľa začleniť časť potrebných postupov testovania a podávania správ, informácií a dokumentácie požadovaných podľa tohto nariadenia do existujúcej dokumentácie a postupov požadovaných podľa existujúcich harmonizačných právnych predpisov Únie založených na novom legislatívnom rámci a uvedených v prílohe k tomuto nariadeniu. To by v žiadnom prípade nemalo oslabiť povinnosť poskytovateľa dodržiavať všetky uplatniteľné požiadavky.
(64)
Para atenuar os riscos dos sistemas de IA de risco elevado colocados no mercado ou colocados em serviço e para assegurar um elevado nível de fiabilidade, deverão aplicar-se determinados requisitos obrigatórios aos sistemas de IA de risco elevado, tendo em conta a finalidade prevista e o contexto de utilização do sistema de IA e de acordo com o sistema de gestão de riscos a estabelecer pelo prestador. As medidas adotadas pelos prestadores para cumprirem os requisitos obrigatórios do presente regulamento deverão ter em conta o estado da arte geralmente reconhecido em matéria de IA e ser proporcionadas e eficazes para cumprir os objetivos do presente regulamento. Com base no novo regime jurídico, tal como clarificado na comunicação da Comissão intitulada «“Guia Azul” de 2022 sobre a aplicação das regras da UE em matéria de produtos», a regra geral é a de que mais do que um ato jurídico da legislação de harmonização da União pode ser aplicável a um produto, uma vez que a sua disponibilização ou colocação em serviço só podem ter lugar quando o produto cumprir toda a legislação de harmonização da União aplicável. Os perigos dos sistemas de IA abrangidos pelos requisitos do presente regulamento dizem respeito a aspetos diferentes da legislação de harmonização da União em vigor, pelo que os requisitos do presente regulamento complementarão o atual corpo de legislação de harmonização da União. Por exemplo, as máquinas ou os dispositivos médicos que incorporam um sistema de IA podem apresentar riscos não abrangidos pelos requisitos essenciais de saúde e segurança estabelecidos nas disposições pertinentes do direito harmonizado da União, uma vez que tal legislação setorial não aborda os riscos específicos dos sistemas de IA. Tal implica a aplicação simultânea e complementar dos vários atos legislativos. A fim de assegurar a coerência e evitar encargos administrativos e custos desnecessários, os prestadores de um produto que contenha um ou mais sistemas de IA de risco elevado, aos quais se aplicam os requisitos do presente regulamento e da legislação de harmonização da União com base no novo regime jurídico e enumerados num anexo do presente regulamento, deverão ser flexíveis no que diz respeito às decisões operacionais sobre a forma otimizada de assegurar a conformidade de um produto que contenha um ou mais sistemas de IA com todos os requisitos aplicáveis dessa legislação harmonizada da União. Tal flexibilidade poderá significar, por exemplo, a decisão do prestador de integrar uma parte dos processos necessários de testagem e comunicação de informações e de informação e documentação exigidos pelo presente regulamento na documentação e nos procedimentos já existentes exigidos nos termos da legislação de harmonização da União, com base no novo regime jurídico e enumerado num anexo do presente regulamento. Tal não deverá de modo algum prejudicar a obrigação do prestador de cumprir todos os requisitos aplicáveis.
(65)
Systém riadenia rizík by mal pozostávať z nepretržitého iteratívneho procesu plánovaného a prebiehajúceho počas celého životného cyklu vysokorizikového systému AI. Tento proces by mal byť zameraný na identifikáciu a zmiernenie relevantných rizík systémov AI v oblasti zdravia, bezpečnosti a základných práv. Systém riadenia rizík by sa mal pravidelne preskúmavať a aktualizovať, aby sa zabezpečila jeho trvalá účinnosť, ako aj odôvodnenie a dokumentácia všetkých významných rozhodnutí a opatrení prijatých podľa tohto nariadenia. Týmto procesom by sa malo zabezpečiť, aby poskytovateľ identifikoval riziká alebo nepriaznivé vplyvy a vykonal zmierňujúce opatrenia zamerané na známe a odôvodnene predvídateľné riziká systémov AI pre zdravie, bezpečnosť a základné práva vzhľadom na ich zamýšľaný účel a rozumne predvídateľné nesprávne použitie vrátane možných rizík vyplývajúcich z interakcie medzi systémom AI a prostredím, v ktorom funguje. Systém riadenia rizík by mal prijať najvhodnejšie opatrenia na riadenie rizík vzhľadom na aktuálny stav vývoja AI. Pri určovaní najvhodnejších opatrení na riadenie rizík by mal poskytovateľ zdokumentovať a vysvetliť prijaté rozhodnutia a v prípade potreby by mal zapojiť odborníkov a externé zainteresované strany. Pri identifikácii odôvodnene predvídateľného nesprávneho použitia vysokorizikových systémov AI by sa poskytovateľ mal zaoberať použitím systémov AI, na ktoré sa síce priamo nevzťahuje zamýšľaný účel a ktoré sú stanovené v návode na použitie, možno však odôvodnene očakávať, že budú výsledkom ľahko predvídateľného ľudského správania v kontexte osobitných vlastností a používania konkrétneho systému AI. Všetky známe alebo predvídateľné okolnosti súvisiace s používaním vysokorizikového systému AI v súlade s jeho zamýšľaným účelom alebo za podmienok odôvodnene predvídateľného nesprávneho použitia, ktoré môžu viesť k rizikám pre zdravie a bezpečnosť alebo pre základné práva, by sa mali zahrnúť do návodu na použitie, ktorý poskytuje poskytovateľ. Cieľom je zabezpečiť, aby ich nasadzujúci subjekt poznal a zohľadnil pri používaní vysokorizikového systému AI. Identifikácia a vykonávanie opatrení na zmiernenie rizika predvídateľného nesprávneho použitia podľa tohto nariadenia by si nemali vyžadovať osobitnú dodatočnú odbornú prípravu zo strany poskytovateľa pre vysokorizikový systém AI na riešenie predvídateľného nesprávneho použitia. Poskytovatelia sa však nabádajú, aby zvážili takéto dodatočné opatrenia odbornej prípravy s cieľom zmierniť odôvodnene predvídateľné nesprávne použitie, ak je to potrebné a vhodné.
(65)
O sistema de gestão de riscos deverá consistir num processo iterativo contínuo, que seja planeado e executado ao longo de todo o ciclo de vida de um sistema de IA de risco elevado. Esse processo deverá ter por objetivo identificar e atenuar os riscos pertinentes dos sistemas de IA para a saúde, a segurança e os direitos fundamentais. O sistema de gestão de riscos deverá ser revisto e atualizado regularmente, a fim de assegurar a sua eficácia contínua, bem como a justificação e documentação de quaisquer decisões e medidas significativas tomadas ao abrigo do presente regulamento. Este processo deverá assegurar que o prestador identifique riscos ou repercussões negativas e aplique medidas de atenuação dos riscos conhecidos e razoavelmente previsíveis dos sistemas de IA para a saúde, a segurança e os direitos fundamentais à luz das suas finalidades previstas e da sua utilização indevida razoavelmente previsível, incluindo os possíveis riscos decorrentes da interação entre o sistema de IA e o ambiente em que opera. O sistema de gestão de riscos deverá adotar as medidas de gestão dos riscos mais adequadas à luz do estado da arte no domínio da IA. Ao identificar as medidas de gestão dos riscos mais adequadas, o prestador deverá documentar e explicar as escolhas feitas e, se for caso disso, envolver peritos e partes interessadas externas. Ao identificar a utilização indevida razoavelmente previsível de sistemas de IA de risco elevado, o prestador deverá abranger as utilizações dos sistemas de IA que, embora não diretamente abrangidas pela finalidade prevista e indicadas nas instruções de utilização, possa, no entanto, razoavelmente esperar-se que resultem de um comportamento humano facilmente previsível no contexto das características específicas e da utilização de um sistema de IA. Quaisquer circunstâncias conhecidas ou previsíveis, relacionadas com a utilização do sistema de IA de risco elevado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsível, que possam causar riscos para a saúde e a segurança ou os direitos fundamentais deverão ser incluídas nas instruções de utilização que são disponibilizadas pelo prestador. O objetivo é assegurar que o responsável pela implantação esteja ciente delas e as tenha em conta ao utilizar o sistema de IA de risco elevado. A identificação e a aplicação de medidas de atenuação dos riscos em caso de utilização indevida previsível por força do presente regulamento não deverão exigir medidas de treino adicionais específicas para o sistema de IA de risco elevado por parte do prestador, a fim de as combater. No entanto, os prestadores são incentivados a considerar essas medidas de treino adicionais a fim de atenuarem as utilizações indevidas razoavelmente previsíveis, conforme necessário e adequado.
(66)
Požiadavky by sa mali vzťahovať na vysokorizikové systémy AI, pokiaľ ide o riadenie rizík, kvalitu a relevantnosť použitých súborov údajov, technickú dokumentáciu a uchovávanie záznamov, transparentnosť a poskytovanie informácií nasadzujúcim subjektom, ľudský dohľad a spoľahlivosť, presnosť a kybernetickú bezpečnosť. Tieto požiadavky sú potrebné na účinné zmiernenie rizík pre zdravie, bezpečnosť a základné práva. Keďže nie sú primerane dostupné žiadne iné opatrenia menej obmedzujúce obchod, nie sú uvedené požiadavky neodôvodnenými obmedzeniami obchodu.
(66)
Os sistemas de IA de risco elevado deverão estar sujeitos ao cumprimento de requisitos relativos à gestão de riscos, à qualidade e à pertinência dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos responsáveis pela implantação, à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança e os direitos fundamentais. Uma vez que não estão razoavelmente disponíveis outras medidas menos restritivas ao comércio, esses requisitos não constituem restrições injustificadas ao comércio.
(67)
Pre poskytovanie štruktúry a zabezpečovanie výkonu mnohých systémov AI zohrávajú kľúčovú úlohu vysokokvalitné údaje a prístup k nim, najmä ak sa využívajú techniky zahŕňajúce trénovanie modelov s cieľom zabezpečiť, aby vysokorizikový systém AI fungoval podľa zamýšľaného účelu a bezpečne a aby sa nestal zdrojom diskriminácie zakázanej právom Únie. Súbory vysokokvalitných trénovacích, validačných a testovacích údajov si vyžadujú vykonávanie primeraných postupov správy a riadenia údajov. Súbory údajov na trénovanie, validáciu a testovanie vrátane štítkov by mali byť relevantné, dostatočne reprezentatívne a v čo najväčšej možnej miere bez chýb a úplné vzhľadom na zamýšľaný účel systému. S cieľom uľahčiť dodržiavanie právnych predpisov Únie v oblasti ochrany údajov, ako je nariadenie (EÚ) 2016/679, by postupy správy a riadenia údajov mali v prípade osobných údajov zahŕňať transparentnosť v súvislosti s pôvodným účelom zberu údajov. Súbory údajov by mali mať aj primerané štatistické vlastnosti, a to aj pokiaľ ide o osoby alebo skupiny osôb, v súvislosti s ktorými sa má vysokorizikový systém AI používať, s osobitným dôrazom na zmiernenie možného skreslenia v súboroch údajov, ktoré by mohlo ovplyvniť zdravie a bezpečnosť osôb, mať negatívny vplyv na základné práva alebo viesť k diskriminácii zakázanej podľa práva Únie, najmä ak výstupy údajov ovplyvňujú vstupy pre budúce operácie (uzavretý kruh spätnej väzby). Skreslenie môže byť napríklad inherentné v základných súboroch údajov, najmä ak sa používajú historické údaje alebo údaje vygenerované pri implementácii systémov v reálnych podmienkach. Výsledky poskytované systémami AI by mohli byť ovplyvnené takýmto inherentným skreslením, ktoré má tendenciu postupne sa zvyšovať, a tým aj zachovávať a prehlbovať existujúcu diskrimináciu, najmä v prípade osôb patriacich k určitým zraniteľným skupinám vrátane rasových a etnických skupín. Požiadavka, aby boli súbory údajov v čo najväčšej miere úplné a bez chýb, by nemala mať v súvislosti s vývojom a testovaním systémov AI vplyv na používanie techník na zachovanie súkromia. Súbory údajov by mali v rozsahu, v akom si to vyžaduje zamýšľaný účel, zohľadňovať najmä znaky, charakteristiky alebo prvky, ktoré sú špecifické pre konkrétne geografické, kontextuálne, behaviorálne alebo funkčné podmienky, za ktorých sa má systém AI používať. Požiadavky týkajúce sa správy údajov možno splniť využitím tretích strán, ktoré ponúkajú certifikované služby dodržiavania predpisov vrátane overovania správy údajov, integrity súborov údajov a postupov trénovania, validácie a testovania údajov, pokiaľ je zabezpečený súlad s požiadavkami na údaje stanovenými v tomto nariadení.
(67)
Os dados de elevada qualidade e o acesso a dados de elevada qualidade desempenham um papel essencial ao proporcionarem estrutura e garantirem o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne uma fonte de uma discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e testagem de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, validação e testagem, incluindo os rótulos, deverão ser pertinentes, suficientemente representativos e, tanto quanto possível, isentos de erros e completos, tendo em conta a finalidade prevista do sistema. A fim de facilitar o cumprimento da legislação da União em matéria de proteção de dados, como o Regulamento (UE) 2016/679, as práticas de governação e de gestão de dados deverão incluir, no caso dos dados pessoais, a transparência sobre a finalidade inicial da recolha de dados. Os conjuntos de dados deverão também ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou grupos de pessoas nos quais o sistema de IA de risco elevado se destina a ser utilizado, com especial atenção para a atenuação de eventuais enviesamentos nos conjuntos de dados que sejam suscetíveis de afetar a saúde e a segurança das pessoas, afetar negativamente os direitos fundamentais ou conduzir a discriminações proibidas pelo direito da União, especialmente quando os resultados dos dados influenciam entradas para operações futuras («circuitos de realimentação»). Os enviesamentos podem, por exemplo, ser inerentes a conjuntos de dados de base, especialmente quando são usados ou gerados dados históricos ao serem aplicados os sistemas a situações reais. Os resultados apresentados pelos sistemas de IA poderão ser influenciados por enviesamentos inerentes que tendem a aumentar gradualmente, e, desse modo, a perpetuar e a ampliar a discriminação existente, em particular de pessoas pertencentes a grupos vulneráveis, nomeadamente de grupos raciais ou étnicos. O requisito de os conjuntos de dados serem o mais completos possível e isentos de erros não deverá afetar a utilização de técnicas de preservação da privacidade no contexto do desenvolvimento e testagem de sistemas de IA. Em especial, os conjuntos de dados deverão ter em conta, na medida do exigido face à sua finalidade prevista, as funcionalidades, as características ou os elementos que são específicos do cenário geográfico, contextual, comportamental ou funcional no qual o sistema de IA se destina a ser utilizado. Os requisitos relacionados com a governação dos dados podem ser cumpridos recorrendo a terceiros que ofereçam serviços de conformidade certificados, incluindo a verificação da governação dos dados, da integridade dos conjuntos de dados e das práticas de treino, validação e testagem de dados, desde que seja assegurado o cumprimento dos requisitos em matéria de dados do presente regulamento.
(68)
Pokiaľ ide o vývoj a posudzovanie vysokorizikových systémov AI, niektorí aktéri, ako sú poskytovatelia, notifikované osoby a iné príslušné subjekty, ako napríklad centrá digitálnych inovácií, testovacie a experimentálne zariadenia a výskumní pracovníci, by mali mať prístup k súborom vysokokvalitných údajov a využívať ich v rámci oblastí svojich činností, ktoré súvisia s týmto nariadením. Pri poskytovaní dôveryhodného, zodpovedného a nediskriminačného prístupu k vysokokvalitným údajom na účely trénovania, validácie a testovania systémov AI budú mať zásadný význam spoločné európske dátové priestory zriadené Komisiou a uľahčenie výmeny údajov medzi podnikmi a s verejnou správou vo verejnom záujme. Napríklad v oblasti zdravia uľahčí európsky priestor pre údaje týkajúce sa zdravia nediskriminačný prístup k údajom týkajúcim sa zdravia a trénovanie algoritmov AI na týchto súboroch údajov, a to bezpečným, včasným, transparentným a dôveryhodným spôsobom chrániacim súkromie, pričom sa zabezpečí primerané inštitucionálne riadenie. Relevantné príslušné orgány vrátane sektorových orgánov, ktoré poskytujú alebo podporujú prístup k údajom, môžu takisto podporovať poskytovanie vysokokvalitných údajov na trénovanie, validáciu a testovanie systémov AI.
(68)
No contexto do desenvolvimento e avaliação de sistemas de IA de risco elevado, determinados intervenientes, como prestadores, organismos notificados e outras entidades pertinentes, como polos de inovação digital, instalações de testagem e experimentação e investigadores, deverão ter a possibilidade de aceder a conjuntos de dados de elevada qualidade dentro das áreas de intervenção desses intervenientes relacionadas com o presente regulamento. Os espaços comuns europeus de dados criados pela Comissão e a facilitação da partilha de dados entre empresas e com as administrações públicas por motivos de interesse público serão cruciais para conceder um acesso fiável, responsável e não discriminatório a dados de elevada qualidade para o treino, a validação e a testagem de sistemas de IA. Por exemplo, no domínio da saúde, o Espaço Europeu de Dados de Saúde facilitará o acesso não discriminatório a dados de saúde e o treino de algoritmos de IA com base nesses conjuntos de dados, de forma respeitadora da privacidade, segura, atempada, transparente e digna de confiança, e sob a alçada de uma governação institucional adequada. As autoridades competentes, incluindo as autoridades setoriais, que concedem ou apoiam o acesso aos dados também podem apoiar a disponibilização de dados de elevada qualidade para fins de treino, validação e testagem de sistemas de IA.
(69)
Právo na súkromie a ochranu osobných údajov musí byť zaručené počas celého životného cyklu systému AI. V tejto súvislosti sú pri spracúvaní údajov uplatniteľné zásady špecificky navrhnutej a štandardnej minimalizácie údajov a ochrany údajov stanovené v právnych predpisoch Únie o ochrane údajov. Opatrenia prijaté poskytovateľmi na zabezpečenie súladu s týmito zásadami môžu zahŕňať nielen anonymizáciu a šifrovanie, ale aj používanie technológie, ktorá umožňuje uplatňovanie algoritmov na údaje a umožňuje trénovanie systémov AI bez prenosu medzi stranami alebo kopírovania samotných nespracovaných alebo štruktúrovaných údajov bez toho, aby boli dotknuté požiadavky na správu údajov stanovené v tomto nariadení.
(69)
O direito à privacidade e à proteção de dados pessoais tem de ser garantido ao longo de todo o ciclo de vida do sistema de IA. A este respeito, os princípios da minimização dos dados e da proteção de dados desde a conceção e por norma, tal como estabelecidos na legislação da União em matéria de proteção de dados, são aplicáveis quando se realiza o tratamento de dados. As medidas tomadas pelos prestadores para assegurar o cumprimento desses princípios podem incluir não só a anonimização e a cifragem, mas também a utilização de tecnologias que permitam a introdução de algoritmos nos dados e o treino dos sistemas de IA sem a transmissão entre as partes ou a cópia dos próprios dados em bruto ou estruturados, sem prejuízo dos requisitos em matéria de governação de dados previstos no presente regulamento.
(70)
S cieľom chrániť právo iných osôb pred diskrimináciou, ktorá by mohla byť dôsledkom skreslenia v systémoch AI, by poskytovatelia mali výnimočne v rozsahu, v akom je to nevyhnutne potrebné na účely zabezpečenia zisťovania zaujatosti a nápravy v súvislosti s vysokorizikovými systémami AI, s výhradou primeraných záruk základných práv a slobôd fyzických osôb a po uplatnení všetkých uplatniteľných podmienok stanovených v tomto nariadení popri podmienkach stanovených v nariadeniach (EÚ) 2016/679 a (EÚ) 2018/1725 a smernici (EÚ) 2016/680, mať možnosť spracúvať aj osobitné kategórie osobných údajov ako záležitosť podstatného verejného záujmu v zmysle článku 9 ods. 2 písm. g) nariadenia (EÚ) 2016/679 a článku 10 ods. 2 písm. g) nariadenia (EÚ) 2018/1725.
(70)
A fim de proteger o direito de terceiros da discriminação que possa resultar do enviesamento nos sistemas de IA, os prestadores deverão, a título excecional, na medida do estritamente necessário para assegurar a deteção e a correção de enviesamentos em relação aos sistemas de IA de risco elevado, sob reserva de salvaguardas adequadas dos direitos e liberdades fundamentais das pessoas singulares e na sequência da aplicação de todas as condições aplicáveis estabelecidas no presente regulamento, para além das condições estabelecidas nos Regulamentos (UE) 2016/679 e (UE) 2018/1725 e na Diretiva (UE) 2016/680, ser capazes de tratar também categorias especiais de dados pessoais, por razões de interesse público substancial, na aceção do artigo 9.o, n.o 2, alínea g), do Regulamento (UE) 2016/679 e do artigo 10.o, n.o 2, alínea g), do Regulamento (UE) 2018/1725.
(71)
Na umožnenie vysledovateľnosti týchto systémov, overenie súladu s požiadavkami podľa tohto nariadenia, ako aj monitorovanie ich prevádzky a ich monitorovanie po uvedení na trh je nevyhnutné mať zrozumiteľné informácie o tom, ako boli vysokorizikové systémy AI vyvinuté a ako fungujú počas celej svojej životnosti. To si vyžaduje vedenie záznamov a dostupnosť technickej dokumentácie obsahujúcej informácie, ktoré sú potrebné na posúdenie súladu systému AI s príslušnými požiadavkami a uľahčenie ich monitorovania po uvedení na trh. Takéto informácie by mali zahŕňať všeobecné charakteristiky, spôsobilosti a obmedzenia systému, algoritmy, údaje, postupy trénovania, testovania a validácie, ktoré boli použité, ako aj dokumentáciu o príslušnom systéme riadenia rizík vypracovanú jasne a komplexne. Technická dokumentácia by sa mala náležite aktualizovať počas celého životného cyklu systému AI. Vysokorizikové systémy AI by mali okrem toho technicky umožňovať automatické zaznamenávanie udalostí prostredníctvom logov počas celej životnosti systému.
(71)
Dispor de informações compreensíveis sobre a forma como os sistemas de IA de risco elevado foram desenvolvidos e sobre o seu desempenho ao longo da sua vida útil é essencial para permitir a rastreabilidade desses sistemas, verificar o cumprimento dos requisitos previstos no presente regulamento, bem como o acompanhamento das suas operações e o acompanhamento pós-comercialização. Para tal, é necessário manter registos e disponibilizar documentação técnica com as informações necessárias para avaliar se o sistema de IA cumpre os requisitos aplicáveis e facilita o acompanhamento pós-comercialização. Essas informações deverão incluir as características gerais, as capacidades e as limitações do sistema, os algoritmos, os dados e os processos de treino, testagem e validação utilizados, bem como a documentação relativa ao sistema de gestão de riscos aplicado, e ser redigidas de forma clara e compreensiva. A documentação técnica deverá ser mantida devidamente atualizada ao longo de toda a vida útil do sistema de IA. Além disso, os sistemas de IA de risco elevado deverão permitir tecnicamente o registo automático de eventos, por meio de registos, durante a vida útil do sistema.
(72)
S cieľom riešiť obavy súvisiace s neprehľadnosťou a zložitosťou určitých systémov AI a pomôcť nasadzujúcim subjektom plniť si povinnosti podľa tohto nariadenia by sa v prípade vysokorizikových systémov AI mala pred ich uvedením na trh alebo do prevádzky vyžadovať transparentnosť. Vysokorizikové systémy AI by mali byť dizajnované tak, aby umožnili nasadzujúcim subjektom pochopiť, ako systém AI funguje, vyhodnotiť jeho funkčnosť a pochopiť jeho silné stránky a obmedzenia. K vysokorizikovým systémom AI by mali byť priložené vhodné informácie vo forme návodu na použitie. Takéto informácie by mali zahŕňať charakteristiky, spôsobilosti a obmedzenia výkonu systému AI. Tie by zahŕňali informácie o možných známych a predvídateľných okolnostiach súvisiacich s používaním vysokorizikového systému AI vrátane činností nasadzujúcich subjektov, ktoré môžu ovplyvniť správanie a výkon systému, pri ktorých môže systém AI viesť k rizikám pre zdravie, bezpečnosť a základné práva, o zmenách, ktoré poskytovateľ vopred určil a posúdil z hľadiska zhody, a o príslušných opatreniach ľudského dohľadu vrátane opatrení na uľahčenie výkladu výstupov systému AI nasadzujúcimi subjektmi. Transparentnosť vrátane sprievodného návodu na použitie by mala pomáhať nasadzujúcim subjektom pri používaní systému a podporovať ich informované rozhodovanie. Nasadzujúce subjekty by okrem iného mali mať lepšiu pozíciu na to, aby si mohli správne vybrať systém, ktorý majú v úmysle používať vzhľadom na povinnosti, ktoré sa na nich vzťahujú, mali by sa vzdelávať o zamýšľaných a vylúčených použitiach a používať systém AI správne a náležite. S cieľom zlepšiť čitateľnosť a prístupnosť informácií uvedených v návode na použitie by sa v prípade potreby mali uviesť názorné príklady, napríklad pokiaľ ide o obmedzenia a zamýšľané a vylúčené použitia systému AI. Poskytovatelia by mali zabezpečiť, aby všetka dokumentácia vrátane návodu na použitie obsahovala zmysluplné, komplexné, prístupné a zrozumiteľné informácie, pričom sa zohľadnia potreby a predvídateľné znalosti cieľových nasadzujúcich subjektov. Návod na použitie by mal byť k dispozícii v jazyku, ktorý je podľa dotknutého členského štátu ľahko zrozumiteľný pre cieľový nasadzujúci subjekt.
(72)
A fim de dar resposta às preocupações relacionadas com a opacidade e a complexidade de determinados sistemas de IA e ajudar os responsáveis pela implantação a cumprir as obrigações que lhes incumbem por força do presente regulamento, deverá ser exigida transparência aos sistemas de IA de risco elevado antes de serem colocados no mercado ou colocados em serviço. Os sistemas de IA de risco elevado deverão ser concebidos de forma a permitir aos responsáveis pela implantação compreender a forma como funciona o sistema de IA, avaliar a sua funcionalidade e compreender os seus pontos fortes e limitações. Os sistemas de IA de risco elevado deverão ser acompanhados de informações adequadas sob a forma de instruções de utilização. Tais informações deverão incluir as características, capacidades e limitações do desempenho do sistema de IA. Esses elementos abrangerão informações sobre eventuais circunstâncias conhecidas e previsíveis relacionadas com a utilização do sistema de IA de risco elevado, incluindo ações do responsável pela implantação que possam influenciar o comportamento e o desempenho do sistema, ao abrigo das quais o sistema de IA pode conduzir a riscos para a saúde, a segurança e os direitos fundamentais, sobre as alterações que foram predeterminadas e avaliadas para efeitos de conformidade pelo prestador e sobre as medidas de supervisão humana pertinentes, incluindo as medidas destinadas a facilitar a interpretação dos resultados do sistema de IA pelos responsáveis pela implantação. A transparência, incluindo as instruções de utilização que as acompanham, deverá ajudar os responsáveis pela implantação na utilização do sistema e apoiar a sua tomada de decisões informadas. Entre outros, os responsáveis pela implantação deverão estar em melhor posição para fazer a escolha correta do sistema que tencionam utilizar à luz das obrigações que lhes são aplicáveis, ser instruídos sobre as utilizações previstas e proibidas e utilizar o sistema de IA de forma correta e conforme adequado. A fim de melhorar a legibilidade e a acessibilidade das informações incluídas nas instruções de utilização, deverão ser incluídos, se for caso disso, exemplos ilustrativos, por exemplo, sobre as limitações e as utilizações previstas e proibidas do sistema de IA. Os prestadores deverão assegurar que toda a documentação, incluindo as instruções de utilização, contém informações significativas, abrangentes, acessíveis e compreensíveis, tendo em conta as necessidades e os conhecimentos previsíveis dos responsáveis pela implantação visados. As instruções de utilização deverão ser disponibilizadas numa língua que possa ser facilmente compreendida pelos responsáveis pela implantação visados, conforme determinado pelo Estado-Membro em causa.
(73)
Vysokorizikové systémy AI by mali byť dizajnované a vyvinuté tak, aby fyzické osoby mohli dohliadať na ich fungovanie, zabezpečiť, aby sa používali podľa zámeru a aby sa ich vplyvy riešili počas životného cyklu systému. Na tento účel by mal poskytovateľ systému určiť pred jeho uvedením na trh alebo do prevádzky vhodné opatrenia na zabezpečenie ľudského dohľadu. Takýmito opatreniami by sa malo prípadne zaručiť najmä to, že do systému budú zabudované prevádzkové obmedzenia, ktoré samotný systém nedokáže potlačiť, a že systém bude reagovať na ľudského operátora a fyzické osoby, ktorým bol zverený ľudský dohľad, budú mať potrebnú spôsobilosť, odbornú prípravu a právomoc vykonávať túto úlohu. Takisto je podľa potreby nevyhnutné zabezpečiť, aby vysokorizikové systémy AI zahŕňali mechanizmy na usmernenie a informovanie fyzickej osoby, ktorej bol pridelený ľudský dohľad, aby mohla prijímať informované rozhodnutia, či, kedy a ako zasiahnuť s cieľom vyhnúť sa negatívnym dôsledkom alebo rizikám, alebo zastaviť systém, ak nefunguje tak, ako sa plánovalo. Vzhľadom na významné dôsledky pre osoby v prípade nesprávneho stanovenia zhody určitými systémami biometrickej identifikácie je vhodné stanoviť požiadavku posilneného ľudského dohľadu nad týmito systémami, aby nasadzujúci subjekt nemohol prijať žiadne opatrenie ani rozhodnutie na základe identifikácie vyplývajúcej zo systému, pokiaľ to samostatne neoverili a nepotvrdili aspoň dve fyzické osoby. Tieto osoby by mohli byť z jedného alebo viacerých subjektov a mohli by zahŕňať osobu, ktorá prevádzkuje alebo používa systém. Táto požiadavka by nemala spôsobovať zbytočnú záťaž alebo oneskorenia a mohlo by stačiť, aby sa samostatné overenia uvedenými týmito jednotlivými osobami automaticky zaznamenávali do logov generovaných systémom. Vzhľadom na osobitosti oblastí presadzovania práva, migrácie, kontroly hraníc a azylu by sa táto požiadavka nemala uplatňovať, keď sa podľa práva Únie alebo vnútroštátneho práva uplatňovanie uvedenej požiadavky považuje za neprimerané.
(73)
Os sistemas de IA de risco elevado deverão ser concebidos e desenvolvidos de maneira que pessoas singulares possam supervisionar o seu funcionamento, assegurar que são utilizados como previsto e que os seus impactos são abordados ao longo do ciclo de vida do sistema. Para o efeito, o prestador do sistema deverá identificar medidas de supervisão humana adequadas antes da colocação no mercado ou da colocação em serviço do sistema. Em particular, se for caso disso, essas medidas deverão garantir que o sistema esteja sujeito a restrições operacionais integradas impossíveis de serem anuladas pelo próprio sistema e responda ao operador humano, bem como que as pessoas singulares a quem seja atribuída a supervisão humana tenham as competências, a formação e a autoridade necessárias para desempenhar essa função. É igualmente essencial, conforme adequado, assegurar que os sistemas de IA de risco elevado incluam mecanismos para orientar e informar uma pessoa singular incumbida da supervisão humana de forma a que tome decisões informadas sobre se, quando e como intervir, a fim de evitar consequências negativas ou riscos, ou a que pare o sistema se não funcionar como previsto. Tendo em conta as consequências significativas para as pessoas em caso de uma correspondência incorreta por determinados sistemas de identificação biométrica, é conveniente prever um requisito reforçado de supervisão humana para esses sistemas, de modo a que o responsável pela implantação não possa tomar qualquer medida ou decisão com base na identificação resultante do sistema, a menos que tal tenha sido verificado e confirmado separadamente por, pelo menos, duas pessoas singulares. Essas pessoas podem pertencer a uma ou mais entidades e incluir a pessoa que opera ou utiliza o sistema. Este requisito não deverá implicar encargos ou atrasos desnecessários e pode ser suficiente que as verificações separadas efetuadas pelas diferentes pessoas sejam automaticamente gravadas nos registos gerados pelo sistema. Tendo em conta as especificidades dos domínios da aplicação da lei, da migração, do controlo das fronteiras e do asilo, este requisito não deverá aplicar-se nos casos em que o direito da União ou o direito nacional considere que a aplicação desse requisito é desproporcionada.
(74)
Vysokorizikové systémy AI by mali fungovať konzistentne počas celého svojho životného cyklu a mali by spĺňať primeranú úroveň presnosti, spoľahlivosti a kybernetickej bezpečnosti vzhľadom na ich zamýšľaný účel a v súlade so všeobecne uznávaným aktuálnym stavom vývoja. Komisia a relevantné organizácie a zainteresované strany sa nabádajú, aby náležite zvážili zmierňovanie rizík a negatívne vplyvy systému AI. Očakávaná úroveň parametrov výkonu by sa mala uviesť v sprievodnom návode na použitie. Poskytovatelia sa vyzývajú, aby uvedené informácie oznamovali nasadzujúcim subjektom jasným a ľahko zrozumiteľným spôsobom bez nezrozumiteľností alebo zavádzajúcich vyhlásení. Cieľom práva Únie v oblasti legálnej metrológie vrátane smerníc Európskeho parlamentu a Rady 2014/31/EÚ (35) a 2014/32/EÚ (36) je zabezpečiť presnosť meraní a pomôcť pri zabezpečovaní transparentnosti a spravodlivosti obchodných transakcií. V uvedenej súvislosti by Komisia v spolupráci s príslušnými zainteresovanými stranami a organizáciou, ako sú orgány v oblasti metrológie a referenčného porovnávania, mala podľa potreby podporovať vypracovanie referenčných hodnôt a metodík merania pre systémy AI. Komisia by pritom mala vziať na vedomie činnosť medzinárodných partnerov pracujúcich v oblasti metrológie a príslušných ukazovateľov merania súvisiacich s AI a spolupracovať s nimi.
(74)
Os sistemas de IA de risco elevado deverão ter um desempenho coerente ao longo de todo o seu ciclo de vida e apresentar um nível adequado de exatidão, solidez e cibersegurança, à luz da finalidade prevista e de acordo com o estado da arte geralmente reconhecido. A Comissão e as organizações e partes interessadas pertinentes são incentivadas a ter em devida consideração a atenuação dos riscos e os impactos negativos do sistema de IA. O nível esperado dos parâmetros de desempenho deverá vir declarado nas instruções de utilização que o acompanham. Os prestadores são instados a comunicar essas informações aos responsáveis pela implantação de uma forma clara e facilmente compreensível, sem mal-entendidos nem declarações enganosas. O direito da União em matéria de metrologia legal, incluindo as Diretivas 2014/31/UE (35) e 2014/32/UE (36) do Parlamento Europeu e do Conselho, visa garantir a exatidão das medições e contribuir para a transparência e a lealdade das transações comerciais. Nesse contexto, em cooperação com as partes interessadas e a organização pertinentes, como as autoridades responsáveis pela metrologia e pela avaliação comparativa, a Comissão deverá incentivar, se for caso disso, o desenvolvimento de parâmetros de referência e metodologias de medição para os sistemas de IA. Ao fazê-lo, a Comissão deverá tomar nota e colaborar com os parceiros internacionais que trabalham em metrologia e em indicadores de medição pertinentes relacionados com a IA.
(75)
Technická spoľahlivosť je kľúčovou požiadavkou pre vysokorizikové systémy AI. Mali by byť odolné voči škodlivému alebo inak nežiaducemu správaniu, ktoré môže vyplynúť z obmedzení systémov alebo prostredia, v ktorom systémy fungujú (napríklad chyby, poruchy, nezrovnalosti, neočakávané situácie). Preto by sa mali prijať technické a organizačné opatrenia na zabezpečenie spoľahlivosti vysokorizikových systémov AI, napríklad dizajnovaním a vývojom vhodných technických riešení na prevenciu alebo minimalizáciu škodlivého alebo inak nežiaduceho správania. Toto technické riešenie môže zahŕňať napríklad mechanizmy umožňujúce systému bezpečne prerušiť svoju prevádzku (plány pre prípad zlyhania) za určitých anomálií alebo ak sa prevádzka uskutočňuje mimo určitých vopred stanovených hraníc. Neschopnosť chrániť pred týmito rizikami by mohla mať vplyv na bezpečnosť alebo negatívne ovplyvniť základné práva, napríklad v dôsledku chybných rozhodnutí alebo nesprávnych alebo skreslených výstupov vygenerovaných systémom AI.
(75)
A solidez técnica é um requisito essencial dos sistemas de IA de risco elevado. Esses sistemas deverão ser resistentes a comportamentos prejudiciais ou indesejáveis que possam resultar de limitações dentro dos sistemas ou do ambiente em que os sistemas operam (por exemplo, erros, falhas, incoerências, situações inesperadas). Por conseguinte, deverão ser tomadas medidas técnicas e organizativas para assegurar a solidez dos sistemas de IA de risco elevado, por exemplo através da conceção e do desenvolvimento de soluções técnicas adequadas para prevenir ou minimizar comportamentos nocivos ou indesejáveis. Essa solução técnica pode incluir, por exemplo, mecanismos que permitam ao sistema interromper o seu funcionamento de forma segura (planos de segurança à prova de falhas) caso se verifiquem determinadas anomalias ou caso o funcionamento ocorra fora de certos limites predeterminados. A falta de proteção contra estes riscos pode causar problemas de segurança ou afetar negativamente os direitos fundamentais, por exemplo, devido a decisões erradas ou a resultados errados ou enviesados gerados pelo sistema de IA.
(76)
Kybernetická bezpečnosť zohráva kľúčovú úlohu pri zabezpečovaní odolnosti systémov AI voči pokusom o zmenu ich použitia, správania, výkonnosti alebo o ohrozenie ich bezpečnostných vlastností tretími stranami, ktoré so škodlivým úmyslom zneužívajú zraniteľné miesta systému. Kybernetické útoky na systémy AI môžu využívať aktíva špecifické pre AI, ako sú súbory trénovacích údajov (napríklad otrávenie údajov) alebo trénované modely (napríklad nepriateľské útoky alebo zasahovanie do členstva), alebo zneužívať zraniteľné miesta digitálnych aktív systému AI alebo základnej infraštruktúry informačných a komunikačných technológií. Na zabezpečenie úrovne kybernetickej bezpečnosti primeranej rizikám by preto poskytovatelia vysokorizikových systémov AI mali prijať vhodné opatrenia ako napríklad bezpečnostné kontroly a náležite pritom zohľadniť základnú infraštruktúru informačných a komunikačných technológií.
(76)
A cibersegurança desempenha um papel fundamental para garantir que os sistemas de IA sejam resistentes às ações de terceiros mal-intencionados que tentam explorar as vulnerabilidades dos sistemas com o objetivo de lhes alterar a utilização, o comportamento e o desempenho ou de por em causa as suas propriedades de segurança. Os ciberataques contra sistemas de IA podem tirar partido de ativos específicos de IA, como os conjuntos de dados de treino (por exemplo, contaminação de dados) ou os modelos treinados (por exemplo, ataques antagónicos ou inferência de membros), ou explorar vulnerabilidades dos ativos digitais do sistema de IA ou da infraestrutura de tecnologias da informação e comunicação (TIC) subjacente. A fim de assegurar um nível de cibersegurança adequado aos riscos, os prestadores de sistemas de IA de risco elevado deverão tomar medidas adequadas, como os controlos de segurança, tendo ainda em devida conta a infraestrutura de TIC subjacente.
(77)
Bez toho, aby boli dotknuté požiadavky týkajúce sa spoľahlivosti a presnosti stanovené v tomto nariadení, môžu vysokorizikové systémy AI, ktoré patria do rozsahu pôsobnosti nariadenia Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami, v súlade s uvedeným nariadením preukázať súlad s kybernetickobezpečnostnými požiadavkami tohto nariadenia splnením základných požiadaviek kybernetickej bezpečnosti stanovených v uvedenom nariadení. Ak vysokorizikové systémy AI spĺňajú základné požiadavky nariadenia Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami, mali by sa považovať za systémy spĺňajúce požiadavky kybernetickej bezpečnosti stanovené v tomto nariadení, pokiaľ sa splnenie týchto požiadaviek preukáže v EÚ vyhlásení o zhode alebo jeho častiach vydanom podľa uvedeného nariadenia. Na tento účel by sa v posúdení kybernetickobezpečnostných rizík spojených s produktom s digitálnymi prvkami klasifikovanými ako vysokorizikový systém AI podľa tohto nariadenia, ktoré sa vykonáva podľa nariadenia Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami, mali zohľadniť riziká pre kybernetickú odolnosť systému AI, pokiaľ ide o pokusy neoprávnených tretích strán zmeniť jeho používanie, správanie alebo výkon vrátane zraniteľností špecifických pre AI, ako sú otrávenie údajov alebo nepriateľské útoky, ako aj prípadné riziká pre základné práva, ako sa vyžaduje v tomto nariadení.
(77)
Sem prejuízo dos requisitos relacionados com a solidez e a exatidão estabelecidos no presente regulamento, os sistema de IA de risco elevado abrangidos pelo âmbito de aplicação de um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais, nos termos desse regulamento, podem demonstrar a conformidade com o requisito de cibersegurança do presente regulamento ao cumprirem os requisitos essenciais de cibersegurança estabelecidos nesse regulamento. Quando os sistemas de IA de risco elevado cumprem os requisitos essenciais de um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais, deverão ser considerados conformes com os requisitos de cibersegurança estabelecidos no presente regulamento, desde que o cumprimento desses requisitos seja demonstrado na declaração UE de conformidade ou em partes da mesma emitida nos termos desse regulamento. Para o efeito, a avaliação dos riscos de cibersegurança associados a um produto com elementos digitais classificado como sistema de IA de risco elevado nos termos do presente regulamento, realizada ao abrigo de um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais, deverá ter em conta os riscos para a ciberresiliência de um sistema de IA no que diz respeito às tentativas de terceiros não autorizados de alterar a sua utilização, comportamento ou desempenho, incluindo vulnerabilidades específicas da IA, como a contaminação de dados ou ataques antagónicos, bem como os riscos pertinentes para os direitos fundamentais, tal como exigido pelo presente regulamento.
(78)
Postup posudzovania zhody stanovený v tomto nariadení by sa mal uplatňovať v súvislosti so základnými požiadavkami kybernetickej bezpečnosti produktu s digitálnymi prvkami, na ktorý sa vzťahuje nariadenie Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami a ktorý je podľa tohto nariadenia klasifikovaný ako vysokorizikový systém AI. Toto pravidlo by však nemalo viesť k zníženiu potrebnej úrovne záruky pre kritické produkty s digitálnymi prvkami, na ktoré sa vzťahuje nariadenie Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami. Odchylne od tohto pravidla by preto vysokorizikové systémy AI, ktoré patria do rozsahu pôsobnosti nariadenia a zároveň sú kvalifikované ako významné a kritické produkty s digitálnymi prvkami podľa nariadenia Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami a na ktoré sa uplatňuje postup posudzovania zhody na základe vnútornej kontroly stanovený v prílohe k tomuto nariadeniu, mali podliehať ustanoveniam nariadenia Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami týkajúcim sa posudzovania zhody, pokiaľ ide o základné požiadavky uvedeného nariadenia na kybernetickú bezpečnosť. V tomto prípade by sa na všetky ostatné aspekty, na ktoré sa vzťahuje toto nariadenie, mali uplatňovať príslušné ustanovenia o posudzovaní zhody na základe vnútornej kontroly stanovené v prílohe k tomuto nariadeniu. Na základe poznatkov a odborných znalostí agentúry ENISA v oblasti politiky kybernetickej bezpečnosti a úloh pridelených agentúre ENISA podľa nariadenia Európskeho parlamentu a Rady (EÚ) 2019/881 (37) by Komisia mala spolupracovať s agentúrou ENISA v otázkach týkajúcich sa kybernetickej bezpečnosti systémov AI.
(78)
O procedimento de avaliação da conformidade previsto no presente regulamento deverá aplicar-se aos requisitos essenciais de cibersegurança de um produto com elementos digitais abrangido por um Regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais e classificado como sistema de IA de risco elevado nos termos do presente regulamento. No entanto, esta regra não deverá resultar na redução do nível de garantia necessário para os produtos críticos com elementos digitais abrangidos por um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais. Por conseguinte, em derrogação desta regra, os sistemas de IA de risco elevado abrangidos pelo âmbito de aplicação do presente regulamento e que também são qualificados como produtos importantes e críticos com elementos digitais nos termos de um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais, e aos quais se aplica o procedimento de avaliação da conformidade baseado no controlo interno referido num anexo do presente regulamento, são sujeitos às disposições em matéria de avaliação da conformidade de um regulamento do Parlamento Europeu e do Conselho relativo aos requisitos horizontais de cibersegurança dos produtos com elementos digitais, no que diz respeito aos requisitos essenciais em matéria de cibersegurança desse regulamento. Neste caso, em relação a todos os outros aspetos abrangidos pelo presente regulamento, deverão aplicar-se as respetivas disposições em matéria de avaliação da conformidade com base no controlo interno estabelecidas num anexo do presente regulamento. Com base nos conhecimentos e competências especializados da ENISA sobre a política de cibersegurança e as funções atribuídas à ENISA nos termos do Regulamento (UE) 2019/881 do Parlamento Europeu e do Conselho (37), a Comissão Europeia deverá cooperar com a ENISA em questões relacionadas com a cibersegurança dos sistemas de IA.
(79)
Je vhodné, aby konkrétna fyzická alebo právnická osoba vymedzená ako poskytovateľ prevzala zodpovednosť za uvedenie vysokorizikového systému AI na trh alebo do prevádzky bez ohľadu na to, či je táto fyzická alebo právnická osoba osobou, ktorá systém dizajnovala alebo vyvinula.
(79)
É apropriado que uma pessoa singular ou coletiva específica, identificada como «prestador», assuma a responsabilidade pela colocação no mercado ou pela colocação em serviço de um sistema de IA de risco elevado, independentemente de ser ou não a pessoa que concebeu ou desenvolveu o sistema.
(80)
Únia a členské štáty sú ako signatári Dohovoru OSN o právach osôb so zdravotným postihnutím právne zaviazané chrániť osoby so zdravotným postihnutím pred diskrimináciou a podporovať ich rovnosť, zabezpečiť, aby osoby so zdravotným postihnutím mali rovnaký prístup k informačným a komunikačným technológiám a systémom ako ostatní, a zabezpečiť rešpektovanie súkromia osôb so zdravotným postihnutím. Vzhľadom na rastúci význam a využívanie systémov AI by sa uplatňovaním zásad univerzálneho dizajnu na všetky nové technológie a služby mal zabezpečiť úplný a rovnaký prístup pre každého, koho sa technológie AI potenciálne týkajú alebo kto ich používa, vrátane osôb so zdravotným postihnutím, a to spôsobom, ktorý plne zohľadňuje ich prirodzenú dôstojnosť a rozmanitosť. Preto je nevyhnutné, aby poskytovatelia zabezpečili úplný súlad s požiadavkami na prístupnosť vrátane smernice Európskeho parlamentu a Rady (EÚ) 2016/2102 (38) a smernice (EÚ) 2019/882. Poskytovatelia by mali zabezpečiť súlad s týmito požiadavkami už v štádiu návrhu. Potrebné opatrenia by sa preto mali čo najviac začleniť do dizajnu vysokorizikového systému AI.
(80)
Enquanto signatários da Convenção das Nações Unidas sobre os Direitos das Pessoas com Deficiência, a União e os seus Estados-Membros estão legalmente obrigados a proteger as pessoas com deficiência contra a discriminação e a promover a sua igualdade, a assegurar que as pessoas com deficiência gozem da mesma igualdade de acesso que outros às tecnologias e sistemas de informação e comunicação e a assegurar o respeito pela privacidade das pessoas com deficiência. Tendo em conta a crescente importância e utilização de sistemas de IA, a aplicação dos princípios de conceção universal a todas as novas tecnologias e serviços deverá garantir o acesso pleno e equitativo de todas as pessoas potencialmente afetadas pelas tecnologias de IA ou que utilizem essas tecnologias, incluindo as pessoas com deficiência, de uma forma que tenha plenamente em conta a sua inerente dignidade e diversidade. Por conseguinte, é essencial que os prestadores assegurem a plena conformidade com os requisitos de acessibilidade, incluindo a Diretiva (UE) 2016/2102 do Parlamento Europeu e do Conselho (38) e a Diretiva (UE) 2019/882. Os prestadores deverão assegurar o cumprimento destes requisitos desde a conceção. Por conseguinte, as medidas necessárias deverão ser integradas, tanto quanto possível, na conceção do sistema de IA de risco elevado.
(81)
Poskytovateľ by mal zaviesť spoľahlivý systém riadenia kvality, zabezpečiť dokončenie požadovaného postupu posudzovania zhody, vypracovať príslušnú dokumentáciu a vytvoriť spoľahlivý systém monitorovania po uvedení na trh. Poskytovatelia vysokorizikových systémov AI, na ktorých sa vzťahujú povinnosti týkajúce sa systémov riadenia kvality podľa príslušných odvetvových právnych predpisov Únie, by mali mať možnosť zahrnúť prvky systému riadenia kvality stanoveného v tomto nariadení ako súčasť existujúceho systému riadenia kvality stanoveného v uvedených iných odvetvových právnych predpisov Únie. Pri budúcich normalizačných činnostiach alebo usmerneniach prijatých Komisiou by sa mala zohľadniť aj komplementárnosť medzi týmto nariadením a existujúcim odvetvovým právom Únie. Orgány verejnej moci, ktoré uvádzajú do prevádzky vysokorizikové systémy AI pre vlastnú potrebu, môžu prijať a vykonávať pravidlá systému riadenia kvality ako súčasť systému riadenia kvality prijatého na vnútroštátnej prípadne regionálnej úrovni, pričom zohľadnia osobitosti odvetvia a právomoci a organizáciu dotknutého orgánu verejnej moci.
(81)
O prestador deverá introduzir um sistema de gestão da qualidade sólido, garantir a realização do procedimento de avaliação da conformidade exigido, elaborar a documentação pertinente e estabelecer um sistema sólido de acompanhamento pós-comercialização. Os prestadores de sistemas de IA de risco elevado sujeitos a obrigações relativas aos sistemas de gestão da qualidade nos termos do direito setorial aplicável da União deverão ter a possibilidade de incluir os elementos do sistema de gestão da qualidade previstos no presente regulamento como parte do sistema de gestão da qualidade existente previsto nesse outro direito setorial da União. A complementaridade entre o presente regulamento e o direito setorial da União em vigor deverá também ser tida em conta nas futuras atividades de normalização ou orientações adotadas pela Comissão. As autoridades públicas que colocam em serviço sistemas de IA de risco elevado para sua própria utilização podem adotar e aplicar as regras relativas ao sistema de gestão da qualidade no âmbito do sistema de gestão da qualidade adotado a nível nacional ou regional, consoante o caso, tendo em conta as especificidades do setor e as competências e a organização da autoridade pública em causa.
(82)
S cieľom umožniť presadzovanie tohto nariadenia a vytvoriť rovnaké podmienky pre prevádzkovateľov je pri zohľadnení rôznych foriem sprístupňovania digitálnych produktov dôležité zabezpečiť, aby osoba usadená v Únii mohla za každých okolností poskytnúť orgánom všetky potrebné informácie o súlade systému AI. Preto poskytovatelia usadení v tretích krajinách by mali vymenovať písomným mandátom pred sprístupnením svojich systémov AI v Únii splnomocneného zástupcu usadeného v Únii. V prípade poskytovateľov, ktorí nie sú usadení v Únii, zohráva tento splnomocnený zástupca kľúčovú úlohu pri zabezpečovaní súladu vysokorizikových systémov AI uvedených na trh alebo do prevádzky v Únii týmito poskytovateľmi a slúži ako ich kontaktná osoba usadená v Únii.
(82)
Para permitir a execução do presente regulamento e criar condições de concorrência equitativas para os operadores, tendo ainda em conta as diferentes formas de disponibilização de produtos digitais, é importante assegurar que, em qualquer circunstância, uma pessoa estabelecida na União possa prestar às autoridades todas as informações necessárias sobre a conformidade de um sistema de IA. Como tal, antes de disponibilizarem os seus sistemas de IA na União, os prestadores estabelecidos em países terceiros deverão, através de mandato escrito, designar um mandatário estabelecido na União. O mandatário desempenha um papel central ao garantir a conformidade dos sistemas de IA de risco elevado colocados no mercado ou colocados em serviço na União por esses prestadores que não estão estabelecidos na União e ao atuar como pessoa de contacto desses prestadores estabelecida na União.
(83)
Vzhľadom na povahu a zložitosť hodnotového reťazca systémov AI a v súlade s novým legislatívnym rámcom je nevyhnutné zabezpečiť právnu istotu a uľahčiť súlad s týmto nariadením. Preto je potrebné objasniť úlohu a osobitné povinnosti príslušných prevádzkovateľov v uvedenom hodnotovom reťazci, ako sú dovozcovia a distribútori, ktorí môžu prispievať k vývoju systémov AI. V určitých situáciách by takíto prevádzkovatelia mohli konať vo viac ako jednej role súčasne, a preto by mali kumulatívne plniť všetky príslušné povinnosti spojené s týmito rolami. Prevádzkovateľ by napríklad mohol konať súčasne ako distribútor a dovozca.
(83)
Tendo em conta a natureza e a complexidade da cadeia de valor dos sistemas de IA e em consonância com o novo regime jurídico, é essencial garantir a segurança jurídica e facilitar o cumprimento do presente regulamento. Por conseguinte, é necessário clarificar o papel e as obrigações específicas dos operadores pertinentes ao longo dessa cadeia de valor, como os importadores e os distribuidores, que podem contribuir para o desenvolvimento de sistemas de IA. Em determinadas situações, esses operadores poderão desempenhar mais do que uma função ao mesmo tempo, pelo que deverão cumprir cumulativamente todas as obrigações relevantes associadas a essas funções. Por exemplo, um operador pode atuar simultaneamente como distribuidor e importador.
(84)
V záujme zabezpečenia právnej istoty je potrebné objasniť, že za určitých osobitných podmienok by sa každý distribútor, dovozca, nasadzujúci subjekt alebo iná tretia strana mali považovať za poskytovateľa vysokorizikového systému AI, a preto by mali prevziať všetky príslušné povinnosti. Bolo by to tak v prípade, ak by táto strana uviedla svoje meno alebo ochrannú známku na vysokorizikovom systéme AI, ktorý už bol uvedený na trh alebo do prevádzky, bez toho, aby boli dotknuté zmluvné dojednania, v ktorých sa stanovuje, že povinnosti sú pridelené inak. Bolo by to tak aj v prípade, ak táto strana vykoná podstatnú zmenu vysokorizikového systému AI, ktorý už bol uvedený na trh alebo už do prevádzky, a to tak, že zostane vysokorizikovým systémom AI v súlade s týmto nariadením, alebo ak zmení zamýšľaný účel systému AI vrátane systému AI na všeobecné účely, ktorý nebol klasifikovaný ako vysokorizikový a už bol uvedený na trh alebo do prevádzky, a to tak, že systém AI sa stane vysokorizikovým systémom AI v súlade s týmto nariadením. Uvedené ustanovenia by sa mali uplatňovať bez toho, aby boli dotknuté konkrétnejšie ustanovenia zavedené v určitých harmonizačných právnych predpisoch Únie založených na novom legislatívnom rámci, spolu s ktorými by sa malo uplatňovať toto nariadenie. Napríklad článok 16 ods. 2 nariadenia (EÚ) 2017/745, v ktorom sa stanovuje, že určité zmeny by sa nemali považovať za úpravy pomôcky, ktoré by mohli ovplyvniť jej súlad s uplatniteľnými požiadavkami, by sa mal naďalej uplatňovať na vysokorizikové systémy AI, ktoré sú zdravotníckymi pomôckami v zmysle uvedeného nariadenia.
(84)
A fim de garantir a segurança jurídica, é necessário tornar claro que, em determinadas condições específicas, qualquer distribuidor, importador, responsável pela implantação ou outro terceiro deverá ser considerado prestador de um sistema de IA de risco elevado e, por conseguinte, deverá assumir todas as obrigações pertinentes. Tal será o caso se essa entidade puser o seu nome ou marca num sistema de IA de risco elevado já colocado no mercado ou colocado em serviço, sem prejuízo de disposições contratuais que estabeleçam que as obrigações são atribuídas de outro modo. Tal seria também o caso se essa entidade efetuar uma modificação substancial de um sistema de IA de risco elevado que já tenha sido colocado no mercado ou já tenha sido colocado em serviço de forma a que continue a ser um sistema de IA de risco elevado nos termos do presente regulamento, ou se alterar a finalidade prevista de um sistema de IA, incluindo um sistema de IA de finalidade geral, que não tenha sido classificado como sendo de risco elevado e já tenha sido colocado no mercado ou colocado em serviço, de forma a que o sistema de IA se torne um sistema de IA de risco elevado nos termos do presente regulamento. Essas disposições deverão aplicar-se sem prejuízo das disposições mais específicas estabelecidas em determinada legislação de harmonização da União com base no novo regime jurídico, conjuntamente com o presente regulamento. Por exemplo, o artigo 16.o, n.o 2, do Regulamento (UE) 2017/745, que estabelece que determinadas alterações não deverão ser consideradas alterações de um dispositivo suscetíveis de afetar a sua conformidade com os requisitos aplicáveis, deverá continuar a aplicar-se aos sistemas de IA de risco elevado que sejam dispositivos médicos na aceção do referido regulamento.
(85)
Systémy AI na všeobecné účely sa môžu používať ako vysokorizikové systémy AI samy osebe alebo môžu byť komponentmi iných vysokorizikových systémov AI. Vzhľadom na osobitnú povahu systémov AI na všeobecné účely a s cieľom zabezpečiť spravodlivé rozdelenie zodpovednosti v rámci hodnotového reťazca AI by poskytovatelia takýchto systémov mali bez ohľadu na to, či ich iní poskytovatelia používajú ako vysokorizikové systémy AI ako také alebo ako komponenty vysokorizikových systémov AI, a ak sa nestanovuje inak v tomto nariadení, mali úzko spolupracovať s poskytovateľmi príslušných vysokorizikových systémov AI s cieľom umožniť ich súlad s príslušnými povinnosťami podľa tohto nariadenia a spolupracovať aj s príslušnými orgánmi zriadenými podľa tohto nariadenia.
(85)
Sistemas de IA de finalidade geral podem ser utilizados por si próprios como sistemas de IA de risco elevado ou ser componentes de outros sistemas de IA de risco elevado. Por conseguinte, devido à sua natureza específica e a fim de assegurar uma partilha equitativa de responsabilidades ao longo da cadeia de valor da IA, os prestadores desses sistemas deverão, independentemente de poderem ser utilizados como sistemas de IA de risco elevado enquanto tal por outros prestadores ou como componentes de sistemas de IA de risco elevado, e salvo disposição em contrário no presente regulamento, deverão colaborar estreitamente com os prestadores dos sistemas de IA de risco elevado relevantes, a fim de permitir a sua conformidade com as obrigações pertinentes previstas no presente regulamento e com as autoridades competentes criadas nos termos do presente regulamento.
(86)
Ak by sa za podmienok stanovených v tomto nariadení poskytovateľ, ktorý pôvodne uviedol systém AI na trh alebo do prevádzky, už nemal považovať za poskytovateľa na účely tohto nariadenia a ak tento poskytovateľ výslovne nevylúčil zmenu systému AI na vysokorizikový systém AI, tento bývalý poskytovateľ by mal napriek tomu úzko spolupracovať a sprístupniť potrebné informácie a poskytnúť odôvodnene očakávaný technický prístup a inú pomoc, ktoré sú potrebné na splnenie povinností stanovených v tomto nariadení, najmä pokiaľ ide o súlad s posudzovaním zhody vysokorizikových systémov AI.
(86)
Se, nas condições estabelecidas no presente regulamento, o prestador que colocou inicialmente o sistema de IA no mercado ou o colocou em serviço deixar de ser considerado prestador para efeitos do presente regulamento, e se não tiver excluído expressamente a mudança do sistema de IA para um sistema de IA de risco elevado, o primeiro prestador deverá, no entanto, cooperar estreitamente e disponibilizar as informações necessárias e prestar o acesso técnico razoavelmente esperado e outra assistência necessária para o cumprimento das obrigações estabelecidas no presente regulamento, em especial no que diz respeito ao cumprimento da avaliação da conformidade dos sistemas de IA de risco elevado.
(87)
Ak sa navyše vysokorizikový systém AI, ktorý je bezpečnostným komponentom výrobku, ktorý patrí do rozsahu pôsobnosti harmonizačných právnych predpisov Únie založených na novom legislatívnom rámci, neuvádza na trh ani do prevádzky nezávisle od daného výrobku, výrobca výrobku vymedzený v uvedených právnych predpisoch by mal dodržiavať povinnosti poskytovateľa stanovené v tomto nariadení a mal by najmä zabezpečiť, aby systém AI zabudovaný do konečného výrobku spĺňal požiadavky tohto nariadenia.
(87)
Além disso, caso um sistema de IA de risco elevado que seja um componente de segurança de um produto abrangido pelo âmbito de aplicação da legislação de harmonização da União com base no novo regime jurídico não seja colocado no mercado ou colocado em serviço independentemente desse produto, o fabricante do produto, conforme definido na referida legislação deverá cumprir as obrigações dos prestadores previstas no presente regulamento e deverá, nomeadamente, assegurar que o sistema de IA integrado no produto final cumpre os requisitos do presente regulamento.
(88)
V rámci hodnotového reťazca AI viaceré strany často dodávajú systémy, nástroje a služby AI, ale aj komponenty alebo procesy, ktoré poskytovateľ začlení do systému AI s rôznymi cieľmi vrátane trénovania modelov, pretrénovania modelov, testovania a hodnotenia modelov, integrácie do softvéru alebo iných aspektov vývoja modelu. Uvedené strany zohrávajú dôležitú úlohu v hodnotovom reťazci vo vzťahu k poskytovateľovi vysokorizikového systému AI, do ktorého sú ich systémy, nástroje, služby, komponenty alebo procesy AI integrované, a mali by tomuto poskytovateľovi poskytnúť na základe písomnej dohody potrebné informácie, spôsobilosti, technický prístup a inú pomoc na základe všeobecne uznávaného aktuálneho stavu vývoja, aby si tento poskytovateľ mohol v plnej miere plniť povinnosti stanovené v tomto nariadení, a to bez toho, aby boli ohrozené ich vlastné práva duševného vlastníctva alebo obchodné tajomstvá.
(88)
Na cadeia de valor da IA, várias entidades disponibilizam frequentemente sistemas de IA, ferramentas e serviços, mas também componentes ou processos que são incorporados pelo prestador no sistema de IA com vários objetivos, nomeadamente o treino de modelos, a reciclagem do treino de modelos, a testagem e a avaliação de modelos, a integração em software ou outros aspetos do desenvolvimento de modelos. Essas entidades desempenham um papel importante na cadeia de valor para com o prestador do sistema de IA de risco elevado no qual os seus sistemas de IA, ferramentas, serviços, componentes ou processos estão integrados, e deverão facultar a esse prestador, mediante acordo escrito, as informações, capacidades, acesso técnico e demais assistência necessários com base no estado da arte geralmente reconhecido, a fim de permitir que o prestador cumpra plenamente as obrigações estabelecidas no presente regulamento, sem comprometer os seus próprios direitos de propriedade intelectual ou segredos comerciais.
(89)
Tretie strany, ktoré sprístupňujú verejnosti nástroje, služby, procesy, alebo komponenty AI iné ako modely AI na všeobecné účely, by nemali byť povinné dodržiavať požiadavky zamerané na povinnosti v celom hodnotovom reťazci AI, najmä voči poskytovateľovi, ktorý ich použil alebo integroval, ak sa tieto nástroje, služby, procesy alebo komponenty AI sprístupňujú na základe bezplatnej licencie s otvoreným zdrojovým kódom. Vývojári nástrojov, služieb, procesov, alebo komponentov AI iných ako modely AI na všeobecné účely, dostupných zdarma a s otvoreným zdrojovým kódom, by sa mali nabádať, aby implementovali všeobecne prijaté postupy pre dokumentáciu, ako sú vzorové karty a údajové hárky, ako spôsob urýchlenia výmeny informácií v rámci hodnotového reťazca AI, čím sa umožní podpora dôveryhodných systémov AI v Únii.
(89)
Os terceiros que tornam acessíveis ao público ferramentas, serviços, processos ou componentes de IA que não sejam modelos de IA de finalidade geral não deverão ser obrigados a cumprir requisitos que visem as responsabilidades ao longo da cadeia de valor da IA, em especial para com o prestador que os utilizou ou os integrou, quando essas ferramentas, serviços, processos ou componentes de IA são disponibilizados ao abrigo de uma licença gratuita e aberta. Os criadores de ferramentas, serviços, processos ou componentes de IA gratuitos e de fonte aberta que não sejam modelos de IA de finalidade geral deverão ser incentivados a aplicar práticas de documentação amplamente adotadas, como modelos de cartões e folhas de dados, como forma de acelerar a partilha de informações ao longo da cadeia de valor da IA, permitindo a promoção de sistemas de IA de confiança na União.
(90)
Komisia by mohla vypracovať a odporučiť nezáväzné vzorové zmluvné podmienky medzi poskytovateľmi vysokorizikových systémov AI a tretími stranami, ktoré dodávajú nástroje, služby, komponenty alebo procesy, ktoré sa používajú vo vysokorizikových systémoch AI alebo integrujú do takýchto systémov, s cieľom uľahčiť spoluprácu v celom hodnotovom reťazci. Pri vypracúvaní nezáväzných vzorových zmluvných podmienok by Komisia mala zohľadniť možné zmluvné požiadavky uplatniteľné v konkrétnych odvetviach alebo obchodných prípadoch.
(90)
A Comissão poderá desenvolver e recomendar modelos voluntários de cláusulas contratuais entre prestadores de sistemas de IA de risco elevado e terceiros que disponibilizem ferramentas, serviços, componentes ou processos utilizados ou integrados em sistemas de IA de risco elevado, a fim de facilitar a cooperação ao longo da cadeia de valor. Ao elaborar modelos de cláusulas contratuais voluntárias, a Comissão deverá também ter em conta eventuais requisitos contratuais aplicáveis em setores ou casos comerciais específicos.
(91)
Vzhľadom na povahu systémov AI a riziká pre bezpečnosť a základné práva, ktoré môžu súvisieť s ich používaním, a to aj pokiaľ ide o potrebu zabezpečiť riadne monitorovanie výkonu systému AI v reálnom prostredí, je vhodné stanoviť osobitné povinnosti nasadzujúce subjekty. Nasadzujúce subjekty by hlavne mali prijať technické a organizačné opatrenia s cieľom zabezpečiť, že používajú vysokorizikové systémy AI v súlade s návodom na použitie a mali by sa stanoviť určité ďalšie povinnosti, pokiaľ ide o monitorovanie fungovania systémov AI a prípadne aj vedenie záznamov. Nasadzujúce subjekty by okrem toho mali zabezpečiť, aby osoby poverené implementáciou návodu na použitie a vykonávaním ľudského dohľadu, ako sa stanovuje v tomto nariadení, mali potrebnú spôsobilosť, najmä primeranú úroveň gramotnosti v oblasti AI, odbornú prípravu a právomoc riadne plniť tieto úlohy. Týmito povinnosťami by nemali byť dotknuté iné povinnosti nasadzujúcich subjektov v súvislosti s vysokorizikovými systémami AI podľa práva Únie alebo vnútroštátneho práva.
(91)
Dada a natureza dos sistemas de IA e os riscos para a segurança e os direitos fundamentais possivelmente associados à sua utilização, nomeadamente no que respeita à necessidade de assegurar um controlo adequado do desempenho de um sistema de IA num cenário real, é apropriado determinar responsabilidades específicas para os responsáveis pela implantação. Em particular, os responsáveis pela implantação deverão tomar medidas técnicas e organizacionais adequadas para assegurar que utilizam os sistemas de IA de risco elevado de acordo com as instruções de utilização e deverão ser equacionadas outras obrigações relativas ao controlo do funcionamento dos sistemas de IA e à manutenção de registos, se for caso disso. Além disso, os responsáveis pela implantação deverão assegurar que as pessoas encarregadas de aplicar as instruções de utilização e de supervisão humana, tal como estabelecido no presente regulamento, têm as competências necessárias, em especial um nível adequado de literacia, formação e autoridade no domínio da IA para desempenhar adequadamente essas funções. Essas obrigações não deverão prejudicar outras obrigações do responsável pela implantação em relação a sistemas de IA de risco elevado nos termos do direito da União ou do direito nacional.
(92)
Týmto nariadením nie sú dotknuté povinnosti zamestnávateľov informovať pracovníkov alebo ich zástupcov a konzultovať s nimi podľa práva a praxe Únie alebo vnútroštátneho práva a praxe vrátane smernice Európskeho parlamentu a Rady 2002/14/ES (39), pokiaľ ide o rozhodnutia o uvedení do prevádzky alebo používaní systémov AI. Naďalej je potrebné zabezpečiť informovanie pracovníkov a ich zástupcov o plánovanom nasadení vysokorizikových systémov AI na pracovisku, keď nie sú splnené podmienky pre uvedené informovanie alebo informačné a konzultačné povinnosti stanovené v iných právnych nástrojoch. Takéto právo na informácie je navyše doplnkové a nevyhnutné z hľadiska cieľa ochrany základných práv, ktorý je základom tohto nariadenia. Preto by sa v tomto nariadení mala stanoviť požiadavka na informácie na tento účel bez toho, aby boli dotknuté akékoľvek existujúce práva pracovníkov.
(92)
O presente regulamento não prejudica a obrigação de os empregadores informarem ou de informarem e consultarem os trabalhadores ou os seus representantes, nos termos do direito e das práticas da União ou nacionais, incluindo a Diretiva 2002/14/CE do Parlamento Europeu e do Conselho (39), sobre as decisões de colocação em serviço ou de utilização de sistemas de IA. Continua a ser necessário garantir a informação dos trabalhadores e dos seus representantes sobre a implantação prevista de sistemas de IA de risco elevado no local de trabalho quando não estiverem cumpridas as condições para essas obrigações de informação ou de informação e consulta previstas noutros instrumentos jurídicos. Além disso, esse direito de informação é acessório e necessário ao objetivo de proteção dos direitos fundamentais subjacente ao presente regulamento. Por conseguinte, o presente regulamento deverá estabelecer um requisito de informação para esse efeito, sem afetar os direitos existentes dos trabalhadores.
(93)
Aj keď riziká súvisiace so systémami AI môžu vyplývať zo spôsobu, akým sú tieto systémy dizajnované, riziká môžu vyplývať aj z toho, ako sa tieto systémy AI používajú. Subjekty nasadzujúce vysokorizikový systém AI preto zohrávajú rozhodujúcu úlohu pri zabezpečovaní ochrany základných práv a dopĺňajú povinnosti poskytovateľa pri vývoji systému AI. Nasadzujúce subjekty majú najlepšie predpoklady na to, aby pochopili, ako sa bude vysokorizikový systém AI konkrétne používať, preto môžu identifikovať potenciálne významné riziká, ktoré sa vo fáze vývoja nepredpokladali, a to vďaka presnejším znalostiam kontextu používania, osôb alebo skupín osôb, ktorých sa to môže týkať, vrátane zraniteľných skupín. Subjekty nasadzujúce vysokorizikové systémy AI uvedené v prílohe k tomuto nariadeniu zároveň zohrávajú kritickú úlohu pri informovaní fyzických osôb a pri prijímaní rozhodnutí alebo prípadne pri pomoci s prijímaním rozhodnutí týkajúcich sa fyzických osôb by mali informovať fyzické osoby o tom, že sa na ne vzťahuje použitie vysokorizikového systému AI. Tieto informácie zahŕňajú zamýšľaný účel a typ rozhodnutí, ktoré prijímajú. Nasadzujúci subjekt by mal takisto informovať fyzické osoby o ich práve na vysvetlenie stanovenom v tomto nariadení. Pokiaľ ide o vysokorizikové systémy AI používané na účely presadzovania práva, uvedená povinnosť by sa mala implementovať v súlade s článkom 13 smernice (EÚ) 2016/680.
(93)
Ainda que os riscos relacionados com os sistemas de IA possam resultar da forma como esses sistemas são concebidos, tais riscos também podem decorrer da forma como os sistemas de IA são utilizados. Os responsáveis pela implantação de sistemas de IA de risco elevado desempenham, por conseguinte, um papel fundamental na garantia da proteção dos direitos fundamentais, complementando as obrigações do prestador aquando do desenvolvimento do sistema de IA. Os responsáveis pela implantação estão em melhor posição para entender de que forma o sistema de IA de risco elevado será utilizado em concreto, pelo que, graças a um conhecimento mais preciso do contexto de utilização, das pessoas ou grupos de pessoas suscetíveis de serem afetados, incluindo os grupos vulneráveis, conseguem identificar potenciais riscos significativos que não foram previstos na fase de desenvolvimento. Os responsáveis pela implantação de sistemas de IA de risco elevado enumerados num anexo do presente regulamento também desempenham um papel crítico na informação de pessoas singulares e deverão, quando tomam decisões ou ajudam a tomar decisões relacionadas com pessoas singulares, conforme o caso, informar as pessoas singulares de que estão sujeitas à utilização do sistema de IA de risco elevado. Essas informações deverão incluir a finalidade prevista e o tipo de decisões que toma. O responsável pela implantação deverá também informar as pessoas singulares do seu direito à explicação a que se refere o presente regulamento. No que diz respeito aos sistemas de IA de risco elevado utilizados para fins de aplicação da lei, essa obrigação deverá ser aplicada em conformidade com o artigo 13.o da Diretiva (UE) 2016/680.
(94)
Každé spracúvanie biometrických údajov pri používaní systémov AI na biometrickú identifikáciu na účely presadzovania práva musí byť v súlade s článkom 10 smernice (EÚ) 2016/680, ktorý umožňuje takéto spracúvanie len vtedy, keď je to nevyhnutne potrebné, s výhradou primeraných záruk ochrany práv a slobôd dotknutej osoby a ak je to povolené právom Únie alebo členského štátu. Pri takomto používaní, ak je povolené, sa musia dodržiavať aj zásady stanovené v článku 4 ods. 1 smernice (EÚ) 2016/680 vrátane zákonnosti, spravodlivosti a transparentnosti, obmedzenia účelu, presnosti a obmedzenia uchovávania.
(94)
Qualquer tratamento de dados biométricos envolvido na utilização de sistemas de IA destinados à identificação biométrica para efeitos de aplicação da lei tem de cumprir o disposto no artigo 10.o da Diretiva (UE) 2016/680, segundo o qual tal tratamento só é autorizado se for estritamente necessário, se estiver sujeito a garantias adequadas dos direitos e liberdades do titular dos dados e se for autorizado pelo direito da União ou de um Estado-Membro. Essa utilização, quando autorizada, também tem de respeitar os princípios estabelecidos no artigo 4.o, n.o 1, da Diretiva (UE) 2016/680, nomeadamente a licitude, a lealdade e a transparência, a limitação da finalidade, a exatidão e a limitação da conservação.
(95)
Bez toho, aby bolo dotknuté uplatniteľné právo Únie, najmä nariadenie (EÚ) 2016/679 a smernica (EÚ) 2016/680, vzhľadom na rušivý charakter systémov následnej diaľkovej biometrickej identifikácie, by používanie systémov následnej diaľkovej biometrickej identifikácie malo podliehať zárukám. Systémy následnej diaľkovej biometrickej identifikácie by sa mali vždy používať spôsobom, ktorý je primeraný, legitímny a nevyhnutne potrebný, a teda cielený, pokiaľ ide o osoby, ktoré sa majú identifikovať, miesto a časový rozsah a mali by vychádzať z uzavretého súboru údajov zo zákonne získaných videozáznamov. V každom prípade by sa systémy následnej diaľkovej biometrickej identifikácie nemali používať v rámci presadzovania práva s cieľom viesť k nerozlišujúcemu sledovaniu. Podmienky pre následnú diaľkovú biometrickú identifikáciu by v žiadnom prípade nemali poskytovať základ na obchádzanie podmienok zákazu a prísnych výnimiek pre diaľkovú biometrickú identifikáciu v reálnom čase.
(95)
Sem prejuízo do direito da União aplicável, nomeadamente do Regulamento (UE) 2016/679 e da Diretiva (UE) 2016/680, tendo em conta a natureza intrusiva dos sistemas de identificação biométrica à distância em diferido, a utilização de sistemas de identificação biométrica à distância em diferido deverá estar sujeita a salvaguardas. Os sistemas de identificação biométrica à distância em diferido deverão ser sempre utilizados de uma forma proporcionada, legítima e estritamente necessária e, por conseguinte, orientada, em termos das pessoas a identificar, da localização, do âmbito temporal e com base num conjunto de dados fechados de imagens vídeo captadas licitamente. Em qualquer caso, os sistemas de identificação biométrica à distância em diferido não deverão ser utilizados no âmbito da aplicação da lei para conduzir a uma vigilância indiscriminada. As condições para a identificação biométrica à distância em diferido não deverão, em caso algum, constituir uma base para contornar as condições da proibição e as exceções rigorosas aplicáveis à identificação biométrica à distância em tempo real.
(96)
S cieľom účinne zabezpečiť ochranu základných práv by subjekty nasadzujúce vysokorizikové systémy AI, ktoré sú subjektmi, ktoré sa spravujú verejným právom, alebo súkromnými subjektmi poskytujúcimi verejné služby a subjekty nasadzujúce určité vysokorizikové systémy AI uvedené v zozname v prílohe k tomuto nariadeniu, ako sú bankové alebo poisťovacie subjekty, mali pred ich uvedením do používania vykonať posúdenie vplyvu na základné práva. Služby dôležité pre jednotlivcov, ktoré sú verejného charakteru, môžu poskytovať aj súkromné subjekty. Súkromné subjekty poskytujúce takéto verejné služby sú spojené s úlohami vo verejnom záujme, ako napríklad v oblastiach vzdelávania, zdravotnej starostlivosti, sociálnych služieb, bývania, výkonu spravodlivosti. Cieľom posúdenia vplyvu na základné práva je, aby nasadzujúci subjekt identifikoval konkrétne riziká pre práva jednotlivcov alebo skupín jednotlivcov, ktorí by mohli byť dotknutí, a určiť opatrenia, ktoré sa majú prijať v prípade naplnenia uvedených rizík. Posúdenie vplyvu by sa malo vykonať pred nasadením vysokorizikového systému AI a malo by sa aktualizovať, keď nasadzujúci subjekt usúdi, že sa niektorý z relevantných faktorov zmenil. V posúdení vplyvu by sa mali určiť príslušné procesy nasadzujúceho subjektu, v ktorých sa bude vysokorizikový systém AI používať v súlade s jeho zamýšľaným účelom, a malo by obsahovať opis obdobia a frekvencie, v ktorých sa má systém používať, ako aj konkrétnych kategórií fyzických osôb a skupín, ktoré by mohli byť ovplyvnené v konkrétnom kontexte používania. Posúdenie by malo zahŕňať aj identifikáciu osobitných rizík ujmy, ktoré by mohli mať vplyv na základné práva uvedených osôb alebo skupín. Pri vykonávaní tohto posúdenia by nasadzujúci subjekt mal zohľadniť informácie relevantné pre riadne posúdenie vplyvu, okrem iného vrátane informácií, ktoré poskytovateľ vysokorizikového systému AI poskytol v návode na použitie. Vzhľadom na zistené riziká by nasadzujúce subjekty mali určiť opatrenia, ktoré sa majú prijať v prípade naplnenia uvedených rizík, vrátane napríklad mechanizmov správy a riadenia v tomto konkrétnom kontexte používania, ako sú mechanizmy ľudského dohľadu podľa návodu na použitie alebo postupy vybavovania sťažností a nápravy, keďže by mohli byť nápomocné pri zmierňovaní rizík pre základné práva v konkrétnych prípadoch použitia. Po vykonaní uvedeného posúdenia vplyvu by nasadzujúci subjekt mal informovať príslušný orgán dohľadu nad trhom. Na zhromažďovanie relevantných informácií potrebných na vykonanie posúdenia vplyvu by subjekty nasadzujúce vysokorizikový systém AI, najmä ak sa systémy AI používajú vo verejnom sektore, mohli do vykonávania takýchto posúdení vplyvu a koncipovania opatrení, ktoré sa majú prijať v prípade naplnenia rizík, zapojiť príslušné zainteresované strany vrátane zástupcov skupín osôb, ktoré by mohli byť ovplyvnené systémom AI, nezávislých expertov a organizácie občianskej spoločnosti. Európsky úrad pre umelú inteligenciu (ďalej len „úrad pre AI“) by mal vypracovať vzor dotazníka s cieľom uľahčiť dodržiavanie predpisov a znížiť administratívne zaťaženie nasadzujúcich subjektov.
(96)
A fim de assegurar de forma eficiente a proteção dos direitos fundamentais, os responsáveis pela implantação de sistemas de IA de risco elevado que sejam organismos de direito público, ou as entidades privadas que prestam serviços públicos e os responsáveis pela implantação de determinados sistemas de IA de risco elevado enumerados num anexo do presente regulamento, como as entidades bancárias ou seguradoras, deverão realizar uma avaliação do seu impacto nos direitos fundamentais antes da sua colocação em serviço. Os serviços de natureza pública importantes para as pessoas também podem ser prestados por entidades privadas. As entidades privadas que prestam esses serviços públicos estão ligados a funções de interesse público, designadamente nos domínios da educação, dos cuidados de saúde, dos serviços sociais, da habitação e da administração da justiça. O objetivo da avaliação do impacto nos direitos fundamentais é que o responsável pela implantação identifique os riscos específicos para os direitos das pessoas ou grupos de pessoas suscetíveis de serem afetados e identifique as medidas a tomar em caso de concretização desses riscos. A avaliação de impacto deverá ser efetuada antes da implantação do sistema de IA de risco elevado e deverá ser atualizada quando o responsável pela implantação considerar que qualquer um dos fatores pertinentes se alterou. A avaliação de impacto deverá identificar os processos pertinentes do responsável pela implantação em que o sistema de IA de risco elevado será utilizado em conformidade com a sua finalidade prevista e deverá incluir uma descrição do período e da frequência em que o sistema se destina a ser utilizado, bem como de categorias específicas de pessoas singulares e grupos suscetíveis de serem afetados no contexto específico de utilização. A avaliação deverá também incluir a identificação de riscos específicos de danos suscetíveis de ter impacto nos direitos fundamentais dessas pessoas ou grupos. Ao realizar esta avaliação, o responsável pela implantação deverá ter em conta as informações pertinentes para uma avaliação adequada do impacto, incluindo, mas não exclusivamente, as informações facultadas pelo prestador do sistema de IA de risco elevado nas instruções de utilização. À luz dos riscos identificados, os responsáveis pela implantação deverão determinar as medidas a tomar em caso de concretização desses riscos, incluindo, por exemplo, mecanismos de governação nesse contexto específico de utilização, tais como mecanismos de supervisão humana de acordo com as instruções de utilização ou procedimentos de tratamento de queixas e de reparação, uma vez que poderão ser fundamentais para atenuar os riscos para os direitos fundamentais em casos concretos de utilização. Após a realização dessa avaliação de impacto, o responsável pela implantação deverá notificar a autoridade de fiscalização do mercado competente. Se for caso disso, para recolher as informações pertinentes necessárias para realizar a avaliação de impacto, os responsáveis pela implantação de sistemas de IA de risco elevado, em especial quando os sistemas de IA são utilizados no setor público, poderão implicar as partes interessadas pertinentes, incluindo os representantes de grupos de pessoas suscetíveis de serem afetadas pelo sistema de IA, peritos independentes e organizações da sociedade civil, na realização dessas avaliações de impacto e na conceção de medidas a tomar em caso de concretização dos riscos. O Serviço Europeu para a Inteligência Artificial («Serviço para a IA») deverá desenvolver um modelo de questionário, a fim de facilitar a conformidade e reduzir os encargos administrativos para os responsáveis pela implantação.
(97)
Pojem modely AI na všeobecné účely by sa mal jasne vymedziť a oddeliť od pojmu systémy AI, aby sa umožnila právna istota. Toto vymedzenie by malo byť založené na kľúčových funkčných charakteristikách modelu AI na všeobecné účely, najmä na všeobecnej povahe a spôsobilosti kompetentne vykonávať širokú škálu rôznych úloh. Tieto modely sa zvyčajne trénujú na veľkých množstvách údajov prostredníctvom rôznych metód, ako je učenie sa pod vlastným dohľadom, učenie sa bez dohľadu alebo posilňovacie učenie. Modely AI na všeobecné účely sa môžu uvádzať na trh rôznymi spôsobmi, a to aj prostredníctvom knižníc, aplikačných programovacích rozhraní, priamym sťahovaním alebo fyzickým kopírovaním. Tieto modely sa môžu ďalej upravovať alebo dolaďovať na nové modely. Hoci sú modely AI základnými komponentmi systémov AI, samy osebe nepredstavujú systémy AI. Modely AI si vyžadujú pridanie ďalších komponentov, ako je napríklad používateľské rozhranie, aby sa z nich stali systémy AI. Modely AI sú zvyčajne integrované do systémov AI a tvoria ich súčasť. V tomto nariadení sa stanovujú osobitné pravidlá pre modely AI na všeobecné účely a modely AI na všeobecné účely, ktoré predstavujú systémové riziká, ktoré by sa mali uplatňovať aj vtedy, keď sú tieto modely integrované do systému AI alebo tvoria jeho súčasť. Malo by byť zrejmé, že povinnosti poskytovateľov modelov AI na všeobecné účely by sa mali uplatňovať po uvedení modelov AI na všeobecné účely na trh. Ak poskytovateľ modelu AI na všeobecné účely integruje vlastný model do svojho vlastného systému AI, ktorý je sprístupnený na trhu alebo do prevádzky, tento model by sa mal považovať za uvedený na trh, a preto by sa povinnosti stanovené v tomto nariadení pre modely mali naďalej uplatňovať popri povinnostiach týkajúcich sa systémov AI. Povinnosti stanovené pre modely by sa v žiadnom prípade nemali uplatňovať, ak sa vlastný model používa na čisto vnútorné procesy, ktoré nie sú nevyhnutné na poskytovanie výrobku alebo služby tretím stranám, a práva fyzických osôb nie sú dotknuté. Vzhľadom na ich potenciálne výrazne negatívne účinky by sa na modely AI na všeobecné účely so systémovým rizikom mali vždy vzťahovať príslušné povinnosti podľa tohto nariadenia. Vymedzenie pojmu by sa nemalo vzťahovať na modely AI používané pred ich uvedením na trh výlučne na účely činností v oblasti výskumu, vývoja a vytvárania prototypov. Týmto nie je dotknutá povinnosť dodržiavať toto nariadenie, keď sa po uskutočnení týchto činností uvádza model na trh.
(97)
O conceito de modelos de IA de finalidade geral deverá ser claramente definido e distinguido do conceito de sistemas de IA, a fim de proporcionar segurança jurídica. A definição deverá basear-se nas principais características funcionais de um modelo de IA de finalidade geral, em especial na generalidade e na capacidade de desempenhar com competência uma vasta gama de funções distintas. Estes modelos são normalmente treinados com grandes quantidades de dados, através de vários métodos, como a aprendizagem autossupervisionada, não supervisionada ou por reforço. Os modelos de IA de finalidade geral podem ser colocados no mercado de várias formas, nomeadamente através de bibliotecas, interfaces de programação de aplicações, para descarregamento direto ou como cópia física. Estes modelos podem ser alterados ou aperfeiçoados em novos modelos. Embora os modelos de IA sejam componentes essenciais dos sistemas de IA, não constituem, por si só, sistemas de IA. Os modelos de IA exigem a adição de outros componentes, como, por exemplo, uma interface de utilizador, para se tornarem sistemas de IA. Os modelos de IA são tipicamente integrados e fazem parte integrante dos sistemas de IA. O presente regulamento estabelece regras específicas para os modelos de IA de finalidade geral e para os modelos de IA de finalidade geral que apresentam riscos sistémicos, as quais se deverão aplicar também quando estes modelos são integrados ou fazem parte integrante de um sistema de IA. Deverá entender-se que as obrigações dos prestadores de modelos de IA de finalidade geral deverão aplicar-se assim que os modelos de IA de finalidade geral sejam colocados no mercado. Quando o prestador de um modelo de IA de finalidade geral integra um modelo próprio no seu próprio sistema de IA que é disponibilizado no mercado ou colocado em serviço, esse modelo deverá ser considerado colocado no mercado e, por conseguinte, as obrigações previstas no presente regulamento para os modelos deverão continuar a aplicar-se para além das obrigações aplicáveis aos sistemas de IA. As obrigações estabelecidas para os modelos não deverão, em caso algum, aplicar-se quando um modelo próprio for utilizado para processos puramente internos não essenciais para disponibilizar um produto ou um serviço a terceiros e os direitos das pessoas singulares não forem afetados. Tendo em conta os seus potenciais efeitos significativamente negativos, os modelos de IA de finalidade geral com risco sistémico deverão estar sempre sujeitos às obrigações pertinentes nos termos do presente regulamento. A definição não deverá abranger os modelos de IA utilizados antes da sua colocação no mercado exclusivamente para fins de atividades de investigação, desenvolvimento e prototipagem. Tal não prejudica a obrigação de cumprir o presente regulamento quando, na sequência dessas atividades, um modelo for colocado no mercado.
(98)
Zatiaľ čo všeobecná povaha modelu by sa mohla okrem iného určiť aj na základe viacerých parametrov, modely s aspoň miliardou parametrov a trénované s veľkým množstvom údajov s využitím vlastného dohľadu vo veľkom rozsahu by sa mali považovať za modely, ktoré vykazujú významnú všeobecnú povahu a kompetentne vykonávajú širokú škálu osobitných úloh.
(98)
Embora a generalidade de um modelo possa, entre outros critérios, ser também determinada por vários parâmetros, deverá considerar-se os modelos com, pelo menos, mil milhões de parâmetros e treinados com uma grande quantidade de dados utilizando a autossupervisão em escala para apresentar uma generalidade significativa e executar com competência uma vasta gama de tarefas distintas.
(99)
Veľké generatívne modely AI sú typickým príkladom modelu AI na všeobecné účely vzhľadom na to, že umožňujú flexibilnú tvorbu obsahu napríklad vo forme textu, zvuku, obrázkov alebo videa, pričom dokážu ľahko zvládnuť širokú škálu osobitných úloh.
(99)
Os grandes modelos generativos de IA são um exemplo típico de um modelo de IA de finalidade geral, uma vez que permitem a geração flexível de conteúdos, por exemplo, sob a forma de texto, áudio, imagens ou vídeo, que podem facilmente adaptar-se a uma vasta gama de tarefas distintas.
(100)
Ak je model AI na všeobecné účely integrovaný do systému AI alebo je jeho súčasťou, tento systém by sa mal považovať za systém AI na všeobecné účely, ak je tento systém v dôsledku tejto integrácie spôsobilý slúžiť na rôzne účely. Systém AI na všeobecné účely sa môže používať priamo alebo môže byť integrovaný do iných systémov AI.
(100)
Quando um modelo de IA de finalidade geral é integrado num sistema de IA ou dele faz parte integrante, este sistema deverá ser considerado um sistema de IA de finalidade geral se, graças a esta integração, tiver a capacidade de servir uma variedade de finalidades. Um sistema de IA de finalidade geral pode ser utilizado diretamente ou ser integrado em outros sistemas de IA.
(101)
Poskytovatelia modelov AI na všeobecné účely majú osobitnú úlohu a zodpovednosť v hodnotovom reťazci AI, keďže modely, ktoré poskytujú, môžu tvoriť základ pre celý rad nadväzujúcich systémov, ktoré často poskytujú nadväzujúci poskytovatelia, čo si vyžaduje dobré pochopenie modelov a ich spôsobilostí, a to s cieľom umožniť integráciu takýchto modelov do ich výrobkov, ako aj plniť svoje povinnosti podľa tohto alebo iných nariadení. Preto by sa mali stanoviť primerané opatrenia v oblasti transparentnosti vrátane vypracovania a aktualizácie dokumentácie a poskytovania informácií o modeli AI na všeobecné účely na jeho používanie nadväzujúcimi poskytovateľmi. Poskytovateľ modelu AI na všeobecné účely by mal vypracovať a aktualizovať technickú dokumentáciu na účely jej sprístupnenia na požiadanie úradu pre AI a vnútroštátnym príslušným orgánom. V osobitných prílohách k tomuto nariadeniu by sa mal stanoviť minimálny súbor prvkov, ktoré sa majú zahrnúť do takejto dokumentácie. Vzhľadom na nepretržitý technologický vývoj by Komisia mala byť oprávnená meniť uvedené prílohy prostredníctvom delegovaných aktov.
(101)
Os prestadores de modelos de IA de finalidade geral têm um papel e uma responsabilidade específicos na cadeia de valor da IA, uma vez que os modelos que facultam podem constituir a base de uma série de sistemas a jusante, muitas vezes disponibilizados por prestadores a jusante que precisam de ter uma boa compreensão dos modelos e das suas capacidades, tanto para permitir a integração desses modelos nos seus produtos como para cumprir as suas obrigações nos termos deste ou de outros regulamentos. Por conseguinte, deverão ser previstas medidas de transparência proporcionadas, incluindo a elaboração e a atualização da documentação e a prestação de informações sobre o modelo de IA de finalidade geral para a sua utilização pelos prestadores a jusante. A documentação técnica deverá ser elaborada e mantida atualizada pelo prestador do modelo de IA de finalidade geral para efeitos da sua disponibilização, mediante pedido, ao Serviço para a IA e às autoridades nacionais competentes. O conjunto mínimo de elementos a incluir nessa documentação deverá ser estabelecido em anexos específicos do presente regulamento. A Comissão deverá estar habilitada a alterar esses anexos por meio de atos delegados à luz da evolução tecnológica.
(102)
Softvér a údaje vrátane modelov, ktoré sa vydávajú na základe bezplatnej licencie s otvoreným zdrojovým kódom, ktorá umožňuje ich otvorené zdieľanie a v rámci ktorej majú používatelia voľný prístup k nim alebo ich upraveným verziám, môžu ich voľne používať, upravovať a redistribuovať, majú potenciál prispieť k výskumu a inovácii na trhu a poskytnúť hospodárstvu Únie významné príležitosti na rast. Modely AI na všeobecné účely, ktoré sa vydávajú na základe bezplatných licencií s otvoreným zdrojovým kódom, by sa mali považovať za zabezpečujúce vysokú úroveň transparentnosti a otvorenosti, ak sú ich parametre vrátane váh, informácií o architektúre modelu a informácií o používaní modelu verejne dostupné. Licencia by sa mala považovať za bezplatnú a s otvoreným zdrojovým kódom aj vtedy, keď umožňuje používateľom prevádzkovať, kopírovať, distribuovať, študovať, meniť a zlepšovať softvér a údaje vrátane modelov pod podmienkou, že sa pôvodnému poskytovateľovi modelu pripíše kredit a že sa dodržia rovnaké alebo porovnateľné podmienky distribúcie.
(102)
O software e os dados, incluindo os modelos, lançados ao abrigo de uma licença gratuita e de fonte aberta que lhes permita serem partilhados abertamente e que permita aos utilizadores aceder-lhes livremente, utilizá-los, modificá-los e redistribuí-los, ou a versões modificadas dos mesmos, podem contribuir para a investigação e a inovação no mercado e podem proporcionar oportunidades de crescimento significativas para a economia da União. Deverá considerar-se que os modelos de IA de finalidade geral lançados ao abrigo de licenças gratuitas e de fonte aberta asseguram elevados níveis de transparência e abertura se os seus parâmetros, incluindo as ponderações, as informações sobre a arquitetura do modelo e as informações sobre a utilização do modelo, forem disponibilizados ao público. A licença deverá também ser considerada gratuita e de fonte aberta quando permite aos utilizadores executar, copiar, distribuir, estudar, alterar e melhorar o software e os dados, incluindo os modelos, na condição de serem atribuídos os créditos ao prestador original do modelo e de serem respeitadas as condições de distribuição idênticas ou comparáveis.
(103)
Bezplatné komponenty AI s otvoreným zdrojovým kódom zahŕňajú softvér a údaje vrátane modelov a modelov AI na všeobecné účely, nástrojov, služieb alebo procesov systému AI. Bezplatné komponenty AI s otvoreným zdrojovým kódom možno poskytovať prostredníctvom rôznych kanálov vrátane ich vývoja v otvorených archívoch. Na účely tohto nariadenia by sa na komponenty AI, ktoré sa poskytujú za odplatu alebo inak speňažujú, a to aj prostredníctvom poskytovania technickej podpory alebo iných služieb, vrátane softvérovej platformy, ktoré súvisia s komponentom AI, alebo použitia osobných údajov z iných dôvodov než výlučne na zlepšenie bezpečnosti, kompatibility alebo interoperability softvéru, s výnimkou transakcií medzi mikropodnikmi, nemali vzťahovať výnimky poskytované bezplatným komponentom AI s otvoreným zdrojovým kódom. Sprístupnenie komponentov AI prostredníctvom otvorených archívov by samo osebe nemalo predstavovať speňaženie.
(103)
Componentes de IA gratuitos e de fonte aberta abrangem o software e os dados, incluindo modelos e modelos de IA de finalidade geral, ferramentas, serviços ou processos de um sistema de IA. Os componentes de IA gratuitos e de fonte aberta podem ser disponibilizados através de diferentes canais, nomeadamente o seu desenvolvimento em repositórios abertos. Para efeitos do presente regulamento, os componentes de IA disponibilizados por um preço ou convertidos em dinheiro de outra forma, nomeadamente no âmbito da prestação de apoio técnico ou de outros serviços (inclusive através de uma plataforma de software) relacionados com o componente de IA, ou a utilização de dados pessoais por motivos que não sejam exclusivamente para melhorar a segurança, a compatibilidade ou a interoperabilidade do software, com exceção das transações entre microempresas, não deverão beneficiar das exceções previstas para os componentes de IA gratuitos e de fonte aberta. O facto de disponibilizar componentes de IA através de repositórios abertos não deverá, por si só, constituir uma conversão em dinheiro.
(104)
Poskytovatelia modelov AI na všeobecné účely, ktoré sa vydávajú na základe bezplatnej licencie s otvoreným zdrojovým kódom a ktorých parametre vrátane váh, informácií o architektúre modelu a informácií o používaní modelu sú verejne dostupné, by mali podliehať výnimkám, pokiaľ ide o požiadavky na transparentnosť týkajúce sa modelov AI na všeobecné účely, pokiaľ ich nemožno považovať za modely predstavujúce systémové riziko, pričom v takom prípade by sa okolnosť, že model je transparentný a sprevádzaný licenciou s otvoreným zdrojovým kódom, nemala považovať za dostatočný dôvod na vylúčenie dodržiavania povinností podľa tohto nariadenia. V každom prípade vzhľadom na to, že pri vydávaní modelov AI na všeobecné účely na základe bezplatnej licencie s otvoreným zdrojovým kódom sa nemusia nevyhnutne odhaliť podstatné informácie o súbore údajov použitom na trénovanie alebo doladenie modelu a o tom, ako sa tým zabezpečilo dodržiavanie autorského práva, výnimka stanovená pre modely AI na všeobecné účely z dodržiavania požiadaviek týkajúcich sa transparentnosti by sa nemala týkať povinnosti predložiť zhrnutie obsahu použitého na trénovanie modelu a povinnosti zaviesť politiku dodržiavania autorského práva Únie, najmä s cieľom identifikovať a rešpektovať výhrady práv vyjadrené podľa článku 4 ods. 3 smernice Európskeho parlamentu a Rady (EÚ) 2019/790 (40).
(104)
Os prestadores de modelos de IA de finalidade geral lançados ao abrigo de uma licença gratuita e de fonte aberta e cujos parâmetros, incluindo as ponderações, as informações sobre a arquitetura do modelo e as informações sobre a utilização de modelos, são disponibilizados ao público deverão ser objeto de exceções no que diz respeito aos requisitos relacionados com a transparência impostos aos modelos de IA de finalidade geral, a menos que se possa considerar que apresentam um risco sistémico, caso em que a circunstância de o modelo ser transparente e acompanhado de uma licença de fonte aberta não deverá ser considerada um motivo suficiente para excluir o cumprimento das obrigações previstas no presente regulamento. Em todo o caso, uma vez que o lançamento de modelos de IA de finalidade geral ao abrigo de licenças gratuitas e de fonte aberta não revela necessariamente informações substanciais sobre o conjunto de dados utilizado para o treino ou aperfeiçoamento do modelo nem sobre a forma como foi assegurada a conformidade da legislação em matéria de direitos de autor, a exceção prevista para os modelos de IA de finalidade geral ao cumprimento dos requisitos relacionados com a transparência não deverá dizer respeito à obrigação de elaborar um resumo sobre os conteúdos utilizados para o treino de modelos nem à obrigação de aplicar uma política de cumprimento da legislação da União em matéria de direitos de autor, em especial para identificar e cumprir a reserva de direitos prevista no artigo 4.o, n.o 3, da Diretiva (UE) 2019/790 do Parlamento Europeu e do Conselho (40).
(105)
Modely AI na všeobecné účely, najmä veľké generatívne modely AI schopné generovať text, obrázky a iný obsah, predstavujú jedinečné inovačné príležitosti, ale aj výzvy pre umelcov, autorov a iných tvorcov a pre spôsob, akým sa ich tvorivý obsah vytvára, distribuuje, používa a spotrebúva. Vývoj a trénovanie takýchto modelov si vyžaduje prístup k obrovskému množstvu textov, obrázkov, videí a iných údajov. Techniky hĺbkovej analýzy textov a údajov sa môžu v tejto súvislosti vo veľkej miere používať na vyhľadávanie a analýzu takéhoto obsahu, ktorý môže byť chránený autorským právom a s ním súvisiacimi právami. Akékoľvek použitie obsahu chráneného autorským právom si vyžaduje povolenie príslušného nositeľa práv, pokiaľ sa neuplatňujú príslušné výnimky a obmedzenia autorského práva. Smernicou (EÚ) 2019/790 sa zaviedli výnimky a obmedzenia, ktoré za určitých podmienok umožňujú rozmnožovanie a extrakciu diel alebo iných predmetov ochrany na účely hĺbkovej analýzy textov a údajov. Podľa týchto pravidiel sa nositelia práv môžu rozhodnúť vyhradiť svoje práva na svoje diela alebo iné predmety ochrany s cieľom zabrániť hĺbkovej analýze textov a údajov, pokiaľ sa to neuskutočňuje na účely vedeckého výskumu. Ak boli práva na neposkytnutie prístupu výslovne vyhradené vhodným spôsobom, poskytovatelia modelov AI na všeobecné účely musia získať povolenie nositeľov práv, ak chcú vykonať hĺbkovú analýzu textov a údajov v súvislosti s takýmito dielami.
(105)
Os modelos de IA de finalidade geral, em especial os grandes modelos generativos de IA, capazes de gerar texto, imagens e outros conteúdos, apresentam oportunidades de inovação únicas, mas também desafios para artistas, autores e outros criadores e para a forma como os seus conteúdos criativos são criados, distribuídos, utilizados e consumidos. O desenvolvimento e o treino de tais modelos exigem o acesso a grandes quantidades de texto, imagens, vídeos e outros dados. As técnicas de prospeção de textos e dados podem ser amplamente utilizadas neste contexto para recuperar e analisar esses conteúdos, que podem ser protegidos por direitos de autor e direitos conexos. Qualquer utilização de conteúdos protegidos por direitos de autor exige a autorização dos titulares dos direitos em causa, a menos que se apliquem exceções e limitações pertinentes em matéria de direitos de autor. A Diretiva (UE) 2019/790 introduziu exceções e limitações que permitem reproduções e extrações de obras ou outro material para efeitos de prospeção de textos e dados, sob determinadas condições. Ao abrigo destas regras, os titulares de direitos podem optar por reservar os seus direitos sobre as suas obras ou outro material para impedir a prospeção de textos e dados, a menos que tal seja feito para fins de investigação científica. Sempre que os direitos de exclusão tenham sido expressamente reservados de forma adequada, os prestadores de modelos de IA de finalidade geral têm de obter uma autorização dos titulares de direitos caso pretendam realizar uma prospeção de textos e dados nessas obras.
(106)
Poskytovatelia, ktorí uvádzajú modely AI na všeobecné účely na trh Únie, by mali zabezpečiť súlad s príslušnými povinnosťami stanovenými v tomto nariadení. Na tento účel by poskytovatelia modelov AI na všeobecné účely mali zaviesť politiku dodržiavania práva Únie v oblasti autorského práva a s ním súvisiacich práv, najmä s cieľom identifikovať a dodržiavať výhradu práv vyjadrenú nositeľmi práv podľa článku 4 ods. 3 smernice (EÚ) 2019/790. Každý poskytovateľ, ktorý uvádza model AI na všeobecné účely na trh Únie, by mal splniť túto povinnosť bez ohľadu na jurisdikciu, v ktorej sa uskutočňujú akty týkajúce sa autorských práv, ktoré sú základom trénovania uvedených modelov AI na všeobecné účely. Je to potrebné na zabezpečenie rovnakých podmienok medzi poskytovateľmi modelov AI na všeobecné účely, v rámci ktorých by žiadny poskytovateľ nemal mať možnosť získať konkurenčnú výhodu na trhu Únie uplatňovaním nižších noriem v oblasti autorských práv, ako sú normy stanovené v Únii.
(106)
Os prestadores que colocam modelos de IA de finalidade geral no mercado da União deverão assegurar o cumprimento das obrigações pertinentes previstas no presente regulamento. Para o efeito, os prestadores de modelos de IA de finalidade geral deverão pôr em prática uma política que cumpra o direito da União em matéria de direitos de autor e direitos conexos, em especial para identificar e cumprir a reserva de direitos expressa pelos titulares de direitos nos termos do artigo 4.o, n.o 3, da Diretiva (UE) 2019/790. Qualquer prestador que coloque um modelo de IA de finalidade geral no mercado da União deverá cumprir esta obrigação, independentemente da jurisdição em que têm lugar os atos relevantes em matéria de direitos de autor subjacentes ao treino desses modelos de IA de finalidade geral. Tal é necessário para assegurar condições de concorrência equitativas entre os prestadores de modelos de IA de finalidade geral em que nenhum prestador possa obter uma vantagem competitiva no mercado da União aplicando normas de direitos de autor menos rigorosas do que as previstas na União.
(107)
S cieľom zvýšiť transparentnosť údajov, ktoré sa používajú pri predbežnom trénovaní a trénovaní modelov AI na všeobecné účely vrátane textu a údajov chránených autorským právom, je vhodné, aby poskytovatelia takýchto modelov vypracovali a zverejnili dostatočne podrobné zhrnutie obsahu použitého na trénovanie modelu AI na všeobecné účely. Pri náležitom zohľadnení potreby chrániť obchodné tajomstvo a dôverné obchodné informácie by toto zhrnutie malo byť vo všeobecnosti komplexné, pokiaľ ide o jeho rozsah pôsobnosti, a nie technicky podrobné, aby sa stranám s oprávnenými záujmami vrátane nositeľov autorských práv uľahčilo uplatňovanie a presadzovanie ich práv podľa práva Únie, napríklad uvedením hlavných zbierok alebo súborov údajov, ktoré boli súčasťou trénovania modelu, ako sú veľké súkromné alebo verejné databázy alebo archívy údajov, a poskytnutím opisného vysvetlenia k iným použitým zdrojom údajov. Je vhodné, aby úrad pre AI poskytol vzor zhrnutia, ktorý by mal byť jednoduchý, efektívny a mal by poskytovateľovi umožniť poskytnúť požadované zhrnutie v opisnej forme.
(107)
A fim de aumentar a transparência dos dados utilizados no treino prévio e no treino de modelos de IA de finalidade geral, incluindo textos e dados protegidos pela legislação em matéria de direitos de autor, é adequado que os prestadores desses modelos elaborem e disponibilizem ao público um resumo suficientemente pormenorizado dos conteúdos utilizados para o treino do modelo de IA de finalidade geral. Embora tendo devidamente em conta a necessidade de proteger os segredos comerciais e as informações comerciais de caráter confidencial, esse resumo deverá, de um modo geral, ser abrangente no seu âmbito de aplicação, em vez de ser tecnicamente pormenorizado, a fim de facilitar às partes com interesses legítimos, incluindo os titulares de direitos de autor, o exercício e a aplicação dos seus direitos ao abrigo do direito da União, por exemplo, enumerando as principais coleções ou conjuntos de dados que entraram no treino do modelo, como grandes bases de dados públicas ou privadas ou arquivos de dados, e oferecendo uma explicação narrativa sobre outras fontes de dados utilizadas. É conveniente que o Serviço para a IA disponibilize um modelo para o resumo, que deverá ser simples e eficaz, e permita ao prestador facultar o resumo exigido sob a forma narrativa.
(108)
Pokiaľ ide o povinnosti uložené poskytovateľom modelov AI na všeobecné účely zaviesť politiku dodržiavania autorského práva Únie a zverejniť zhrnutie obsahu použitého na trénovanie, úrad pre AI by mal monitorovať, či poskytovateľ splnil tieto povinnosti bez toho, aby overil trénovacie údaje alebo pristúpil k ich posúdeniu podľa jednotlivých diel, pokiaľ ide o dodržiavanie autorských práv. Toto nariadenie nemá vplyv na presadzovanie pravidiel v oblasti autorského práva, ako sa stanovuje v práve Únie.
(108)
No que diz respeito às obrigações impostas aos prestadores de modelos de IA de finalidade geral para que ponham em prática uma política de cumprimento da legislação da União em matéria de direitos de autor e disponibilizem ao público um resumo dos conteúdos utilizados para o treino, o Serviço para a IA deverá controlar se o prestador cumpriu essas obrigações sem verificar ou proceder a uma avaliação obra a obra dos dados de treino no que respeita aos direitos de autor. O presente regulamento não afeta a aplicação das regras em matéria de direitos de autor previstas no direito da União.
(109)
Dodržiavanie povinností, ktoré sa vzťahujú na poskytovateľov modelov AI na všeobecné účely by malo byť primerané a proporcionálne vzhľadom na typ poskytovateľa modelu, s výnimkou potreby dodržiavania predpisov v prípade osôb, ktoré vyvíjajú alebo používajú modely na neprofesionálne alebo vedecké výskumné účely, ktoré by sa však mali nabádať, aby tieto požiadavky dodržiavali dobrovoľne. Bez toho, aby bolo dotknuté autorské právo Únie, by sa pri dodržiavaní uvedených povinností mala náležite zohľadniť veľkosť poskytovateľa a mali by sa umožniť zjednodušené spôsoby dodržiavania predpisov pre MSP vrátane startupov, ktoré by nemali predstavovať nadmerné náklady a odrádzať od používania takýchto modelov. V prípade úpravy alebo doladenia modelu by sa povinnosti poskytovateľov modelov AI na všeobecné účely mali obmedziť na túto úpravu alebo doladenie, napríklad doplnením už existujúcej technickej dokumentácie informáciami o úpravách vrátane nových zdrojov tréningových údajov ako prostriedku na splnenie povinností týkajúcich sa hodnotového reťazca stanovených v tomto nariadení.
(109)
O cumprimento das obrigações aplicáveis aos prestadores de modelos de IA de finalidade geral deverá ser consentâneo e proporcionado ao tipo de prestador do modelo, excluindo a necessidade de conformidade para as pessoas que desenvolvem ou utilizam modelos para fins de investigação não profissional ou científica, que deverão, no entanto, ser incentivadas a cumprir voluntariamente esses requisitos. Sem prejuízo do direito da União em matéria de direitos de autor, o cumprimento dessas obrigações deverá ter devidamente em conta a dimensão do prestador e permitir formas simplificadas de conformidade para as PME, incluindo as empresas em fase de arranque, que não deverão representar um custo excessivo nem desencorajar a utilização de tais modelos. Em caso de alteração ou aperfeiçoamento de um modelo, as obrigações dos prestadores de modelos de IA de finalidade geral deverão limitar-se a essa alteração ou aperfeiçoamento, por exemplo, complementando a documentação técnica já existente com informações sobre as alterações, nomeadamente novas fontes de dados de treino, como forma de cumprir as obrigações da cadeia de valor previstas no presente regulamento.
(110)
Modely AI na všeobecné účely by mohli predstavovať systémové riziká, ktoré zahŕňajú okrem iného akékoľvek skutočné alebo odôvodnene predvídateľné negatívne účinky v súvislosti so závažnými nehodami, narušeniami kritických odvetví a závažnými dôsledkami pre verejné zdravie a bezpečnosť; akékoľvek skutočné alebo odôvodnene predvídateľné negatívne účinky na demokratické procesy, verejnú a hospodársku bezpečnosť; šírenie nezákonného, falošného alebo diskriminačného obsahu. Systémové riziká by sa mali chápať tak, že sa zvyšujú spôsobilosťami modelu a dosahom modelu, môžu vzniknúť počas celého životného cyklu modelu a sú ovplyvnené podmienkami nesprávneho použitia, spoľahlivosťou modelu, spravodlivosťou modelu a bezpečnosťou modelu, úrovňou autonómnosti modelu, jeho prístupom k nástrojom, novými alebo kombinovanými modalitami, stratégiami vydávania a distribúcie, potenciálom odstrániť ochranné prvky a inými faktormi. V medzinárodných prístupoch sa doteraz identifikovala najmä potreba venovať pozornosť rizikám vyplývajúcim z potenciálneho úmyselného nesprávneho použitia alebo neúmyselných problémov kontroly týkajúcich sa zosúladenia s ľudským zámerom; chemickým, biologickým, rádiologickým a jadrovým rizikám, ako sú spôsoby, akými možno znížiť prekážky vstupu vrátane vývoja zbraní, získavania dizajnu alebo používania zbraní; umožneniu ofenzívnych kybernetických spôsobilostí, ako sú spôsoby odhaľovania, využívania alebo operačného využívania zraniteľnosti; účinkom interakcie a používania nástrojov, napríklad vrátane schopnosti kontrolovať fyzické systémy a zasahovať do kritickej infraštruktúry; rizikám vyplývajúcim z modelov vyhotovovania vlastných kópií alebo „samoreplikácie“ alebo trénovania iných modelov; spôsobom, akými môžu modely viesť k škodlivému skresleniu a diskriminácii s rizikami pre jednotlivcov, komunity alebo spoločnosti; uľahčovaniu dezinformácií alebo poškodzovania súkromia hrozbami pre demokratické hodnoty a ľudské práva; riziku, že konkrétna udalosť by mohla viesť k reťazovej reakcii so značnými negatívnymi účinkami, ktoré by mohli ovplyvniť celé mesto, celú oblasť činnosti alebo celú komunitu.
(110)
Os modelos de IA de finalidade geral poderão representar riscos sistémicos que incluem, entre outros, quaisquer efeitos negativos reais ou razoavelmente previsíveis em relação a acidentes graves, perturbações de setores críticos e consequências graves para a saúde e a segurança públicas; quaisquer efeitos negativos, reais ou razoavelmente previsíveis, em processos democráticos e na segurança pública e económica; a divulgação de conteúdos ilegais, falsos ou discriminatórios. Os riscos sistémicos deverão ser entendidos como aumentando as capacidades e o alcance do modelo, podendo surgir ao longo de todo o ciclo de vida do modelo e ser influenciados por condições de utilização indevida, fiabilidade do modelo, equidade e segurança do modelo, pelo nível de autonomia do modelo, pelo seu acesso a ferramentas, modalidades novas ou combinadas, estratégias de lançamento e distribuição, pelo potencial de remoção de barreiras de segurança e outros fatores. Em especial, as abordagens internacionais identificaram, até à data, a necessidade de prestar atenção aos riscos decorrentes de uma potencial utilização indevida intencional ou de problemas não intencionais de controlo relacionados com o alinhamento com a intenção humana; os riscos químicos, biológicos, radiológicos e nucleares, tais como as formas como as barreiras à entrada podem ser baixadas, inclusive para o desenvolvimento, a conceção, a aquisição ou a utilização de armas; as capacidades cibernéticas ofensivas, tais como as formas em que a descoberta, exploração ou utilização operacional de vulnerabilidades pode ser permitida; os efeitos da interação e da utilização de ferramentas, incluindo, por exemplo, a capacidade de controlar os sistemas físicos e de interferir com as infraestruturas críticas; os riscos decorrentes de os modelos fazerem cópias de si próprios ou de «autorreplicação», ou de treinarem outros modelos; a forma como os modelos podem dar origem a enviesamentos prejudiciais e a discriminação, com riscos para os indivíduos, as comunidades ou as sociedades; a facilitação da desinformação ou o prejuízo para a privacidade, com ameaças para os valores democráticos e os direitos humanos; o risco de que um acontecimento específico conduza a uma reação em cadeia com efeitos negativos consideráveis que possam afetar até uma cidade inteira, uma atividade num domínio inteiro ou uma comunidade inteira.
(111)
Je vhodné zaviesť metodiku pre klasifikáciu modelov AI na všeobecné účely ako modelu AI na všeobecné účely so systémovým rizikom. Keďže systémové riziká vyplývajú z mimoriadne vysokých spôsobilostí, mal by sa model AI na všeobecné účely považovať za model predstavujúci systémové riziká, ak má spôsobilosti s veľkým vplyvom, hodnotené na základe vhodných technických nástrojov a metodík, alebo významný vplyv na vnútorný trh z dôvodu jeho dosahu. Spôsobilosti s veľkým vplyvom v modeloch AI na všeobecné účely sú spôsobilosti, ktoré zodpovedajú spôsobilostiam zaznamenaným v najvyspelejších modeloch AI na všeobecné účely alebo ich prekračujú. Celú škálu spôsobilostí modelu možno lepšie pochopiť po jeho uvedení na trh alebo pri interakcii nasadzujúcich subjektov s modelom. Podľa aktuálneho stavu vývoja v čase nadobudnutia účinnosti tohto nariadenia je kumulatívny počet výpočtov použitých na trénovanie modelu AI na všeobecné účely meraný v operáciách s pohyblivou rádovou čiarkou jednou z relevantných aproximácií spôsobilostí modelu. Kumulatívny počet výpočtov použitých na trénovanie zahŕňa výpočty použité v rámci činností a metód, ktoré sú určené na posilnenie spôsobilostí modelu pred nasadením, ako je predbežné trénovanie, syntetické generovanie údajov a doladenie. Preto by sa mala stanoviť počiatočná prahová hodnota pre operácie s pohyblivou rádovou čiarkou, ktorá, ak je modelom AI na všeobecné účely splnená, vedie k predpokladu, že model je modelom AI na všeobecné účely so systémovými rizikami. Táto prahová hodnota by sa mala časom upraviť tak, aby odrážala technologické a priemyselné zmeny, ako sú algoritmické zlepšenia alebo zvýšená efektívnosť hardvéru, a mala by sa doplniť o referenčné hodnoty a ukazovatele spôsobilosti modelu. Úrad pre AI by mal spolupracovať s vedeckou obcou, priemyslom, občianskou spoločnosťou a ďalšími odborníkmi s cieľom poskytnúť na to podklady. Prahové hodnoty, ako aj nástroje a referenčné hodnoty na posudzovanie spôsobilostí s veľkým vplyvom by mali byť silnými predikátormi všeobecnej povahy, spôsobilostí a súvisiaceho systémového rizika modelov AI na všeobecné účely a mohli by zohľadňovať spôsob uvádzania modelu na trh alebo počet používateľov, na ktorých môže mať vplyv. Na doplnenie tohto systému by Komisia mala mať možnosť prijímať individuálne rozhodnutia označujúce model AI na všeobecné účely ako model AI na všeobecné účely so systémovým rizikom, ak zistí, že takýto model má spôsobilosti alebo vplyv rovnocenné tým, ktoré sú zachytené stanovenou prahovou hodnotou. Uvedené rozhodnutie by sa malo prijať na základe celkového posúdenia kritérií na určenie modelu AI na všeobecné účely so systémovým rizikom stanovených v prílohe k tomuto nariadeniu, ako je kvalita alebo veľkosť súboru tréningových údajov, počet korporátnych a koncových používateľov, modality jeho vstupov a výstupov, úroveň jeho autonómnosti a škálovateľnosti alebo nástroje, ku ktorým má prístup. Po odôvodnenej žiadosti poskytovateľa, ktorého model bol označený za model AI na všeobecné účely so systémovým rizikom, by Komisia mala žiadosť zohľadniť a môže rozhodnúť o prehodnotení, či model AI na všeobecné účely možno stále považovať za model predstavujúci systémové riziká.
(111)
É conveniente estabelecer uma metodologia para a classificação de modelos de IA de finalidade geral como modelos de IA de finalidade geral com riscos sistémicos. Uma vez que os riscos sistémicos resultam de capacidades particularmente elevadas, deverá considerar-se que um modelo de IA de finalidade geral apresenta riscos sistémicos se tiver capacidades de elevado impacto, avaliadas com base em ferramentas e metodologias técnicas adequadas ou um impacto significativo no mercado interno devido ao seu alcance. Entende-se por capacidades de elevado impacto em modelos de IA de finalidade geral as capacidades que correspondam ou excedam as capacidades registadas nos modelos de IA de finalidade geral mais avançados. O conjunto completo de capacidades num modelo poderá ser mais bem compreendido após a sua colocação no mercado ou quando os responsáveis pela implantação interagirem com o modelo. De acordo com o estado da arte no momento da entrada em vigor do presente regulamento, a quantidade acumulada de cálculo utilizado para o treino do modelo de IA de finalidade geral medido em operações de vírgula flutuante é uma das aproximações pertinentes para as capacidades do modelo. A quantidade acumulada de cálculo utilizado para o treino inclui o cálculo utilizado nas atividades e métodos destinados a reforçar as capacidades do modelo antes da implantação, como o treino prévio, a geração de dados sintéticos e o aperfeiçoamento. Por conseguinte, deverá ser estabelecido um limiar inicial de operação de vírgula flutuante que, se for cumprido por um modelo de IA de finalidade geral, conduz à presunção de que o modelo é um modelo de IA de finalidade geral com riscos sistémicos. Este limiar deverá ser ajustado ao longo do tempo para refletir as mudanças tecnológicas e industriais, tais como as melhorias algorítmicas ou uma maior eficiência do hardware, e deverá ser complementado com parâmetros de referência e indicadores da capacidade dos modelos. Para o fundamentar, o Serviço para a IA deverá colaborar com a comunidade científica, a indústria, a sociedade civil e outros peritos. Os limiares, bem como as ferramentas e os parâmetros de referência para a avaliação das capacidades de elevado impacto, deverão ser indicadores fortes da generalidade, das suas capacidades e do risco sistémico associado dos modelos de IA de finalidade geral, e poderão ter em conta a forma como o modelo será colocado no mercado ou o número de utilizadores que pode afetar. Para complementar este sistema, a Comissão deverá ter a possibilidade de tomar decisões individuais que designem um modelo de IA de finalidade geral como sendo um modelo de IA de finalidade geral com risco sistémico, caso se verifique que esse modelo tem capacidades ou impacto equivalentes aos captados pelo limiar estabelecido. Essa decisão deverá ser tomada com base numa avaliação global dos critérios de designação do modelo de IA de finalidade geral com risco sistémico estabelecidos num anexo do presente regulamento, tais como a qualidade ou a dimensão do conjunto de dados de treino, o número de utilizadores profissionais e finais, as suas modalidades de entrada e saída, o seu nível de autonomia e escalabilidade ou as ferramentas a que tem acesso. Mediante pedido fundamentado de um prestador cujo modelo tenha sido designado um modelo de IA de finalidade geral com risco sistémico, a Comissão deverá ter em conta o pedido e pode decidir reavaliar se ainda é possível considerar que o modelo de IA de finalidade geral apresenta riscos sistémicos.
(112)
Je tiež potrebné objasniť postup klasifikácie modelu AI na všeobecné účely so systémovým rizikom. Model AI na všeobecné účely, ktorý spĺňa príslušnú prahovú hodnotu pre spôsobilosti s veľkým vplyvom, by sa mal považovať za model AI na všeobecné účely so systémovým rizikom. Poskytovateľ by mal informovať úrad pre AI najneskôr dva týždne po splnení požiadaviek alebo po tom, ako sa zistí, že model AI na všeobecné účely bude spĺňať požiadavky, ktoré vedú k tomuto predpokladu. To je obzvlášť relevantné v súvislosti s prahovou hodnotou pre operácie s pohyblivou rádovou čiarkou, pretože trénovanie modelov AI na všeobecné účely si vyžaduje značné plánovanie, ktoré zahŕňa predbežné prideľovanie výpočtových zdrojov, a preto sú poskytovatelia modelov AI na všeobecné účely schopní vedieť, či by ich model dosiahol prahovú hodnotu pred ukončením trénovania. V súvislosti s uvedeným informovaním by poskytovateľ mal byť schopný preukázať, že model AI na všeobecné účely vzhľadom na svoje osobitné vlastnosti výnimočne nepredstavuje systémové riziká, a preto by sa nemal klasifikovať ako model AI na všeobecné účely so systémovými rizikami. Uvedené informácie sú pre úrad pre AI cenné pri predvídaní uvedenia modelov AI na všeobecné účely so systémovými rizikami na trh a poskytovatelia môžu začať s úradom pre AI včas spolupracovať. Uvedené informácie sú obzvlášť dôležité, pokiaľ ide o modely AI na všeobecné účely, ktoré sa majú vydať ako modely s otvoreným zdrojovým kódom, keďže po vydaní modelu s otvoreným zdrojovým kódom môže byť ťažšie vykonať potrebné opatrenia na zabezpečenie súladu s povinnosťami podľa tohto nariadenia.
(112)
É igualmente necessário tornar claro um procedimento para a classificação de um modelo de IA de finalidade geral com riscos sistémicos. Deverá presumir-se que um modelo de IA de finalidade geral que cumpra o limiar aplicável às capacidades de elevado impacto é um modelo de IA de finalidade geral com risco sistémico. O mais tardar duas semanas após o cumprimento dos requisitos ou após ter conhecimento de que um modelo de IA de finalidade geral cumprirá os requisitos que conduzem à presunção, o prestador deverá notificar o Serviço para a IA. Este aspeto é especialmente pertinente em relação ao limiar de operações de vírgula flutuante, uma vez que o treino de modelos de IA de finalidade geral exige um planeamento considerável, que inclui a afetação inicial de recursos de cálculo e, por conseguinte, os prestadores de modelos de IA de finalidade geral conseguem saber se o seu modelo cumprirá o limiar antes da conclusão do treino. No contexto dessa notificação, o prestador deverá poder demonstrar que um modelo de IA de finalidade geral, devido às suas características específicas, excecionalmente não apresenta riscos sistémicos e que, por conseguinte, não deverá ser classificado como sendo um modelo de IA de finalidade geral com riscos sistémicos. Essas informações são úteis para o Serviço para a IA antecipar a colocação no mercado de modelos de IA de finalidade geral com riscos sistémicos e os prestadores poderem começar a dialogar com o Serviço para a IA numa fase precoce. Essas informações são especialmente importantes no que diz respeito aos modelos de IA de finalidade geral que se prevê sejam lançados como fonte aberta, uma vez que, após o lançamento de modelos de fonte aberta, as medidas necessárias para assegurar o cumprimento das obrigações decorrentes do presente regulamento podem ser mais difíceis de aplicar.
(113)
Ak sa Komisia dozvie o skutočnosti, že model AI na všeobecné účely spĺňa požiadavky na to, aby sa klasifikoval ako model AI na všeobecné účely so systémovým rizikom, ktorá predtým buď nebola známa, alebo o ktorej príslušný poskytovateľ Komisiu neinformoval, Komisia by mala byť oprávnená takto ho označiť. Systém kvalifikovaných upozornení by mal zabezpečiť, aby vedecký panel informoval úrad pre AI popri jeho monitorovacích činnostiach o modeloch AI na všeobecné účely, ktoré by sa prípadne mali klasifikovať ako modely AI na všeobecné účely so systémovým rizikom.
(113)
Se a Comissão tomar conhecimento de que um modelo de IA de finalidade geral cumpre os requisitos para se classificar como modelo de IA de finalidade geral com risco sistémico, facto que anteriormente não era conhecido ou sobre o qual o prestador em causa não notificou a Comissão, a Comissão deverá ficar habilitada a designá-lo como tal. Um sistema de alertas qualificados deverá assegurar que o Serviço para a IA é informado pelo painel científico sobre modelos de IA de finalidade geral que possivelmente deverão ser classificados como modelos de IA de finalidade geral com risco sistémico, a par das atividades de acompanhamento do Serviço para a IA.
(114)
Poskytovatelia modelov AI na všeobecné účely predstavujúcich systémové riziká by mali okrem povinností stanovených pre poskytovateľov modelov AI na všeobecné účely podliehať povinnostiam zameraným na identifikáciu a zmiernenie týchto rizík a zabezpečenie primeranej úrovne ochrany kybernetickej bezpečnosti bez ohľadu na to, či sa poskytujú ako samostatný model alebo sú zabudované do systému AI alebo produktu. Na dosiahnutie uvedených cieľov by sa v tomto nariadení malo od poskytovateľov vyžadovať, aby vykonávali potrebné hodnotenia modelov, najmä pred ich prvým uvedením na trh, vrátane vykonávania a zdokumentovania testovania modelov na nepriateľské útoky, prípadne aj prostredníctvom interného alebo nezávislého externého testovania. Okrem toho by poskytovatelia modelov AI na všeobecné účely so systémovými rizikami mali neustále posudzovať a zmierňovať systémové riziká, a to napríklad aj zavádzaním politík riadenia rizík, ako sú procesy zodpovednosti a správy a riadenia, vykonávaním monitorovania po uvedení na trh, prijímaním vhodných opatrení v rámci celého životného cyklu modelu a spoluprácou s príslušnými aktérmi v celom hodnotovom reťazci AI.
(114)
Os prestadores de modelos de IA de finalidade geral que apresentem riscos sistémicos deverão estar sujeitos, para além das obrigações previstas para os prestadores de modelos de IA de finalidade geral, a obrigações que visem identificar e atenuar esses riscos e assegurar um nível adequado de proteção da cibersegurança, independentemente de serem disponibilizados como modelos autónomos ou incorporados num sistema de IA ou num produto. Para alcançar esses objetivos, o presente regulamento deverá exigir que os prestadores realizem as avaliações necessárias dos modelos, em especial antes da sua primeira colocação no mercado, incluindo a realização de testagens antagónicas dos modelos e a respetiva documentação, se for caso disso também por meio de testagens internas ou externas independentes. Além disso, os prestadores de modelos de IA de finalidade geral com riscos sistémicos deverão avaliar e atenuar continuamente os riscos sistémicos, nomeadamente pondo em prática políticas de gestão de riscos, como processos de responsabilização e governação, executando o acompanhamento pós-comercialização, adotando medidas adequadas ao longo de todo o ciclo de vida do modelo e cooperando com os intervenientes pertinentes ao longo de toda a cadeia de valor da IA.
(115)
Poskytovatelia modelov AI na všeobecné účely so systémovými rizikami by mali posúdiť a zmierniť možné systémové riziká. Ak napriek úsiliu identifikovať riziká súvisiace s modelom AI na všeobecné účely, ktoré môžu predstavovať systémové riziká, a predchádzať im, vývoj alebo používanie modelu spôsobí závažný incident, poskytovateľ modelu AI na všeobecné účely by mal bez zbytočného odkladu sledovať incident a oznámiť všetky relevantné informácie a možné nápravné opatrenia Komisii a vnútroštátnym príslušným orgánom. Okrem toho by poskytovatelia mali zabezpečiť primeranú úroveň ochrany kybernetickej bezpečnosti modelu a jeho fyzickej infraštruktúry, ak je to vhodné, počas celého životného cyklu modelu. Pri ochrane kybernetickej bezpečnosti v súvislosti so systémovými rizikami spojenými so zlomyseľným používaním alebo útokmi by sa mal náležite zvážiť náhodný únik modelu, jeho nepovolené vydanie, obchádzanie bezpečnostných opatrení a ochrana pred kybernetickými útokmi, neoprávneným prístupom alebo krádežou modelu. Uvedená ochrana by sa mohla uľahčiť zabezpečením váh, algoritmov, serverov a súborov údajov modelu, napríklad prostredníctvom prevádzkových bezpečnostných opatrení v oblasti informačnej bezpečnosti, osobitných politík kybernetickej bezpečnosti, primeraných technických a zavedených riešení a kontrol kybernetického a fyzického prístupu, ktoré sú primerané príslušným okolnostiam a súvisiacim rizikám.
(115)
Os prestadores de modelos de IA de finalidade geral com riscos sistémicos deverão avaliar e atenuar eventuais riscos sistémicos. Se, apesar dos esforços para identificar e prevenir riscos relacionados com um modelo de IA de finalidade geral que possa apresentar riscos sistémicos, o desenvolvimento ou a utilização do modelo causar um incidente grave, o prestador do modelo de IA de finalidade geral deverá, sem demora injustificada, acompanhar o incidente e comunicar quaisquer informações pertinentes e eventuais medidas corretivas à Comissão e às autoridades nacionais competentes. Além disso, os prestadores deverão assegurar um nível adequado de proteção do modelo e das suas infraestruturas físicas em termos de cibersegurança, se for caso disso ao longo de todo o ciclo de vida do modelo. A proteção em termos de cibersegurança relacionada com os riscos sistémicos associados à utilização maliciosa ou a ataques deverá ter devidamente em conta as fugas acidentais de modelos, os lançamentos não autorizados, o contornamento de medidas de segurança e a defesa contra ciberataques, o acesso não autorizado ou o roubo de modelos. Essa proteção poderá ser facilitada garantindo as ponderações dos modelos, algoritmos, servidores e conjuntos de dados, nomeadamente por intermédio de medidas de segurança operacional para a segurança da informação, de políticas específicas em matéria de cibersegurança, de soluções técnicas e estabelecidas adequadas e de controlos informáticos e físicos do acesso, adequados às circunstâncias pertinentes e aos riscos envolvidos.
(116)
Úrad pre AI by mal podporovať a uľahčovať vypracovanie, preskúmanie a úpravu kódexov postupov s prihliadnutím na medzinárodné prístupy. Na účasť by mohli byť prizvaní všetci poskytovatelia modelov AI na všeobecné účely. S cieľom zabezpečiť, aby kódexy postupov odrážali aktuálny stav vývoja a náležite zohľadňovali rôznorodý súbor perspektív, by mal úrad pre AI spolupracovať s vnútroštátnymi príslušnými orgánmi a v prípade potreby by sa pri vypracúvaní takýchto kódexov mohol poradiť s organizáciami občianskej spoločnosti a inými príslušnými zainteresovanými stranami a odborníkmi vrátane vedeckého panelu. Kódexy postupov by sa mali vzťahovať na povinnosti poskytovateľov modelov AI na všeobecné účely a modelov AI na všeobecné účely predstavujúcich systémové riziká. Okrem toho, pokiaľ ide o systémové riziká, kódexy postupov by mali pomôcť zaviesť taxonómiu typov a povahy systémových rizík na úrovni Únie vrátane ich zdrojov. Kódexy postupov by sa mali zamerať aj na osobitné posúdenie rizika a zmierňujúce opatrenia.
(116)
O Serviço para a IA deverá incentivar e facilitar a elaboração, a revisão e a adaptação de códigos de práticas, tendo em conta as abordagens internacionais. Todos os prestadores de modelos de IA de finalidade geral poderão ser convidados a participar. A fim de assegurar que os códigos de práticas refletem o estado da arte e têm devidamente em conta um conjunto diversificado de perspetivas, o Serviço para a IA deverá colaborar com as autoridades nacionais competentes pertinentes e poderá, se for caso disso, consultar organizações da sociedade civil e outras partes interessadas e peritos pertinentes, incluindo o painel científico, para a elaboração desses códigos. Os códigos de práticas deverão abranger as obrigações dos prestadores de modelos de IA de finalidade geral e de modelos de IA de finalidade geral que apresentem riscos sistémicos. Além disso, no que diz respeito aos riscos sistémicos, os códigos de práticas deverão ajudar a estabelecer uma taxonomia do tipo e da natureza dos riscos sistémicos a nível da União, incluindo das suas fontes. Os códigos de práticas deverão também centrar-se na avaliação específica dos riscos e em medidas de atenuação.
(117)
Kódexy postupov by mali predstavovať ústredný nástroj na riadne dodržiavanie povinností stanovených v tomto nariadení pre poskytovateľov modelov AI na všeobecné účely. Poskytovatelia by mali mať možnosť odvolávať sa na kódexy postupov na preukázanie dodržiavania povinností. Komisia môže prostredníctvom vykonávacích aktov rozhodnúť o schválení kódexu postupov a udeliť mu všeobecnú platnosť v rámci Únie, alebo prípadne stanoviť spoločné pravidlá vykonávania príslušných povinností, ak pred nadobudnutím účinnosti tohto nariadenia nie je možné kódex postupov finalizovať alebo ho úrad pre AI nepovažuje za primeraný. Keď sa harmonizovaná norma uverejní a posúdi úradom pre AI ako vhodná na pokrytie príslušných povinností, súlad s európskou harmonizovanou normou by mal poskytovateľom poskytnúť predpoklad zhody. Poskytovatelia modelov AI na všeobecné účely by okrem toho mali byť schopní preukázať súlad pomocou alternatívnych primeraných prostriedkov, ak kódexy postupov alebo harmonizované normy nie sú k dispozícii alebo sa rozhodnú na ne neodvolávať.
(117)
Os códigos de práticas deverão representar um instrumento central para o cumprimento adequado das obrigações previstas no presente regulamento para os prestadores de modelos de IA de finalidade geral. Os prestadores deverão poder recorrer a códigos de práticas para demonstrar o cumprimento das obrigações. Por meio de atos de execução, a Comissão pode decidir aprovar um código de práticas e conferir-lhe uma validade geral na União ou, em alternativa, estabelecer regras comuns para a execução das obrigações pertinentes, se, no momento em que o presente regulamento se tornar aplicável, não for possível finalizar um código de práticas ou este não for considerado adequado pelo Serviço para a IA. Uma vez publicada uma norma harmonizada e considerada adequada para abranger as obrigações pertinentes do Serviço para a IA, a conformidade com uma norma europeia harmonizada deverá conferir aos prestadores a presunção de conformidade. Os prestadores de modelos de IA de finalidade geral deverão, além disso, ser capazes de demonstrar a conformidade utilizando meios alternativos adequados, se não estiverem disponíveis códigos de práticas nem normas harmonizadas, ou se os prestadores optarem por não se basear neles.
(118)
Týmto nariadením sa regulujú systémy AI a modely AI uložením určitých požiadaviek a povinností relevantným aktérom trhu, ktorí ich uvádzajú na trh, uvádzajú do prevádzky alebo používajú v Únii, čím sa dopĺňajú povinnosti poskytovateľov sprostredkovateľských služieb, ktorí takéto systémy alebo modely začlenili do svojich služieb regulovaných nariadením (EÚ) 2022/2065. Pokiaľ sú takéto systémy alebo modely zabudované do určených veľmi veľkých online platforiem alebo veľmi veľkých internetových vyhľadávačov, podliehajú rámcu riadenia rizík stanovenému v nariadení (EÚ) 2022/2065. Príslušné povinnosti stanovené v tomto nariadení by sa preto mali považovať za splnené, pokiaľ sa v takýchto modeloch nevyskytnú a neidentifikujú významné systémové riziká, na ktoré sa nevzťahuje nariadenie (EÚ) 2022/2065. V tomto rámci sú poskytovatelia veľmi veľkých online platforiem a veľmi veľkých online vyhľadávačov povinní posúdiť potenciálne systémové riziká vyplývajúce z dizajnu, fungovania a používania ich služieb vrátane toho, ako môže koncepcia algoritmických systémov používaných v danej službe prispievať k takýmto rizikám, ako aj systémové riziká vyplývajúce z potenciálneho nesprávneho použitia. Títo poskytovatelia sú tiež povinní prijať primerané zmierňujúce opatrenia v súlade so základnými právami.
(118)
O presente regulamento regula os sistemas de IA e modelos de IA, impondo determinados requisitos e obrigações aos intervenientes pertinentes no mercado que os colocam no mercado, colocam em serviço ou em utilização na União, complementando assim as obrigações dos prestadores de serviços intermediários que incorporam esses sistemas ou modelos nos seus serviços regulados pelo Regulamento (UE) 2022/2065. Na medida em que esses sistemas ou modelos estejam incorporados naquelas que são designadas por plataformas em linha de muito grande dimensão ou motores de pesquisa em linha de muito grande dimensão, estão sujeitos ao regime de gestão de riscos previsto no Regulamento (UE) 2022/2065. Por conseguinte, deverá presumir-se que as obrigações correspondentes do presente Regulamento foram cumpridas, a menos que surjam e sejam identificados nesses modelos riscos sistémicos significativos não abrangidos pelo Regulamento (UE) 2022/2065. Neste contexto, os prestadores de plataformas em linha de muito grande dimensão e de motores de pesquisa em linha de muito grande dimensão são obrigados a avaliar os potenciais riscos sistémicos decorrentes da conceção, do funcionamento e da utilização dos seus serviços, incluindo a forma como a conceção dos sistemas algorítmicos utilizados no serviço pode contribuir para esses riscos, bem como os riscos sistémicos decorrentes de potenciais utilizações indevidas. Esses prestadores são igualmente obrigados a tomar medidas de atenuação adequadas no respeito dos direitos fundamentais.
(119)
Vzhľadom na rýchle tempo inovácie a technologický vývoj digitálnych služieb v rozsahu pôsobnosti rôznych nástrojov práva Únie, najmä so zreteľom na používanie a vnímanie ich príjemcov, sa systémy AI, na ktoré sa vzťahuje toto nariadenie, môžu poskytovať ako sprostredkovateľské služby alebo ich časti v zmysle nariadenia (EÚ) 2022/2065, čo by sa malo vykladať technologicky neutrálnym spôsobom. Systémy AI sa napríklad môžu používať na poskytovanie internetových vyhľadávačov, najmä v rozsahu, v akom systém AI, ako je online chatbot, vyhľadáva v zásade na všetkých webových sídlach, potom začleňuje výsledky do svojich existujúcich poznatkov a využíva aktualizované poznatky na vytvorenie jediného výstupu, v ktorom sa kombinujú rôzne zdroje informácií.
(119)
Tendo em conta o ritmo rápido da inovação e a evolução tecnológica dos serviços digitais no âmbito dos diferentes instrumentos do direito da União, em especial tendo em conta a utilização e a perceção dos seus destinatários, os sistemas de IA abrangidos pelo presente regulamento podem ser prestados como serviços intermediários ou partes dos mesmos, na aceção do Regulamento (UE) 2022/2065, que deverão ser interpretados de forma tecnologicamente neutra. Por exemplo, os sistemas de IA podem ser utilizados para a disponibilização de motores de pesquisa em linha, em especial na medida em que um sistema de IA, como um robô de conversação em linha, efetua em princípio pesquisas em todos os sítios Web, depois incorpora os resultados nos conhecimentos que já tem e utiliza os conhecimentos atualizados para gerar um resultado único que combina diferentes fontes de informação.
(120)
Okrem toho povinnosti uložené poskytovateľom určitých systémov AI a subjektom nasadzujúcim určité systémy AI v tomto nariadení s cieľom umožniť odhaľovanie a zverejňovanie toho, že výstupy týchto systémov sú umelo generované alebo manipulované, sú osobitne relevantné na uľahčenie účinného vykonávania nariadenia (EÚ) 2022/2065. Týka sa to najmä povinností poskytovateľov veľmi veľkých online platforiem alebo veľmi veľkých internetových vyhľadávačov identifikovať a zmierňovať systémové riziká, ktoré môžu vyplynúť zo šírenia obsahu, ktorý bol umelo vytvorený alebo manipulovaný, najmä riziko skutočných alebo predvídateľných negatívnych účinkov na demokratické procesy, občiansku diskusiu a volebné procesy, a to aj prostredníctvom dezinformácií.
(120)
Além disso, a fim de facilitar a aplicação efetiva do Regulamento (UE) 2022/2065, as obrigações impostas por força do presente regulamento aos prestadores e responsáveis pela implantação de determinados sistemas de IA são particularmente relevantes para permitir detetar e divulgar se os resultados desses sistemas são artificialmente gerados ou manipulados. Tal aplica-se, em especial, às obrigações dos prestadores de plataformas em linha de muito grande dimensão ou de motores de pesquisa em linha de muito grande dimensão que consistem em identificar e atenuar os riscos sistémicos que possam resultar da divulgação de conteúdos artificialmente gerados ou manipulados, em especial o risco de efeitos negativos reais ou previsíveis nos processos democráticos, no debate público e nos processos eleitorais, nomeadamente através da desinformação.
(121)
Normalizácia by mala zohrávať kľúčovú úlohu pri poskytovaní technických riešení poskytovateľom na zabezpečenie súladu s týmto nariadením v súlade s aktuálnym stavom vývoja s cieľom podporovať inováciu, ako aj konkurencieschopnosť a rast na vnútornom trhu. Dodržiavanie harmonizovaných noriem v zmysle vymedzenia v článku 2 bode 1 písm. c) nariadenia Európskeho parlamentu a Rady (EÚ) č. 1025/2012 (41), ktoré by za bežných okolností mali odzrkadľovať aktuálny stav vývoja, by malo byť pre poskytovateľov prostriedkom na preukázanie zhody s požiadavkami tohto nariadenia. Malo by sa preto podporovať vyvážené zastúpenie záujmov za účasti všetkých relevantných zainteresovaných strán pri vypracúvaní noriem, najmä MSP, spotrebiteľských organizácií a zainteresovaných strán v oblasti životného prostredia a sociálnej oblasti v súlade s článkami 5 a 6 nariadenia (EÚ) č. 1025/2012. S cieľom uľahčiť dodržiavanie predpisov by Komisia mala žiadosti o normalizáciu vydávať bez zbytočného odkladu. Pri príprave žiadosti o normalizáciu by Komisia mala konzultovať s poradným fórom a radou pre AI s cieľom zhromaždiť príslušné odborné poznatky. Ak však neexistujú relevantné odkazy na harmonizované normy, Komisia by mala mať možnosť stanoviť prostredníctvom vykonávacích aktov a po konzultácii s poradným fórom spoločné špecifikácie pre určité požiadavky podľa tohto nariadenia. Spoločná špecifikácia by mala byť výnimočným záložným riešením na uľahčenie povinnosti poskytovateľa dodržiavať požiadavky tohto nariadenia, ak žiadosť o normalizáciu neakceptovala žiadna z európskych normalizačných organizácií alebo ak príslušné harmonizované normy nedostatočne riešia obavy týkajúce sa základných práv, alebo ak harmonizované normy nie sú v súlade so žiadosťou, alebo ak dôjde k oneskoreniam pri prijímaní vhodnej harmonizovanej normy. Ak je takéto oneskorenie pri prijímaní harmonizovanej normy spôsobené technickou zložitosťou uvedenej normy, Komisia by to mala zohľadniť pred tým, ako zváži ustanovenie spoločných špecifikácií. Komisia sa vyzýva, aby pri vypracúvaní spoločných špecifikácií spolupracovala s medzinárodnými partnermi a medzinárodnými normalizačnými orgánmi.
(121)
A normalização deverá desempenhar um papel fundamental, disponibilizando aos prestadores soluções técnicas que assegurem a conformidade com o presente regulamento, em consonância com o estado da arte, a fim de promover a inovação, a competitividade e o crescimento no mercado único. O cumprimento de normas harmonizadas conforme definido no artigo 2.o, ponto 1, alínea c), do Regulamento (UE) n.o 1025/2012 do Parlamento Europeu e do Conselho (41), das quais normalmente se espera que reflitam o estado da arte, deverá constituir um meio de os prestadores demonstrarem a conformidade com os requisitos do presente regulamento. Por conseguinte, deverá ser incentivada uma representação equilibrada de interesses que implique todas as partes interessadas na elaboração de normas, em especial as PME, as organizações de consumidores e as partes interessadas ambientalistas e da sociedade civil, em conformidade com os artigos 5.o e 6.o do Regulamento (UE) n.o 1025/2012. A fim de facilitar a conformidade, os pedidos de normalização deverão ser emitidos pela Comissão sem demora injustificada. Quando preparar o pedido de normalização, a Comissão deverá consultar o fórum consultivo e o Comité, a fim de recolher conhecimentos especializados pertinentes. No entanto, na ausência de referências pertinentes a normas harmonizadas, a Comissão deverá poder estabelecer, através de atos de execução e após consulta do fórum consultivo, especificações comuns para determinados requisitos ao abrigo do presente regulamento. A especificação comum deverá ser uma solução excecional de recurso para facilitar a obrigação do prestador de cumprir os requisitos do presente regulamento caso o pedido de normalização não tenha sido aceite por nenhuma das organizações europeias de normalização, caso as normas harmonizadas pertinentes não respondam de forma suficiente às preocupações em matéria de direitos fundamentais, caso as normas harmonizadas não satisfaçam o pedido ou caso haja atrasos na adoção de uma norma harmonizada adequada. Se esse atraso na adoção de uma norma harmonizada se dever à complexidade técnica dessa norma, a Comissão deverá tomar esse facto em consideração antes de ponderar o estabelecimento de especificações comuns. Ao elaborar especificações comuns, a Comissão é incentivada a cooperar com os parceiros internacionais e os organismos internacionais de normalização.
(122)
Bez toho, aby bolo dotknuté používanie harmonizovaných noriem a spoločných špecifikácií, je vhodné predpokladať, že poskytovatelia vysokorizikového systému AI, ktorý bol trénovaný a testovaný na údajoch odrážajúcich konkrétne geografické, behaviorálne, kontextuálne alebo funkčné prostredie, v ktorom sa má systém AI používať, by mali byť v súlade s príslušným opatrením stanoveným v rámci požiadavky na správu údajov stanovenej v tomto nariadení. Bez toho, aby boli dotknuté požiadavky týkajúce sa spoľahlivosti a presnosti stanovené v tomto nariadení, v súlade s článkom 54 ods. 3 nariadenia (EÚ) 2019/881 by sa vysokorizikové systémy AI, ktoré boli certifikované alebo pre ktoré bolo vydané vyhlásenie o zhode v rámci schémy kybernetickej bezpečnosti podľa uvedeného nariadenia, na ktorý boli uverejnené odkazy v Úradnom vestníku Európskej únie, mali považovať za systémy, ktoré sú v súlade s požiadavkou na kybernetickú bezpečnosť podľa tohto nariadenia, pokiaľ certifikát kybernetickej bezpečnosti alebo vyhlásenie o zhode alebo ich časti pokrývajú požiadavku kybernetickej bezpečnosti stanovenú v tomto nariadení. Touto skutočnosťou zostáva nedotknutá nezáväzná povaha uvedenej schémy kybernetickej bezpečnosti.
(122)
Sem prejuízo da utilização de normas harmonizadas e especificações comuns, é conveniente presumir que os prestadores de um sistema de IA de risco elevado que tenha sido treinado e testado em dados que reflitam o cenário geográfico, comportamental, contextual ou funcional específico no qual o sistema de IA se destina a ser utilizado cumprem a medida pertinente prevista no requisito de governação de dados estabelecido no presente regulamento. Sem prejuízo dos requisitos relacionados com a solidez e a exatidão estabelecidos no presente regulamento, em conformidade com o artigo 54.o, n.o 3, do Regulamento (UE) 2019/881, deverá presumir-se que os sistemas de IA de risco elevado que tenham sido certificados ou relativamente aos quais tenha sido emitida uma declaração de conformidade no âmbito de um sistema de certificação da cibersegurança estabelecido nos termos desse regulamento, e cujas referências tenham sido publicadas no Jornal Oficial da União Europeia, cumprem os requisitos de cibersegurança do presente regulamento, contanto que o certificado de cibersegurança ou a declaração de conformidade ou partes dos mesmos abranjam os requisitos de cibersegurança do presente regulamento. Tal não prejudica a natureza voluntária desse sistema de certificação da cibersegurança.
(123)
Na zabezpečenie vysokej úrovne dôveryhodnosti vysokorizikových systémov AI by tieto systémy mali pred svojím uvedením na trh alebo do prevádzky podliehať posudzovaniu zhody.
(123)
A fim de assegurar um nível elevado de fiabilidade dos sistemas de IA de risco elevado, estes deverão ser sujeitos a uma avaliação da conformidade antes de serem colocados no mercado ou colocados em serviço.
(124)
S cieľom minimalizovať zaťaženie prevádzkovateľov a predchádzať prípadnej duplicite je vhodné, aby sa v prípade vysokorizikových systémov AI súvisiacich s výrobkami, na ktoré sa vzťahujú existujúce harmonizačné právne predpisy Únie založené na novom legislatívnom rámci, posudzoval súlad týchto systémov AI s požiadavkami tohto nariadenia v rámci posudzovania zhody, ktoré je už stanovené v uvedených právnych predpisov. Uplatniteľnosť požiadaviek tohto nariadenia by preto nemala mať vplyv na konkrétnu logiku, metodiku ani všeobecnú štruktúru posudzovania zhody podľa príslušných harmonizačných právnych predpisov Únie.
(124)
Para minimizar os encargos impostos aos operadores e evitar possíveis duplicações, é conveniente que, no caso dos sistemas de IA de risco elevado relacionados com produtos abrangidos por legislação de harmonização da União com base no novo regime jurídico, o cumprimento dos requisitos do presente regulamento por parte desses sistemas de IA seja aferido no âmbito da avaliação da conformidade já prevista nessa lei. Como tal, a aplicabilidade dos requisitos do presente regulamento não deverá afetar a lógica, a metodologia ou a estrutura geral específicas da avaliação da conformidade nos termos da legislação de harmonização da União pertinente.
(125)
Vzhľadom na zložitosť vysokorizikových systémov AI a riziká, ktoré s nimi súvisia, je dôležité vyvinúť primeraný postup posudzovania zhody pre vysokorizikové systémy AI, do ktorého sú zapojené notifikované osoby, tzv. posudzovanie zhody treťou stranou. Vzhľadom na súčasné skúsenosti profesionálnych certifikačných subjektov, ktoré vykonávajú certifikáciu pred uvedením na trh v oblasti bezpečnosti výrobkov, a na odlišnú povahu súvisiacich rizík je však vhodné aspoň v počiatočnej fáze uplatňovania tohto nariadenia obmedziť rozsah uplatňovania posudzovania zhody treťou stranou v prípade iných vysokorizikových systémov AI, než tých, ktoré sa týkajú výrobkov. Posudzovanie zhody takýchto systémov by preto mal spravidla vykonávať poskytovateľ na vlastnú zodpovednosť, s jedinou výnimkou, ktorou sú systémy AI určené na použitie v biometrii.
(125)
Dada a complexidade dos sistemas de IA de risco elevado e os riscos que lhes estão associados, é importante desenvolver um procedimento de avaliação da conformidade adequado para sistemas de IA de risco elevado que envolvam organismos notificados, a chamada avaliação da conformidade por terceiros. Contudo, dada a atual experiência dos certificadores de pré-comercialização profissionais no domínio da segurança dos produtos e a diferente natureza dos riscos inerentes, é apropriado limitar, pelo menos numa fase inicial da aplicação do presente regulamento, o âmbito da avaliação da conformidade por terceiros aos sistemas de IA de risco elevado que não estejam relacionados com produtos. Por conseguinte, a avaliação da conformidade desses sistemas deverá ser realizada, regra geral, pelo prestador sob a sua própria responsabilidade, com a única exceção dos sistemas de IA concebidos para utilização em biometria.
(126)
S cieľom vykonávať podľa potreby posudzovania zhody treťou stranou by notifikované osoby mali byť notifikované podľa tohto nariadenia vnútroštátnymi príslušnými orgánmi za predpokladu, že spĺňajú súbor požiadaviek, najmä pokiaľ ide o nezávislosť, kompetentnosť, absenciu konfliktov záujmov a vhodné požiadavky na kybernetickú bezpečnosť. Notifikáciu týchto osôb by mali vnútroštátne príslušné orgány zasielať Komisii a ostatným členským štátom prostredníctvom elektronického nástroja notifikácie vyvinutého a riadeného Komisiou podľa článku R23 prílohy I k rozhodnutiu č. 768/2008/ES.
(126)
Sempre que seja necessário realizar avaliações da conformidade por terceiros, os organismos notificados deverão ser notificados por força do presente regulamento pelas autoridades nacionais competentes, desde que cumpram uma série de requisitos, nomeadamente em termos de independência, competência, ausência de conflitos de interesse e requisitos de cibersegurança adequados. A notificação desses organismos deverá ser enviada pelas autoridades nacionais competentes à Comissão e aos outros Estados-Membros por meio do instrumento de notificação eletrónica desenvolvido e gerido pela Comissão nos termos do artigo R23 do anexo I da Decisão n.o 768/2008/CE.
(127)
V súlade so záväzkami Únie vyplývajúcimi z Dohody Svetovej obchodnej organizácie o technických prekážkach obchodu je primerané uľahčiť vzájomné uznávanie výsledkov posudzovania zhody, ku ktorým dospeli príslušné orgány posudzovania zhody nezávislé od územia, na ktorom sú usadené, za predpokladu, že tieto orgány posudzovania zhody zriadené podľa práva tretej krajiny spĺňajú uplatniteľné požiadavky tohto nariadenia a Únia v tomto rozsahu uzavrela dohodu. V tejto súvislosti by Komisia mala na tento účel aktívne preskúmať možné medzinárodné nástroje, a najmä usilovať sa o uzavretie dohôd o vzájomnom uznávaní s tretími krajinami.
(127)
Em conformidade com os compromissos assumidos pela União no âmbito do Acordo sobre os Obstáculos Técnicos ao Comércio da Organização Mundial do Comércio, é adequado facilitar o reconhecimento mútuo dos resultados da avaliação da conformidade produzidos pelos organismos de avaliação da conformidade competentes, independentes do território em que se encontram estabelecidos, desde que esses organismos de avaliação da conformidade estabelecidos ao abrigo da legislação de um país terceiro cumpram os requisitos aplicáveis do presente regulamento e que a União tenha celebrado um acordo nessa medida. Neste contexto, a Comissão deverá explorar ativamente possíveis instrumentos internacionais para esse efeito e, em especial, celebrar acordos de reconhecimento mútuo com países terceiros.
(128)
V súlade so všeobecne zaužívaným pojmom podstatnej zmeny pre výrobky regulované harmonizačnými právnymi predpismi Únie je vhodné, aby sa vždy, keď nastane zmena, ktorá môže ovplyvniť súlad vysokorizikového systému AI s týmto nariadením (napríklad zmena operačného systému alebo softvérovej architektúry), alebo ak sa zmení zamýšľaný účel systému, tento systém AI považoval za nový systém AI, ktorý by sa mal podrobiť novému posudzovaniu zhody. Zmeny algoritmu a výkonu systémov AI, ktoré sa po uvedení na trh alebo do prevádzky ďalej „učia“, čiže automaticky prispôsobujú spôsob vykonávania funkcií, by však nemali predstavovať podstatnú zmenu za predpokladu, že tieto zmeny vopred stanovil poskytovateľ a posúdili sa v čase posudzovania zhody.
(128)
Em consonância com a noção comummente estabelecida de modificação substancial de produtos regulamentados pela legislação de harmonização da União, sempre que ocorra uma alteração que possa afetar a conformidade de um sistema de IA de risco elevado com o presente Regulamento (por exemplo, alteração do sistema operativo ou da arquitetura do software), ou sempre que a finalidade prevista do sistema se altere, é apropriado que esse sistema de IA seja considerado um novo sistema de IA que deverá ser submetido a uma nova avaliação da conformidade. No entanto, as alterações que ocorrem no algoritmo e no desempenho dos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou colocados em serviço, nomeadamente que adaptam automaticamente o modo de funcionamento, não deverão constituir uma modificação substancial, desde que tenham sido predeterminadas pelo prestador e examinadas aquando da avaliação da conformidade.
(129)
Vysokorizikové systémy AI by mali mať označenie CE, ktoré by preukazovalo ich súlad s týmto nariadením, aby im bol umožnený voľný pohyb v rámci vnútorného trhu. V prípade vysokorizikových systémov AI zabudovaných do výrobku by sa malo umiestniť fyzické označenie CE, ktoré môže byť doplnené digitálnym označením CE. V prípade vysokorizikových systémov AI poskytovaných len digitálne by sa malo použiť digitálne označenie CE. Členské štáty by nemali vytvárať neodôvodnené prekážky uvedeniu na trh ani do prevádzky v prípade vysokorizikových systémov AI, ktoré spĺňajú požiadavky stanovené v tomto nariadení a majú označenie CE.
(129)
Para que possam circular livremente dentro do mercado interno, os sistemas de IA de risco elevado deverão apresentar a marcação CE para indicar a sua conformidade com o presente regulamento. No caso dos sistemas de IA de risco elevado integrados num produto, deverá ser aposta uma marcação CE física, que pode ser complementada por uma marcação CE digital. No caso dos sistemas de IA de risco elevado disponibilizados apenas digitalmente, deverá ser utilizada uma marcação CE digital. Os Estados-Membros não poderão criar obstáculos injustificados à colocação no mercado nem à colocação em serviço de sistemas de IA de risco elevado que cumpram os requisitos previstos no presente regulamento e apresentem a marcação CE.
(130)
Rýchla dostupnosť inovačných technológií môže mať za určitých podmienok zásadný význam pre zdravie a bezpečnosť osôb, ochranu životného prostredia a zmenu klímy a pre spoločnosť ako celok. Je preto vhodné, aby orgány dohľadu nad trhom mohli z výnimočných dôvodov verejnej bezpečnosti alebo ochrany života a zdravia fyzických osôb, ochrany životného prostredia a ochrany kľúčových priemyselných a infraštruktúrnych aktív povoliť uvedenie na trh alebo do prevádzky systémov AI, ktoré neboli podrobené posudzovaniu zhody. V riadne odôvodnených situáciách stanovených v tomto nariadení môžu orgány presadzovania práva alebo orgány civilnej ochrany uviesť do prevádzky konkrétny vysokorizikový systém AI bez povolenia orgánu dohľadu nad trhom za predpokladu, že o takéto povolenie sa požiada počas používania alebo po ňom bez zbytočného odkladu.
(130)
Em certas condições, uma disponibilização rápida de tecnologias inovadoras pode ser crucial para a saúde e a segurança das pessoas, para a proteção do ambiente e as alterações climáticas e para a sociedade em geral. Como tal, é apropriado que, por razões excecionais de segurança pública ou proteção da vida e da saúde das pessoas singulares, da proteção do ambiente e da proteção dos ativos industriais e infraestruturais essenciais, as autoridades de fiscalização do mercado possam autorizar a colocação no mercado ou a colocação em serviço de sistemas de IA que não tenham sido objeto de uma avaliação da conformidade. Em situações devidamente justificadas, tal como previsto no presente regulamento, as autoridade responsáveis pela aplicação da lei ou as autoridades de proteção civil podem colocar em serviço um sistema de IA de risco elevado específico sem autorização da autoridade de fiscalização do mercado, desde que essa autorização seja solicitada durante ou após a utilização sem demora injustificada.
(131)
S cieľom uľahčiť prácu Komisie a členských štátov v oblasti AI, ako aj zvýšiť transparentnosť voči verejnosti by sa od poskytovateľov vysokorizikových systémov AI, ktoré nesúvisia s výrobkami patriacimi do rozsahu pôsobnosti príslušných existujúcich harmonizačných právnych predpisov Únie, ako aj od poskytovateľov, ktorí sa domnievajú, že vysokorizikový systém AI uvedený vo vysokorizikových prípadoch použitia v prílohe k tomuto nariadeniu nie je na základe výnimky vysokorizikový, malo vyžadovať, aby seba a informácie o svojom systéme AI zaregistrovali v databáze Únie, ktorú má zriadiť a spravovať Komisia. Pred použitím systému AI uvedeného vo vysokorizikových prípadoch použitia v prílohe k tomuto nariadeniu by sa subjekty nasadzujúce vysokorizikové systémy AI, ktoré sú orgánmi verejnej moci, verejnými agentúrami alebo verejnými subjektmi, mali zaregistrovať v takejto databáze a zvoliť si systém, ktorý plánujú používať. Ostatné nasadzujúce subjekty by mali mať právo tak urobiť dobrovoľne. Táto časť databázy Únie by mala byť bezplatne verejne prístupná a informácie by mali byť ľahko vyhľadateľné, zrozumiteľné a strojovo čitateľné. Databáza Únie by tiež mala byť používateľsky ústretová, napríklad poskytovaním funkcií vyhľadávania, a to aj prostredníctvom kľúčových slov, čo širokej verejnosti umožní nájsť relevantné informácie, ktoré majú byť predložené pri registrácii vysokorizikových systémov AI, a informácie o prípadoch použitia vysokorizikových systémov AI, ktoré sa uvádzajú v prílohe k tomuto nariadeniu a ktorým vysokorizikové systémy AI zodpovedajú. V databáze Únie by sa mala zaregistrovať aj každá podstatná zmena vysokorizikových systémov AI. V prípade vysokorizikových systémov AI v oblasti presadzovania práva, migrácie, azylu a riadenia kontroly hraníc by sa registračné povinnosti mali splniť v bezpečnej neverejnej časti databázy Únie. Prístup k bezpečnej neverejnej časti by sa mal prísne obmedziť na Komisiu, ako aj orgány dohľadu nad trhom, pokiaľ ide o ich vnútroštátnu časť uvedenej databázy. Vysokorizikové systémy AI v oblasti kritickej infraštruktúry by sa mali registrovať len na vnútroštátnej úrovni. Prevádzkovateľom databázy Únie by mala byť Komisia v súlade s nariadením (EÚ) 2018/1725. Aby sa zaistila plná funkčnosť databázy Únie pri jej zavedení, postup pri vytváraní databázy by mal zahŕňať vývoj funkčných špecifikácií Komisiou a nezávislú audítorskú správu. Komisia by mala pri plnení svojich úloh prevádzkovateľa údajov v databáze Únie zohľadniť riziká kybernetickej bezpečnosti. V záujme maximalizácie dostupnosti a využívania databázy Únie verejnosťou by databáza Únie vrátane informácií, ktoré sa prostredníctvom nej sprístupňujú, mala spĺňať požiadavky podľa smernice (EÚ) 2019/882.
(131)
Para facilitar o trabalho da Comissão e dos Estados-Membros no domínio da IA, bem como aumentar a transparência para o público, os prestadores de sistemas de IA de risco elevado que não os relacionados com produtos abrangidos pelo âmbito da legislação de harmonização da União em vigor aplicável, bem como os prestadores que consideram que um sistema de IA de risco elevado enumerado nos casos concretos de risco elevado num anexo do presente regulamento não é de risco elevado com base numa derrogação, deverão ser obrigados a registarem-se a si mesmos e a registar as informações sobre o seu sistema de IA de risco elevado numa base de dados da UE, a criar e gerir pela Comissão. Antes de um sistema de IA enumerado nos casos concretos de risco elevado de risco elevado num anexo do presente regulamento, os responsáveis pela implantação de sistemas de IA de risco elevado que sejam autoridades, agências ou organismos públicos, deverão registar-se nessa base de dados e selecionar o sistema que tencionam utilizar. Os outros responsáveis pela implantação deverão ter o direito de o fazer voluntariamente. Esta secção da base de dados da UE deverá ser acessível ao público, gratuitamente, e as informações deverão ser facilmente navegáveis, compreensíveis e legíveis por máquina. A base de dados da UE deverá também ser de fácil utilização, por exemplo oferecendo funcionalidades de pesquisa, nomeadamente através de palavras-chave, que permitam ao público em geral encontrar informações pertinentes a apresentar aquando do registo dos sistemas de IA de risco elevado e nos tipos de sistemas de IA de risco elevado, estabelecidas num anexo do presente regulamento a que os sistemas de IA de risco elevado correspondem. Qualquer modificação substancial de sistemas de IA de risco elevado também deverá ser registada na base de dados da UE. No caso dos sistemas de IA de risco elevado no domínio da aplicação da lei, da migração, do asilo e da gestão do controlo das fronteiras, as obrigações de registo deverão ser cumpridas numa secção não pública protegida da base de dados da UE. O acesso à secção segura não pública deverá ser estritamente limitado à Comissão e às autoridades de fiscalização do mercado no que diz respeito à respetiva secção nacional dessa base de dados. Os sistemas de IA de risco elevado no domínio das infraestruturas críticas só deverão ser registados a nível nacional. A Comissão deverá ser a responsável pelo tratamento da base de dados da UE, em conformidade com o Regulamento (UE) 2018/1725. Para assegurar que a base de dados esteja plenamente operacional à data de implantação, o procedimento para a criação da base de dados da UE deverá incluir o desenvolvimento de especificações funcionais pela Comissão e um relatório de auditoria independente. A Comissão deverá ter em conta os riscos para a cibersegurança e os riscos no exercício das suas funções de responsável pelo tratamento de dados na base de dados da UE. A fim de maximizar a disponibilidade e a utilização da base de dados pelo público, a base de dados da UE, incluindo as informações disponibilizadas através da mesma, deverá cumprir os requisitos estabelecidos na Diretiva (UE) 2019/882.
(132)
Určité systémy AI určené na interakciu s fyzickými osobami alebo generovanie obsahu môžu predstavovať osobitné riziko podvodu predstieraním identity alebo klamania bez ohľadu na to, či sú klasifikované ako vysokorizikové alebo nie. Používanie týchto systémov by preto malo za určitých okolností podliehať osobitným povinnostiam transparentnosti bez toho, aby boli dotknuté požiadavky a povinnosti týkajúce sa vysokorizikových systémov AI a s výhradou cielených výnimiek, aby sa zohľadnila osobitná potreba presadzovania práva. Fyzické osoby mali byť predovšetkým informované o tom, že interagujú so systémom AI, pokiaľ to nie je zrejmé z pohľadu fyzickej osoby, ktorá je primerane informovaná, pozorná a obozretná s prihliadnutím na okolnosti a kontext používania. Pri vykonávaní tejto povinnosti by sa mali zohľadniť charakteristiky fyzických osôb, ktoré z dôvodu ich veku alebo zdravotného postihnutia patria do zraniteľných skupín, a to v rozsahu, v akom je systém AI určený aj na interakciu s týmito skupinami. Okrem toho by fyzické osoby mali byť informované, keď sú vystavené systémom AI, ktoré spracúvaním ich biometrických údajov dokážu identifikovať alebo odvodiť emócie alebo zámery týchto osôb alebo ich zaradiť do osobitných kategórií. Takéto osobitné kategórie sa môžu týkať aspektov, ako je pohlavie, vek, farba vlasov, farba očí, tetovania, osobné črty, etnický pôvod, osobné preferencie a záujmy. Takéto informácie a oznámenia by sa mali poskytovať vo formátoch prístupných pre osoby so zdravotným postihnutím.
(132)
Determinados sistemas de IA concebidos para interagir com pessoas singulares ou para criar conteúdos podem representar riscos específicos de usurpação de identidade ou dissimulação, independentemente de serem considerados de risco elevado ou não. Como tal, em certas circunstâncias, a utilização desses sistemas deverá ser sujeita a obrigações de transparência específicas, sem prejuízo dos requisitos e obrigações aplicáveis aos sistemas de IA de risco elevado, e a exceções específicas, a fim de ter em conta a necessidade especial da aplicação da lei. Em particular, as pessoas singulares deverão ser informadas de que estão a interagir com um sistema de IA, salvo se tal for óbvio do ponto de vista de uma pessoa singular razoavelmente informada, atenta e advertida, tendo em conta as circunstâncias e o contexto de utilização. Ao aplicar essa obrigação, as características das pessoas singulares pertencentes a grupos vulneráveis devido à sua idade ou deficiência deverão ser tidas em conta na medida em que o sistema de IA também se destine a interagir com esses grupos. Além disso, as pessoas singulares deverão ser notificadas quando forem expostas a sistemas de IA que, através do tratamento dos seus dados biométricos, possam identificar ou inferir as emoções ou intenções dessas pessoas ou atribuí-las a categorias específicas. Essas categorias específicas podem dizer respeito a aspetos como sexo, idade, cor do cabelo, cor dos olhos, tatuagens, traços de personalidade, origem étnica, preferências e interesses pessoais. Essas informações e notificações deverão ser apresentadas em formatos acessíveis a pessoas com deficiência.
(133)
Rôzne systémy AI môžu vytvárať veľké množstvá syntetického obsahu, ktorý je pre ľudí čoraz ťažšie odlíšiť od obsahu vytvoreného človekom a autentického obsahu. Široká dostupnosť a zvyšujúce sa spôsobilosti týchto systémov majú významný vplyv na integritu a dôveru v informačný ekosystém, čo zvyšuje nové riziká mylných informácií a manipulácie vo veľkom rozsahu, podvodov, predstierania identity a klamania spotrebiteľov. Vzhľadom na tieto vplyvy, rýchle tempo technologického vývoja a potrebu nových metód a techník na vysledovanie pôvodu informácií je vhodné vyžadovať od poskytovateľov týchto systémov, aby začlenili technické riešenia, ktoré umožnia označovanie v strojovo čitateľnom formáte a zisťovanie toho, že výstup bol vytvorený alebo manipulovaný systémom AI a nie človekom. Takéto techniky a metódy by mali byť dostatočne spoľahlivé, interoperabilné, účinné a robustné, pokiaľ je to technicky možné, pričom by sa mali zohľadniť dostupné techniky alebo kombinácia takýchto techník, ako sú vodoznak, identifikácia metaúdajov, kryptografické metódy na preukázanie pôvodu a pravosti obsahu, metódy logovania, odtlačky prstov alebo iné vhodné techniky. Pri implementovaní tejto povinnosti by poskytovatelia mali zohľadňovať aj osobitosti a obmedzenia rôznych typov obsahu a relevantný technologický a trhový vývoj v tejto oblasti odrážajúci sa vo všeobecne uznávanom aktuálnom stave vývoja. Takéto techniky a metódy možno implementovať na úrovni systému AI alebo na úrovni modelu AI vrátane modelov AI na všeobecné účely vytvárajúcich obsah, čím sa uľahčí plnenie tejto povinnosti nadväzujúcim poskytovateľom systému AI. V záujme zachovania primeranosti je vhodné predpokladať, že táto povinnosť označovania by sa nemala vzťahovať na systémy AI, ktoré vykonávajú predovšetkým pomocnú funkciu pre štandardné redakčné úpravy, alebo systémy AI, ktoré podstatne nemenia vstupné údaje, ktoré poskytuje subjekt nasadzujúci systém AI, alebo ich sémantiku.
(133)
Um número de sistemas de IA consegue gerar grandes quantidades de conteúdos sintéticos que se tornam cada vez mais difíceis para os seres humanos de distinguir dos conteúdos gerados por seres humanos e autênticos. A ampla disponibilidade e o aumento das capacidades desses sistemas têm um impacto significativo na integridade e na confiança no ecossistema da informação, suscitando novos riscos de desinformação e manipulação em grande escala, fraude, usurpação de identidade e dissimulação dos consumidores. À luz desses impactos, do rápido ritmo tecnológico e da necessidade de novos métodos e técnicas para rastrear a origem das informações, é adequado exigir que os prestadores desses sistemas incorporem soluções técnicas que permitam a marcação num formato legível por máquina e a deteção de que o resultado foi gerado ou manipulado por um sistema de IA e não por um ser humano. Essas técnicas e métodos deverão ser suficientemente fiáveis, interoperáveis, eficazes e robustos, na medida em que tal seja tecnicamente viável, tendo em conta as técnicas disponíveis ou uma combinação de técnicas, tais como marcas de água, identificações de metadados, métodos criptográficos para comprovar a proveniência e autenticidade do conteúdo, métodos de registo, impressões digitais ou outras técnicas, conforme seja adequado. Ao aplicar essa obrigação, os prestadores deverão ter igualmente em conta as especificidades e as limitações dos diferentes tipos de conteúdos e a evolução tecnológica e do mercado no terreno, tal como refletido no estado da arte geralmente reconhecido. Essas técnicas e métodos podem ser aplicados ao nível do sistema de IA ou ao nível do modelo de IA, incluindo modelos de IA de finalidade geral que geram conteúdos, facilitando assim o cumprimento desta obrigação pelo prestador a jusante do sistema de IA. É adequado prever que, para que se mantenha proporcionada, esta obrigação de marcação não deva abranger os sistemas de IA que desempenhem principalmente uma função de apoio à edição normalizada ou aos sistemas de IA que não alterem substancialmente os dados de entrada apresentados pelo responsável pela implantação nem a semântica dos mesmos.
(134)
V nadväznosti na technické riešenia, ktoré používajú poskytovatelia systému AI, nasadzujúce subjekty, ktoré používajú systém AI na generovanie alebo manipulovanie obrazového obsahu, audioobsahu alebo videoobsahu, ktorý sa zjavne podobá existujúcim osobám, objektom, miestam, subjektom alebo udalostiam a ktorý by sa osobe falošne javil ako autentický alebo pravdivý (ďalej len „deep fake“), by takisto mali jasne a zreteľne zverejniť, že obsah bol umelo vytvorený alebo manipulovaný, a to zodpovedajúcim označením výstupu AI a zverejnením jeho umelého pôvodu. Dodržiavanie tejto povinnosti transparentnosti by sa nemalo vykladať tak, že naznačuje, že používanie systému AI alebo jeho výstupu bráni právu na slobodu prejavu a právu na slobodu umenia a vedeckého bádania, ktoré sú zaručené v charte, najmä ak je obsah súčasťou zjavne tvorivého, satirického, umeleckého, fiktívneho alebo analogického diela alebo programu s výhradou primeraných záruk pre práva a slobody tretích strán. V týchto prípadoch sa povinnosť transparentnosti v prípade deep fake stanovená v tomto nariadení obmedzuje na zverejnenie existencie takéhoto vytvoreného alebo manipulovaného obsahu primeraným spôsobom, ktorý nebráni zobrazovaniu alebo užívaniu diela vrátane jeho bežného využívania a používania pri zachovaní užitočnosti a kvality diela. Okrem toho je takisto vhodné stanoviť podobnú povinnosť zverejňovania v súvislosti s textom vytvoreným alebo manipulovaným AI v rozsahu, v akom sa uverejňuje na účely informovania verejnosti o záležitostiach verejného záujmu, pokiaľ obsah vytvorený AI neprešiel procesom ľudskej kontroly alebo redakčnej kontroly a pokiaľ fyzická alebo právnická osoba nenesie redakčnú zodpovednosť za uverejnenie obsahu.
(134)
Além das soluções técnicas utilizadas pelos prestadores do sistema de IA, os responsáveis pela implantação que recorrem a um sistema de IA para gerar ou manipular conteúdos de imagem, áudio ou vídeo cuja semelhança considerável com pessoas, objetos, locais, entidades ou eventos reais possa levar uma pessoa a crer, erroneamente, que são autênticos ou verdadeiros («falsificações profundas»), deverão também revelar de forma clara e percetível que os conteúdos foram artificialmente criados ou manipulados, identificando os resultados da IA como tal e divulgando a sua origem artificial. O cumprimento desta obrigação de transparência não deverá ser interpretado como indicando que a utilização do sistema de IA ou dos seus resultados entrava o direito à liberdade de expressão e o direito à liberdade das artes e das ciências consagrados na Carta, em especial se os conteúdos fizerem parte de uma obra ou programa de natureza manifestamente criativa, satírica, artística, ficcional ou análoga, sob reserva de garantias adequadas dos direitos e liberdades de terceiros. Nesses casos, a obrigação de transparência para as falsificações profundas estabelecida no presente regulamento limita-se à divulgação da existência de tais conteúdos gerados ou manipulados, de uma forma adequada que não prejudique a exibição ou a fruição da obra, incluindo a sua exploração e utilização normais, mantendo simultaneamente a sua utilidade e qualidade. Além disso, é igualmente adequado prever uma obrigação semelhante de divulgação em relação ao texto gerado ou manipulado por IA, na medida em que seja publicado com o objetivo de informar o público sobre questões de interesse público, a menos que o conteúdo gerado por IA tenha sido submetido a um processo de análise ou controlo editorial humano e uma pessoa singular ou coletiva detenha a responsabilidade editorial pela publicação do conteúdo.
(135)
Bez toho, aby bola dotknutá povinná povaha a úplná uplatniteľnosť povinností transparentnosti, môže Komisia takisto podporovať a uľahčovať vypracovanie kódexov postupov na úrovni Únie s cieľom uľahčiť účinnú implementáciu povinností týkajúcich sa odhaľovania a označovania umelo vytvoreného alebo manipulovaného obsahu vrátane podpory praktických opatrení na prípadné sprístupnenie mechanizmov odhaľovania a uľahčenie spolupráce s inými aktérmi v hodnotovom reťazci, šírenie obsahu alebo kontrolu jeho pravosti a pôvodu s cieľom umožniť verejnosti účinne rozlišovať obsah vytvorený AI.
(135)
Sem prejuízo da natureza obrigatória e da plena aplicabilidade das obrigações de transparência, a Comissão pode também incentivar e facilitar a elaboração de códigos de práticas a nível da União, a fim de facilitar a aplicação efetiva das obrigações em matéria de deteção e identificação de conteúdos artificialmente gerados ou manipulados, incluindo o apoio a disposições práticas para tornar acessíveis, se for caso disso, os mecanismos de deteção e facilitar a cooperação com outros intervenientes ao longo da cadeia de valor, a divulgação de conteúdos ou o controlo da sua autenticidade e proveniência, com vista a permitir que o público distinga eficazmente os conteúdos gerados por IA.
(136)
Povinnosti uložené poskytovateľom a nasadzujúcim subjektom určitých systémov AI v tomto nariadení s cieľom umožniť odhaľovanie a zverejňovanie toho, že výstupy týchto systémov sú umelo generované alebo manipulované, sú osobitne relevantné na uľahčenie účinného vykonávania nariadenia (EÚ) 2022/2065. Týka sa to najmä povinností poskytovateľov veľmi veľkých online platforiem alebo veľmi veľkých internetových vyhľadávačov identifikovať a zmierňovať systémové riziká, ktoré môžu vyplynúť zo šírenia obsahu, ktorý bol umelo vytvorený alebo manipulovaný, najmä riziko skutočných alebo predvídateľných negatívnych účinkov na demokratické procesy, občiansku diskusiu a volebné procesy, a to aj prostredníctvom dezinformácií. Požiadavkou na označovanie obsahu vytvoreného systémami AI podľa tohto nariadenia nie je dotknutá povinnosť poskytovateľov hostingových služieb podľa článku 16 ods. 6 nariadenia (EÚ) 2022/2065 spracúvať oznámenia o nezákonnom obsahu prijaté podľa článku 16 ods. 1 uvedeného nariadenia a nemala by ovplyvňovať posúdenie a rozhodnutie o nezákonnosti konkrétneho obsahu. Toto posúdenie by sa malo vykonať výlučne s odkazom na pravidlá upravujúce zákonnosť obsahu.
(136)
A fim de facilitar a aplicação efetiva do Regulamento (UE) 2022/2065, as obrigações impostas por força do presente regulamento aos prestadores e responsáveis pela implantação de determinados sistemas de IA são particularmente pertinentes para permitir detetar e divulgar se os resultados desses sistemas são artificialmente gerados ou manipulados. Tal aplica-se, em especial, às obrigações dos prestadores de plataformas em linha de muito grande dimensão ou de motores de pesquisa em linha de muito grande dimensão que consistem em identificar e atenuar os riscos sistémicos que possam resultar da divulgação de conteúdos artificialmente gerados ou manipulados, em especial o risco de efeitos negativos reais ou previsíveis nos processos democráticos, no debate público e nos processos eleitorais, nomeadamente através da desinformação. O requisito de identificar conteúdos gerados por sistemas de IA nos termos do presente regulamento não prejudica a obrigação prevista no artigo 16.o, n.o 6, do Regulamento (UE) 2022/2065 de os prestadores de serviços de alojamento virtual procederem ao tratamento de notificações sobre conteúdos ilegais recebidas nos termos do artigo 16.o, n.o 1 desse regulamento, e não deverá influenciar a avaliação e a decisão sobre a ilegalidade dos conteúdos específicos. Essa avaliação deverá ser efetuada unicamente à luz das regras que regem a legalidade do conteúdo.
(137)
Dodržiavanie povinností transparentnosti v prípade systémov AI, na ktoré sa vzťahuje toto nariadenie, by sa nemalo vykladať ako naznačujúce to, že používanie systému AI alebo jeho výstupov je podľa tohto nariadenia alebo iných právnych predpisov Únie a členských štátov zákonné, a nemali by ním byť dotknuté iné povinnosti transparentnosti uložené subjektom nasadzujúcim systémy AI stanovené v práve Únie alebo vo vnútroštátnom práve.
(137)
O cumprimento das obrigações de transparência aplicáveis aos sistemas de IA abrangidas pelo presente regulamento não deverá ser interpretado como indicando que a utilização do sistema de IA ou dos seus resultados é lícita ao abrigo do presente regulamento ou de outra legislação da União e dos Estados-Membros e não deverá prejudicar outras obrigações de transparência dos responsáveis pela implantação de sistemas de IA estabelecidas no direito da União ou do direito nacional.
(138)
AI je rýchlo sa rozvíjajúca skupina technológií, ktorá si vyžaduje regulačný dohľad a bezpečný a kontrolovaný priestor na experimentovanie, pričom sa musí zabezpečiť zodpovedná inovácia a integrovanie primeraných záruk a opatrení na zmiernenie rizika. Na zabezpečenie právneho rámca, ktorý podporuje inováciu, je vhodný do budúcnosti a odolný voči narušeniu, by členské štáty mali zabezpečiť, aby ich vnútroštátne príslušné orgány zriadili na vnútroštátnej úrovni aspoň jedno regulačné experimentálne prostredie pre AI s cieľom uľahčiť vývoj a testovanie inovačných systémov AI pod prísnym regulačným dohľadom skôr, než sa tieto systémy uvedú na trh alebo inak uvedú do prevádzky. Členské štáty by mohli splniť túto povinnosť aj účasťou v už existujúcich regulačných experimentálnych prostrediach alebo spoločným zriadením experimentálneho prostredia s jedným alebo viacerými príslušnými orgánmi členských štátov, pokiaľ táto účasť poskytuje zúčastneným členským štátom rovnocennú úroveň vnútroštátneho pokrytia. Regulačné experimentálne prostredia pre AI by sa mohli zriadiť vo fyzickej, digitálnej alebo hybridnej forme a môžu zahŕňať fyzické, ako aj digitálne produkty. Zriaďujúce orgány by mali takisto zabezpečiť, aby regulačné experimentálne prostredia pre AI mali na svoje fungovanie primerané zdroje vrátane finančných a ľudských zdrojov.
(138)
A IA é uma família de tecnologias em rápida evolução que exige supervisão regulamentar e um espaço seguro e controlado para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas. Para assegurar um regime jurídico que promova a inovação, preparado para o futuro e resistente a perturbações, os Estados-Membros deverão assegurar que as respetivas autoridades nacionais competentes criem pelo menos um ambiente de testagem da regulamentação da IA a nível nacional que facilite o desenvolvimento e a testagem de sistemas de IA inovadores sob uma supervisão regulamentar rigorosa, antes de estes sistemas serem colocados no mercado ou colocados em serviço. Os Estados-Membros poderão também cumprir esta obrigação participando em ambientes de testagem da regulamentação já existentes ou criando conjuntamente um ambiente de testagem com uma ou mais autoridades competentes dos Estados-Membros, na medida em que essa participação proporcione um nível equivalente de cobertura nacional para os Estados-Membros participantes. Os ambientes de testagem da regulamentação da IA poderão ser criados sob forma física, digital ou híbrida e podem acolher produtos físicos e digitais. As autoridades responsáveis pela criação deverão também assegurar que os ambientes de testagem da regulamentação da IA dispõem dos recursos adequados para o seu funcionamento, nomeadamente recursos financeiros e humanos.
(139)
Cieľmi regulačných experimentálnych prostredí pre AI by mala byť podpora inovácie v oblasti AI vytvorením kontrolovaného experimentálneho a testovacieho prostredia vo fáze vývoja a pred uvedením na trh, aby sa zabezpečil súlad inovačných systémov AI s týmto nariadením a iným relevantný právom Únie a vnútroštátnym právom. Okrem toho by sa regulačné experimentálne prostredia pre AI mali zamerať na zvýšenie právnej istoty inovátorov a dohľadu príslušných orgánov a pochopenie príležitostí, vznikajúcich rizík a vplyvov používania AI, na uľahčenie regulačného vzdelávania orgánov a podnikov, a to aj vzhľadom na budúce úpravy právneho rámca, na podporu spolupráce a výmeny najlepších postupov s orgánmi zapojenými do regulačných experimentálnych prostredí pre AI, a na urýchlenie prístupu na trhy, a to aj odstránením prekážok pre MSP vrátane startupov. Regulačné experimentálne prostredia pre AI by mali byť široko dostupné v celej Únii a osobitná pozornosť by sa mala venovať ich dostupnosti pre MSP vrátane startupov. Účasť v regulačnom experimentálnom prostredí pre AI by sa mala zamerať na otázky, ktoré vyvolávajú právnu neistotu pre poskytovateľov a potenciálnych poskytovateľov pri inovácii a experimentovaní s AI v Únii, a prispievať k regulačnému vzdelávaniu založenému na dôkazoch. Dohľad nad systémami AI v regulačnom experimentálnom prostredí pre AI by sa preto mal vzťahovať na ich vývoj, trénovanie, testovanie a validáciu pred ich uvedením na trh alebo do prevádzky, ako aj na pojem podstatná zmena a výskyt takýchto zmien, ktoré si môžu vyžadovať nový postup posudzovania zhody. Ak sa počas vývoja a testovania takýchto systémov AI zistia akékoľvek významné riziká, malo by sa pristúpiť k primeranému zmierneniu rizík, a ak to nie je možné, k pozastaveniu procesu vývoja a testovania. Vnútroštátne príslušné orgány, ktoré zriaďujú regulačné experimentálne prostredia pre AI, by mali v prípade potreby spolupracovať s inými relevantnými orgánmi vrátane tých, ktoré dohliadajú na ochranu základných práv, a mohli by umožniť zapojenie ďalších aktérov v rámci ekosystému AI, ako sú vnútroštátne alebo európske normalizačné organizácie, notifikované osoby, skúšobné a experimentálne zariadenia, výskumné a experimentálne laboratóriá, európske centrá digitálnych inovácií a príslušné zainteresované strany a organizácie občianskej spoločnosti. S cieľom zabezpečiť jednotné vykonávanie v celej Únii a úspory z rozsahu je vhodné stanoviť spoločné pravidlá pre zavádzanie regulačných experimentálnych prostredí pre AI a rámec pre spoluprácu medzi príslušnými orgánmi zapojenými do dohľadu nad experimentálnymi prostrediami. Regulačné experimentálne prostredia pre AI zriadené podľa tohto nariadenia by nemali mať vplyv na iné právne predpisy umožňujúce zriadenie iných experimentálnych prostredí zameraných na zabezpečenie súladu s iným právnym predpisom, než je toto nariadenie. V prípade potreby by relevantné príslušné orgány zodpovedné za tieto iné regulačné experimentálne prostredia mali zvážiť výhody používania týchto experimentálnych prostredí aj na účely zabezpečenia súladu systémov AI s týmto nariadením. Na základe dohody medzi vnútroštátnymi príslušnými orgánmi a účastníkmi regulačného experimentálneho prostredia pre AI sa testovanie v reálnych podmienkach môže vykonávať a môže sa naň dohliadať aj v rámci regulačného experimentálneho prostredia pre AI.
(139)
Os ambientes de testagem da regulamentação da IA deverão ter os seguintes objetivos: fomentar a inovação no domínio da IA, mediante a criação de um ambiente controlado de experimentação e testagem na fase de desenvolvimento e pré-comercialização, com vista a assegurar que os sistemas de IA inovadores são conformes com o presente regulamento e com outras disposições pertinentes do direito da União e do direito nacional. Além disso, os ambientes de testagem da regulamentação da IA deverão visar melhorar a segurança jurídica para os inovadores, bem como a supervisão e compreensão, por parte das autoridades competentes, das oportunidades, dos riscos emergentes e dos impactos da utilização da IA, facilitar a aprendizagem da regulamentação para as autoridades e as empresas, nomeadamente com vista a futuras adaptações do regime jurídico, apoiar a cooperação e a partilha de boas práticas com as autoridades envolvidas no ambiente de testagem da regulamentação da IA, e acelerar o acesso aos mercados, nomeadamente eliminando os entraves para as PME, incluindo as empresas em fase de arranque. Os ambientes de testagem da regulamentação da IA deverão estar amplamente disponíveis em toda a União, devendo ser prestada especial atenção à sua acessibilidade para as PME, incluindo as empresas em fase de arranque. A participação nos ambientes de testagem da regulamentação da IA deverá centrar-se em problemas que criam incerteza jurídica para os prestadores e potenciais prestadores ao inovarem, fazerem experiências com a IA na União e contribuírem para uma aprendizagem regulamentar baseada em dados concretos. A supervisão dos sistemas de IA nos ambientes de testagem da regulamentação da IA deverá, por conseguinte, abranger o seu desenvolvimento, treino, testagem e validação antes de os sistemas serem colocados no mercado ou colocados em serviço, bem como a noção e a ocorrência de modificações substanciais que possam exigir um novo procedimento de avaliação da conformidade. A identificação de quaisquer riscos significativos durante o desenvolvimento e a testagem desses sistemas de IA deverá resultar na atenuação adequada dos riscos e, na sua falta, na suspensão do processo de desenvolvimento e testagem. Se for caso disso, as autoridades nacionais competentes que criam ambientes de testagem da regulamentação da IA deverão cooperar com outras autoridades pertinentes, incluindo as que supervisionam a proteção dos direitos fundamentais, e poderão permitir a participação de outros intervenientes no ecossistema da IA, tais como organizações de normalização, organismos notificados, instalações de ensaio e experimentação, laboratórios de investigação e experimentação, polos europeus de inovação digital e organizações pertinentes das partes interessadas e da sociedade civil, quer nacionais quer europeus. Para garantir uma aplicação uniforme em toda a União e assegurar economias de escala, é apropriado criar regras comuns para a implantação dos ambientes de testagem da regulamentação da IA e um regime para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes. Os ambientes de testagem da regulamentação da IA criados ao abrigo do presente regulamento não deverão prejudicar outras disposições pertinentes do direito que preveja a criação de outros ambientes de testagem destinados a assegurar o cumprimento do direito que não o presente regulamento. Se for caso disso, as autoridades competentes responsáveis por esses outros ambientes de testagem da regulamentação deverão ter em conta os benefícios da utilização desses ambientes de testagem também com o objetivo de assegurar a conformidade dos sistemas de IA com o presente regulamento. Mediante acordo entre as autoridades nacionais competentes e os participantes no ambiente de testagem da regulamentação da IA, a testagem em condições reais também pode ser efetuada e supervisionada no âmbito do ambiente de testagem da regulamentação da IA.
(140)
Toto nariadenie by malo poskytnúť právny základ pre poskytovateľov a potenciálnych poskytovateľov v regulačných experimentálnych prostrediach pre AI na používanie osobných údajov, ktoré boli získané na iné účely, pri vývoji určitých systémov AI vo verejnom záujme v rámci regulačného experimentálneho prostredia pre AI v súlade s článkom 6 ods. 4 a článkom 9 ods. 2 písm. g) nariadenia (EÚ) 2016/679 a článkami 5, 6 a 10 nariadenia (EÚ) 2018/1725, a bez toho, aby bol dotknutý článok 4 ods. 2 a článok 10 smernice (EÚ) 2016/680. Všetky ostatné povinnosti prevádzkovateľov a práva dotknutých osôb podľa nariadenia (EÚ) 2016/679, nariadenia (EÚ) 2018/1725 a smernice (EÚ) 2016/680 zostávajú uplatniteľné. Toto nariadenie by predovšetkým nemalo poskytovať právny základ v zmysle článku 22 ods. 2 písm. b) nariadenia (EÚ) 2016/679 a článku 24 ods. 2 písm. b) nariadenia (EÚ) 2018/1725. Poskytovatelia a potenciálni poskytovatelia v regulačnom experimentálnom prostredí pre AI by mali zabezpečiť primerané záruky a spolupracovať s príslušnými orgánmi, a to aj tým, že budú postupovať podľa ich usmernení a konať promptne a v dobrej viere s cieľom primerane zmierniť akékoľvek zistené vysoké riziká pre bezpečnosť, zdravie a základné práva, ktoré môžu vzniknúť počas vývoja, testovania a experimentácie v uvedenom experimentálnom prostredí.
(140)
O presente regulamento deverá estabelecer o fundamento jurídico para a utilização, pelos prestadores e potenciais prestadores no ambiente de testagem da regulamentação da IA, de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de determinados sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA, apenas em condições específicas, em conformidade com o artigo 6.o, n.o 4, e artigo 9.o, n.o 2, alínea g), do Regulamento (UE) 2016/679 e com os artigos 5.o, 6.o e 10.o do Regulamento (UE) 2018/1725, e sem prejuízo do artigo 4.o, n.o 2, e do artigo 10.o da Diretiva (UE) 2016/680. Todas as outras obrigações dos responsáveis pelo tratamento de dados e todos os outros direitos dos titulares dos dados ao abrigo dos Regulamentos (UE) 2016/679 e (UE) 2018/1725 e da Diretiva (UE) 2016/680 continuam a ser aplicáveis. Em especial, o presente regulamento não deverá constituir uma base jurídica na aceção do artigo 22.o, n.o 2, alínea b), do Regulamento (UE) 2016/679 e do artigo 24.o, n.o 2, alínea b), do Regulamento (UE) 2018/1725. Os prestadores e potenciais prestadores no ambiente de testagem da regulamentação da IA deverão assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações e atuando de forma célere e de boa-fé para atenuar adequadamente eventuais riscos significativos identificados para a segurança, a saúde e os direitos fundamentais que possam revelar-se durante o desenvolvimento, a testagem e a experimentação nesse ambiente de testagem.
(141)
S cieľom urýchliť proces vývoja a uvádzania na trh vysokorizikových systémov AI uvedených v prílohe k tomuto nariadeniu je dôležité, aby poskytovatelia alebo potenciálni poskytovatelia takýchto systémov mohli využívať aj osobitný režim testovania týchto systémov v reálnych podmienkach bez toho, aby sa zapojili do regulačného experimentálneho prostredia pre AI. V takýchto prípadoch by sa však pri zohľadnení možných dôsledkov takéhoto testovania na fyzické osoby malo zabezpečiť, aby sa nariadením zaviedli primerané a dostatočné záruky a podmienky pre poskytovateľov alebo potenciálnych poskytovateľov. Takéto záruky by okrem iného mali zahŕňať požadovanie informovaného súhlasu fyzických osôb s účasťou na testovaní v reálnych podmienkach s výnimkou presadzovania práva v prípadoch, keď by vyžiadanie informovaného súhlasu bránilo testovaniu systému AI. Súhlas účastníkov s účasťou na takomto testovaní podľa tohto nariadenia je odlišný od súhlasu dotknutých osôb so spracúvaním ich osobných údajov podľa príslušného práva o ochrane údajov a nie je ním dotknutý. Takisto je dôležité minimalizovať riziká a umožniť dohľad zo strany príslušných orgánov, a preto požadovať, aby potenciálni poskytovatelia predložili príslušnému orgánu dohľadu nad trhom plán testovania v reálnych podmienkach, registrovali testovanie v špecializovaných oddieloch v databáze Únie s určitými obmedzenými výnimkami, stanovili obmedzenia obdobia, počas ktorého možno testovanie vykonávať, a vyžadovali dodatočné záruky pre osoby patriace do určitých zraniteľných skupín, ako aj písomnú dohodu, v ktorej sa vymedzia úlohy a povinnosti potenciálnych poskytovateľov a nasadzujúcich subjektov a účinný dohľad zo strany príslušných pracovníkov zapojených do testovania v reálnych podmienkach. Okrem toho je vhodné stanoviť dodatočné záruky na zabezpečenie toho, aby sa predpovede, odporúčania alebo rozhodnutia systému AI mohli účinne zvrátiť a ignorovať a aby boli osobné údaje chránené a vymazané, keď účastníci stiahli svoj súhlas s účasťou na testovaní bez toho, aby boli dotknuté ich práva ako dotknutých osôb podľa právnych predpisov Únie v oblasti ochrany údajov. Pokiaľ ide o prenos údajov, je tiež vhodné stanoviť, že údaje zozbierané a spracúvané na účely testovania v reálnych podmienkach by sa mali prenášať do tretích krajín len za predpokladu, že sa implementujú primerané a uplatniteľné záruky podľa práva Únie, najmä v súlade so základňami pre prenos osobných údajov podľa práva Únie o ochrane údajov, zatiaľ čo v prípade iných ako osobných údajov sa zavedú primerané záruky v súlade s právom Únie, ako sú nariadenia Európskeho parlamentu a Rady (EÚ) 2022/868 (42) a (EÚ) 2023/2854 (43).
(141)
A fim de acelerar o processo de desenvolvimento e colocação no mercado dos sistemas de IA de risco elevado enumerados num anexo do presente regulamento, é importante que os prestadores ou potenciais prestadores desses sistemas também possam beneficiar de um regime específico para testar esses sistemas em condições reais, sem participarem num ambiente de testagem da regulamentação da IA. Contudo, nesses casos, tendo em conta as possíveis consequências dessas testagens para as pessoas singulares, deverá ser assegurado que o presente regulamento introduz garantias e condições adequadas e suficientes para os prestadores ou potenciais prestadores. Essas garantias deverão incluir, nomeadamente, o pedido de consentimento informado às pessoas singulares para participarem na testagem em condições reais, salvo no que respeita à aplicação da lei em que a tentativa de obtenção do consentimento informado impediria o sistema de IA de ser testado. O consentimento das pessoas singulares para participar nessa testagem ao abrigo do presente regulamento é distinto e sem prejuízo do consentimento dos titulares dos dados para o tratamento dos seus dados pessoais ao abrigo da legislação aplicável em matéria de proteção de dados. É igualmente importante minimizar os riscos e permitir a supervisão pelas autoridades competentes e, por conseguinte, exigir que os potenciais prestadores tenham um plano de testagem em condições reais apresentado à autoridade de fiscalização do mercado competente, registar a testagem em secções específicas da base de dados da UE, sob reserva de algumas exceções limitadas, estabelecer limitações ao período durante o qual as testagens podem ser realizadas e exigir garantias adicionais para pessoas pertencentes a certos grupos vulneráveis, bem como um acordo escrito que defina as funções e responsabilidades dos potenciais prestadores e responsáveis pela implantação e uma supervisão eficaz por parte do pessoal competente envolvido na testagem em condições reais. Além disso, é conveniente prever salvaguardas adicionais para assegurar que as previsões, recomendações ou decisões do sistema de IA possam ser efetivamente revertidas e ignoradas e que os dados pessoais sejam protegidos e apagados quando os titulares tiverem retirado o seu consentimento para participar na testagem, sem prejuízo dos seus direitos enquanto titulares de dados ao abrigo da legislação da União em matéria de proteção de dados. No que diz respeito à transferência de dados, é igualmente conveniente prever que os dados recolhidos e tratados para efeitos de testagem em condições reais só sejam transferidos para países terceiros quando forem estabelecidas garantias adequadas e aplicáveis ao abrigo do direito da União, nomeadamente em conformidade com as bases para a transferência de dados pessoais nos termos do direito da União em matéria de proteção de dados, ao passo que, para os dados não pessoais, sejam estabelecidas garantias adequadas em conformidade com o direito da União, como os Regulamentos (UE) 2022/868 (42) e (UE) 2023/2854 (43) do Parlamento Europeu e do Conselho.
(142)
S cieľom zabezpečiť, aby AI viedla k sociálne a environmentálne prospešným výsledkom, sa členské štáty nabádajú, aby podporovali a propagovali výskum a vývoj riešení AI na podporu sociálne a environmentálne prospešných činností, ako sú riešenia založené na AI, s cieľom zvýšiť prístupnosť pre osoby so zdravotným postihnutím, riešiť sociálno-ekonomické nerovnosti alebo plniť environmentálne ciele, a to vyčlenením dostatočných zdrojov vrátane verejných finančných prostriedkov a finančných prostriedkov Únie, a vo vhodných prípadoch a za predpokladu, že sú splnené kritériá oprávnenosti a výberu, so zohľadnením najmä projektov, ktoré sledujú takéto ciele. Takéto projekty by mali byť založené na zásade interdisciplinárnej spolupráce medzi vývojármi AI, odborníkmi na nerovnosť a nediskrimináciu, prístupnosť, spotrebiteľské, environmentálne a digitálne práva, ako aj akademickými pracovníkmi.
(142)
A fim de garantir que a IA conduza a resultados benéficos do ponto de vista social e ambiental, os Estados-Membros são incentivados a apoiar e promover a investigação e o desenvolvimento de soluções de IA em prol de resultados social e ambientalmente benéficos, tais como soluções baseadas na IA para aumentar a acessibilidade para as pessoas com deficiência, combater as desigualdades socioeconómicas ou cumprir as metas ambientais, através da afetação de recursos suficientes, incluindo financiamento público e da União e, se for caso disso e desde que os critérios de elegibilidade e seleção sejam cumpridos, tendo em conta, em especial, projetos que prossigam esses objetivos. Esses projetos deverão ser baseados no princípio da cooperação interdisciplinar entre criadores de IA, especialistas em matéria de desigualdade, não discriminação, acessibilidade e direitos do consumidor, ambientais e digitais, bem como do meio académico.
(143)
V záujme podpory a ochrany inovácií je dôležité, aby sa osobitne prihliadalo na záujmy MSP vrátane startupov, ktoré sú poskytovateľmi systémov AI alebo subjektmi nasadzujúcimi systémy AI. Na tento účel by členské štáty mali vyvíjať iniciatívy zamerané na týchto prevádzkovateľov vrátane zvyšovania informovanosti a informačnej komunikácie. Členské štáty by mali poskytnúť MSP vrátane startupov, ktoré majú sídlo alebo pobočku v Únii, prednostný prístup do regulačných experimentálnych prostredí pre AI za predpokladu, že spĺňajú podmienky oprávnenosti a podmienky účasti a nebránia iným poskytovateľom a potenciálnym poskytovateľom v prístupe do experimentálnych prostredí za predpokladu, že sú splnené rovnaké podmienky a kritériá. Členské štáty by mali použiť existujúce kanály a v prípade potreby vytvoriť nové vyhradené kanály na komunikáciu s MSP vrátane startupov, subjektmi nasadzujúcimi systémy AI, ďalšími inovátormi a podľa potreby s miestnymi orgánmi verejnej moci s cieľom podporovať MSP v celom štádiu ich rozvoja poskytovaním usmernení a odpovedaním na otázky týkajúce sa vykonávania tohto nariadenia. Vo vhodných prípadoch by tieto kanály mali navzájom spolupracovať s cieľom vytvoriť synergie a zabezpečiť homogénnosť v ich usmerneniach pre MSP vrátane startupov a subjektov nasadzujúcich systémy AI. Členské štáty by taktiež mali uľahčovať účasť MSP a iných relevantných zainteresovaných strán na procese tvorby noriem. Pri stanovovaní poplatkov za posudzovanie zhody notifikovanými osobami by sa okrem toho mali zohľadňovať osobitné záujmy a potreby poskytovateľov, ktorí sú MSP vrátane startupov. Komisia by mala pravidelne posudzovať náklady MSP vrátane startupov na certifikáciu a dodržiavanie predpisov, a to aj transparentnými konzultáciami, a mala by spolupracovať s členskými štátmi na znižovaní týchto nákladov. Napríklad, značné náklady pre poskytovateľov a iných prevádzkovateľov, najmä menších prevádzkovateľov, môžu predstavovať náklady na preklady súvisiace s povinnou dokumentáciou a komunikáciou s orgánmi. Členské štáty by mali podľa možnosti zabezpečiť, aby jedným z jazykov, ktoré určili a akceptovali na účely dokumentácie vedenej príslušnými poskytovateľmi a komunikácie s prevádzkovateľmi, bol jazyk, ktorému vo všeobecnosti rozumie čo najväčší počet cezhraničných nasadzujúcich subjektov. S cieľom riešiť osobitné potreby MSP vrátane startupov by Komisia mala na žiadosť rady pre AI poskytnúť štandardizované vzory pre oblasti, na ktoré sa vzťahuje toto nariadenie. Okrem toho by Komisia mala dopĺňať úsilie členských štátov tým, že všetkým poskytovateľom a nasadzujúcim subjektom poskytne jednotnú informačnú platformu s ľahko použiteľnými informáciami o tomto nariadení, organizovaním vhodných komunikačných kampaní na zvýšenie informovanosti o povinnostiach vyplývajúcich z tohto nariadenia a hodnotením a podporou zbližovania najlepších postupov v postupoch verejného obstarávania v súvislosti so systémami AI. Stredné podniky, ktoré sa donedávna považovali za malé podniky v zmysle prílohy k odporúčaniu Komisie 2003/361/ES (44), by mali mať prístup k týmto podporným opatreniam, keďže týmto novým stredným podnikom môžu niekedy chýbať právne zdroje a odborná príprava potrebné na zabezpečenie riadneho pochopenia a dodržiavania tohto nariadenia.
(143)
A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses das PME, incluindo as empresas em fase de arranque, que sejam prestadores e responsáveis pela implantação de sistemas de IA. Para esse efeito, os Estados-Membros deverão desenvolver iniciativas dirigidas a esses operadores, incluindo ações de sensibilização e comunicação de informações. Os Estados-Membros deverão proporcionar às PME, incluindo às empresas em fase de arranque, com sede social ou sucursal na União acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que aquelas cumpram as condições de elegibilidade e os critérios de seleção e sem impedir que outros prestadores e potenciais prestadores tenham acesso aos ambientes de testagem, contanto que estejam preenchidas as mesmas condições e critérios. Os Estados-Membros deverão utilizar os canais existentes e, se for caso disso, criar novos canais específicos para comunicar com as PME, incluindo as empresas em fase de arranque, os responsáveis pela implantação, outros inovadores e, conforme adequado, as autoridades públicas locais, a fim de apoiar as PME ao longo da sua trajetória de desenvolvimento, facultando orientações e respondendo a perguntas sobre a aplicação do presente regulamento. Sempre que adequado, esses canais deverão trabalhar em conjunto para criar sinergias e assegurar a homogeneidade da sua orientação às PME, inclusive às empresas em fase de arranque, e aos responsáveis pela implantação. Paralelamente, os Estados-Membros deverão facilitar a participação das PME e de outras partes interessadas pertinentes nos processos de desenvolvimento de normalização. Além disso, os interesses e as necessidades específicos dos prestadores que são PME, incluindo empresas em fase de arranque, deverão ser tidos em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. A Comissão deverá avaliar periodicamente os custos de certificação e de conformidade para as PME, incluindo as empresas em fase de arranque, através de consultas transparentes, e deverá trabalhar com os Estados-Membros para baixar esses custos. Por exemplo, os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um encargo substancial para os prestadores e outros operadores, nomeadamente para os prestadores de menor dimensão. Os Estados-Membros deverão eventualmente assegurar que uma das línguas por si determinadas e aceites para a documentação pertinente dos prestadores e para a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de responsáveis pela implantação transfronteiriça. A fim de dar resposta às necessidades específicas das PME, incluindo as empresas em fase de arranque, a Comissão deverá disponibilizar modelos normalizados para os domínios abrangidos pelo presente regulamento, a pedido do Comité para a IA. Além disso, a Comissão deverá complementar os esforços dos Estados-Membros, disponibilizando uma plataforma única de informação com informações de fácil utilização sobre o presente regulamento para todos os prestadores e responsáveis pela implantação, organizando campanhas de comunicação adequadas para sensibilizar para as obrigações decorrentes do presente regulamento e avaliando e promovendo a convergência das melhores práticas em procedimentos de contratação pública relacionados com sistemas de IA. As empresas de média dimensão que eram até recentemente consideradas como de pequena dimensão, na aceção do anexo da Recomendação 2003/361/CE (44) da Comissão, deverão ter acesso a essas medidas de apoio, uma vez que essas novas empresas de média dimensão podem, por vezes, não dispor dos recursos jurídicos e da formação necessários para assegurar a compreensão e o cumprimento adequados do presente regulamento.
(144)
S cieľom podporovať a chrániť inovácie by k dosiahnutiu cieľov tohto nariadenia mala prispievať platforma AI na požiadanie a všetky relevantné programy a projekty financovania Únie, ako je program Digitálna Európa alebo Horizont Európa, ktoré Komisia a členské štáty vykonávajú na vnútroštátnej úrovni alebo na úrovni Únie.
(144)
A fim de promover e proteger a inovação, a plataforma IA a pedido, todos os programas e projetos de financiamento pertinentes da União — como o Programa Europa Digital e o Horizonte Europa — executados pela Comissão e pelos Estados-Membros a nível da União ou a nível nacional deverão, conforme o caso, contribuir para a consecução dos objetivos do presente regulamento.
(145)
S cieľom minimalizovať riziká spojené s vykonávaním vyplývajúce z nedostatku poznatkov a odborných znalostí na trhu, ako aj uľahčiť poskytovateľom, najmä MSP vrátane startupov, a notifikovaným osobám plnenie ich povinností podľa tohto nariadenia by k vykonávaniu tohto nariadenia mali predovšetkým prispievať platforma AI na požiadanie, európske centrá digitálnych inovácií a testovacie a experimentálne zariadenia zriadené Komisiou a členskými štátmi na úrovni Únie alebo na vnútroštátnej úrovni. Platforma AI na požiadanie, európske centrá digitálnych inovácií a testovacie a experimentálne zariadenia sú v rámci svojho poslania a oblastí svojej pôsobnosti schopné poskytovať poskytovateľom a notifikovaným osobám najmä technickú a vedeckú podporu.
(145)
A fim de minimizar os riscos para a aplicação resultantes da falta de conhecimentos e competências especializadas no mercado, bem como para facilitar o cumprimento, por parte dos prestadores, nomeadamente das PME, incluindo as empresas em fase de arranque, e dos organismos notificados, das obrigações que lhes são impostas pelo presente regulamento, a plataforma IA a pedido, os polos europeus de inovação digital e as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados-Membros a nível da União ou a nível nacional poderão eventualmente contribuir para a aplicação do presente regulamento. No âmbito da respetiva missão e domínios de competência, a plataforma de IA a pedido, os polos europeus de inovação digital e as instalações de ensaio e experimentação podem prestar, em particular, apoio técnico e científico aos prestadores e aos organismos notificados.
(146)
Okrem toho, vzhľadom na to, že niektorí prevádzkovatelia sú veľmi malí, a s cieľom zabezpečiť proporcionalitu v súvislosti s nákladmi na inovácie je vhodné umožniť mikropodnikom splniť jednu z najnákladnejších povinností, konkrétne zavedenie systému riadenia kvality, zjednodušeným spôsobom, čím by sa znížilo administratívne zaťaženie a náklady týchto podnikov bez toho, aby to malo vplyv na úroveň ochrany a potrebu súladu s požiadavkami na vysokorizikové systémy AI. Komisia by mala vypracovať usmernenia na spresnenie prvkov systému riadenia kvality, ktoré majú mikropodniky splniť týmto zjednodušeným spôsobom.
(146)
Além disso, tendo em conta a dimensão muito reduzida de alguns operadores e a fim de assegurar a proporcionalidade no que diz respeito aos custos da inovação, é conveniente permitir que as microempresas satisfaçam uma das obrigações mais onerosas, designadamente o estabelecimento de um sistema de gestão da qualidade, de uma forma simplificada que reduza os seus encargos administrativos e custos, sem afetar o nível de proteção nem a necessidade de cumprir os requisitos aplicáveis aos sistemas de IA de risco elevado. A Comissão deverá elaborar orientações para especificar os elementos do sistema de gestão da qualidade a cumprir desta forma simplificada pelas microempresas.
(147)
Je vhodné, aby Komisia v čo najväčšej možnej miere uľahčila prístup k testovacím a experimentálnym zariadeniam orgánom, skupinám alebo laboratóriám zriadeným alebo akreditovaným podľa akýchkoľvek príslušných harmonizačných právnych predpisov Únie, ktoré plnia úlohy v súvislosti s posudzovaním zhody výrobkov alebo zariadení, na ktoré sa uvedené harmonizačné právne predpisy Únie vzťahujú. Týka sa to najmä panelov odborníkov, odborných laboratórií a referenčných laboratórií v oblasti zdravotníckych pomôcok podľa nariadení (EÚ) 2017/745 a (EÚ) 2017/746.
(147)
É apropriado que a Comissão facilite, tanto quanto possível, o acesso a instalações de ensaio e experimentação aos organismos, grupos ou laboratórios criados ou acreditados nos termos da legislação de harmonização da União pertinente e que desempenham funções no contexto da avaliação da conformidade dos produtos ou dispositivos abrangidos por essa legislação de harmonização da União. É este o caso, nomeadamente, dos painéis de peritos, dos laboratórios especializados e dos laboratórios de referência no domínio dos dispositivos médicos, nos termos dos Regulamentos (UE) 2017/745 e (UE) 2017/746.
(148)
Týmto nariadením by sa mal stanoviť rámec správy a riadenia, ktorý umožní koordináciu a podporu uplatňovania tohto nariadenia na vnútroštátnej úrovni, ako aj budovanie spôsobilostí na úrovni Únie a integráciu zainteresovaných strán v oblasti AI. Účinné vykonávanie a presadzovanie tohto nariadenia si vyžaduje rámec správy a riadenia, ktorý umožňuje koordináciu a budovanie centrálnej expertízy na úrovni Únie. Rozhodnutím Komisie (45) bol zriadený úrad pre AI, ktorého poslaním je rozvíjať odborné znalosti a spôsobilosti Únie v oblasti AI a prispievať k vykonávaniu právnych predpisov Únie v oblasti AI. Členské štáty by mali uľahčovať úlohy úradu pre AI s cieľom podporiť rozvoj odborných znalostí a spôsobilostí Únie na úrovni Únie a posilniť fungovanie digitálneho jednotného trhu. Okrem toho by sa mala zriadiť rada pre AI zložená zo zástupcov členských štátov, vedecký panel na integráciu vedeckej komunity a poradné fórum, prostredníctvom ktorého by zainteresované strany prispievali k vykonávaniu tohto nariadenia na úrovni Únie a na vnútroštátnej úrovni. Rozvoj odborných znalostí a spôsobilostí Únie by mal zahŕňať aj využívanie existujúcich zdrojov a odborných znalostí, najmä prostredníctvom synergií so štruktúrami vytvorenými v kontexte presadzovania iných právnych predpisov na úrovni Únie a synergií so súvisiacimi iniciatívami na úrovni Únie, ako je spoločný podnik EuroHPC a testovacie a experimentálne zariadenia AI v rámci programu Digitálna Európa.
(148)
O presente regulamento deverá estatuir um modelo de governação que permita coordenar e apoiar a aplicação do presente regulamento a nível nacional, bem como criar capacidades a nível da União e integrar as partes interessadas no domínio da IA. A aplicação e execução efetivas do presente regulamento exigem um modelo de governação que permita coordenar e desenvolver conhecimentos especializados centrais a nível da União. O Serviço para a IA foi criado por decisão da Comissão (45) e tem como missão desenvolver os conhecimentos especializados e as capacidades da União no domínio da IA e contribuir para a aplicação da legislação da União em matéria de IA. Os Estados-Membros deverão facilitar o desempenho das funções do Serviço para a IA com vista a apoiar o desenvolvimento dos conhecimentos especializados e das capacidades da União a nível da União e a reforçar o funcionamento do mercado único digital. Além disso, deverá ser criado um Comité composto por representantes dos Estados-Membros, um painel científico que integre a comunidade científica e um fórum consultivo que permita às partes interessadas darem o seu contributo para a aplicação do presente regulamento, tanto a nível da União como nacional. O desenvolvimento dos conhecimentos especializados e das capacidades da União deverão também incluir a utilização dos recursos e conhecimentos especializados existentes, nomeadamente através de sinergias com estruturas criadas no contexto da aplicação a nível da União de outra lei e de sinergias com iniciativas conexas a nível da União, como a Empresa Comum para a Computação Europeia de Alto Desempenho e as instalações de ensaio e experimentação no domínio da IA no âmbito do Programa Europa Digital.
(149)
Na uľahčenie bezproblémového, účinného a harmonizovaného vykonávania tohto nariadenia by sa mala zriadiť rada pre AI. Rada pre AI by mala zohľadňovať rôzne záujmy ekosystému AI a mala by byť zložená zo zástupcov členských štátov. Rada pre AI by mala byť zodpovedná za viacero poradných úloh vrátane vydávania stanovísk, odporúčaní a poradenstva alebo prispievania k usmerneniam v záležitostiach týkajúcich sa vykonávania tohto nariadenia vrátane otázok presadzovania, technických špecifikácií alebo existujúcich noriem týkajúcich sa požiadaviek stanovených v tomto nariadení, a poskytovania poradenstva Komisii a členským štátom a ich vnútroštátnym príslušným orgánom v špecifických otázkach súvisiacich s AI. S cieľom poskytnúť členským štátom určitú flexibilitu pri určovaní ich zástupcov v rade pre AI môžu byť takýmito zástupcami akékoľvek osoby z verejných subjektov, ktoré by mali mať príslušné kompetencie a právomoci na uľahčenie koordinácie na vnútroštátnej úrovni a prispievanie k plneniu úloh rady pre AI. Rada pre AI by mala zriadiť dve stále podskupiny s cieľom poskytnúť platformu na spoluprácu a výmenu informácií medzi orgánmi dohľadu nad trhom a notifikujúcimi orgánmi v otázkach týkajúcich sa dohľadu nad trhom, ako aj v otázkach týkajúcich sa notifikovaných osôb. Stála podskupina pre dohľad nad trhom by mala konať ako skupina pre administratívnu spoluprácu (ADCO) pre toto nariadenie v zmysle článku 30 nariadenia (EÚ) 2019/1020. V súlade s článkom 33 uvedeného nariadenia by Komisia mala podporovať činnosti stálej podskupiny pre dohľad nad trhom vykonávaním hodnotení alebo štúdií trhu, najmä s cieľom identifikovať aspekty tohto nariadenia, ktoré si vyžadujú osobitnú a naliehavú koordináciu medzi orgánmi dohľadu nad trhom. Na účely preskúmania konkrétnych otázok môže rada pre AI podľa potreby zriaďovať ďalšie stále alebo dočasné podskupiny. Rada pre AI by mala podľa potreby spolupracovať aj s príslušnými orgánmi, expertnými skupinami a sieťami Únie, ktoré pôsobia v kontexte príslušného práva Únie, a to najmä s tými, na ktorých činnosť sa vzťahuje príslušné právo Únie o údajoch, digitálnych produktoch a službách.
(149)
A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deverá ser criado um Comité. O Comité deverá refletir os vários interesses do ecossistema de IA e ser composto por representantes dos Estados-Membros. O Comité deverá ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações e conselhos, ou o contributo para orientações em questões relacionadas com a aplicação do presente regulamento, inclusive no tocante a questões de execução, especificações técnicas ou normas existentes relativas aos requisitos estabelecidos no presente regulamento, e a prestação de aconselhamento à Comissão a aos Estados-Membros e respetivas autoridades nacionais competentes sobre questões específicas relacionadas com a IA. A fim de dar alguma flexibilidade aos Estados-Membros na designação dos seus representantes no Comité, esses representantes podem ser quaisquer pessoas pertencentes a entidades públicas que deverão ter as competências e os poderes pertinentes para facilitar a coordenação a nível nacional e contribuir para o desempenho das funções do Comité. O Comité deverá criar dois subgrupos permanentes a fim de proporcionar uma plataforma de cooperação e intercâmbio entre as autoridades de fiscalização do mercado e as autoridades notificadoras sobre questões relacionadas, respetivamente, com a fiscalização do mercado e os organismos notificados. O subgrupo permanente para a fiscalização do mercado deverá atuar como grupo de cooperação administrativa (ADCO) para efeitos do presente regulamento, na aceção do artigo 30.o do Regulamento (UE) 2019/1020. Em consonância com o artigo 33.o do referido Regulamento, a Comissão deverá apoiar as atividades do subgrupo permanente para a fiscalização do mercado, realizando avaliações ou estudos de mercado, nomeadamente com vista a identificar aspetos do presente regulamento que exijam uma coordenação específica e urgente entre as autoridades de fiscalização do mercado. O Comité pode constituir outros subgrupos permanentes ou temporários consoante adequado para efeitos da análise de questões específicas. O Comité deverá também cooperar, se for caso disso, com os organismos, grupos de peritos e redes pertinentes da União ativos no contexto de outras disposições pertinentes do direito da União, incluindo, em especial, os que operam ao abrigo do direito pertinente da União em matéria de dados, produtos e serviços digitais.
(150)
S cieľom zabezpečiť zapojenie zainteresovaných strán do vykonávania a uplatňovania tohto nariadenia by sa malo zriadiť poradné fórum, ktoré bude rade pre AI a Komisii poskytovať poradenstvo a technické odborné znalosti. S cieľom zabezpečiť rôznorodé a vyvážené zastúpenie zainteresovaných strán medzi komerčnými a nekomerčnými záujmami a v rámci kategórie obchodných záujmov, pokiaľ ide o MSP a iné podniky, by poradné fórum malo okrem iného zahŕňať priemysel, startupy, MSP, akademickú obec, občiansku spoločnosť vrátane sociálnych partnerov, ako aj Agentúru pre základné práva, agentúru ENISA, Európsky výbor pre normalizáciu (CEN), Európsky výbor pre normalizáciu v elektrotechnike (CENELEC) a Európsky inštitút pre telekomunikačné normy (ETSI).
(150)
A fim de assegurar a participação das partes interessadas na execução e aplicação do presente regulamento, deverá ser criado um fórum consultivo para aconselhar e disponibilizar conhecimentos técnicos especializados ao Comité e à Comissão. A fim de assegurar uma representação variada e equilibrada das partes interessadas entre interesses comerciais e não comerciais e, dentro da categoria de interesses comerciais, no que diz respeito às PME e a outras empresas, o fórum consultivo deverá englobar, nomeadamente, a indústria, as empresas em fase de arranque, as PME, o meio académico, a sociedade civil, incluindo os parceiros sociais, bem como a Agência dos Direitos Fundamentais, a ENISA, o Comité Europeu de Normalização (CEN), o Comité Europeu de Normalização Eletrotécnica (CENELEC) e o Instituto Europeu de Normalização das Telecomunicações (ETSI).
(151)
Na podporu vykonávania a presadzovania tohto nariadenia, najmä monitorovacích činností úradu pre AI, pokiaľ ide o modely AI na všeobecné účely, by sa mal zriadiť vedecký panel nezávislých expertov. Nezávislí experti, ktorí tvoria vedecký panel, by sa mali vyberať na základe aktuálnych vedeckých alebo technických odborných znalostí v oblasti AI, mali by svoje úlohy vykonávať nestranne, objektívne a mali by zabezpečovať dôvernosť informácií a údajov získaných pri vykonávaní svojich úloh a činností. S cieľom umožniť posilnenie vnútroštátnych kapacít potrebných na účinné presadzovanie tohto nariadenia by členské štáty mali mať možnosť požiadať o podporu zo strany skupiny odborníkov tvoriacich vedecký panel pre ich činnosti v oblasti presadzovania práva.
(151)
A fim de apoiar a aplicação e a execução do presente regulamento, em especial as atividades de acompanhamento do Serviço para a IA no que diz respeito aos modelos de IA de finalidade geral, deverá ser criado um painel científico de peritos independentes. Os peritos independentes que constituem o painel científico deverão ser selecionados com base em conhecimentos científicos ou técnicos atualizados no domínio da IA e deverão desempenhar as suas funções com imparcialidade e objetividade e assegurar a confidencialidade das informações e dos dados obtidos no desempenho das suas funções e atividades. A fim de permitir o reforço das capacidades nacionais necessárias para a execução efetiva do presente regulamento, os Estados-Membros deverão poder solicitar o apoio do grupo de peritos que constituem o painel científico para as suas atividades de execução.
(152)
S cieľom podporiť primerané presadzovanie, pokiaľ ide o systémy AI, a posilniť kapacity členských štátov by sa mali zriadiť podporné štruktúry Únie na testovanie AI, ktoré by sa mali sprístupniť členským štátom.
(152)
A fim de apoiar a execução adequada dos sistemas de IA e reforçar as capacidades dos Estados-Membros, deverão ser criadas e disponibilizadas aos Estados-Membros estruturas da União de apoio à testagem de IA.
(153)
Pri uplatňovaní a presadzovaní tohto nariadenia zohrávajú kľúčovú úlohu členské štáty. V tejto súvislosti by mal každý členský štát určiť na účely dohľadu nad uplatňovaním a vykonávaním tohto nariadenia aspoň jeden notifikujúci orgán a aspoň jeden orgán dohľadu nad trhom ako vnútroštátne príslušné orgány. Členské štáty môžu rozhodnúť o vymenovaní akéhokoľvek druhu verejného subjektu na plnenie úloh vnútroštátnych príslušných orgánov v zmysle tohto nariadenia v súlade so svojimi osobitnými vnútroštátnymi organizačnými charakteristikami a potrebami. Aby sa zvýšila efektívnosť organizácie zo strany členských štátov a zriadilo jednotné kontaktné miesto vo vzťahu k verejnosti a iným protistranám na úrovni členských štátov a Únie, každý členský štát by mal určiť jeden orgán dohľadu nad trhom, aby konal ako jediné kontaktné miesto.
(153)
Os Estados-Membros desempenham um papel fundamental na aplicação e execução do presente regulamento. Nesse sentido, cada Estado-Membro deverá designar pelo menos uma autoridade notificadora e pelo menos uma autoridade de fiscalização do mercado como autoridades nacionais competentes do mercado para efeitos de supervisão da aplicação e execução do presente regulamento. Os Estados-Membros podem decidir nomear qualquer tipo de entidade pública para desempenhar as funções das autoridades nacionais competentes na aceção do presente regulamento, de acordo com as suas características e necessidades específicas em matéria de organização nacional. A fim de aumentar a eficácia organizativa dos Estados-Membros e de criar um ponto de contacto oficial único para o público e as outras contrapartes a nível dos Estados-Membros e da União, cada Estado-Membro deverá designar uma autoridade de fiscalização do mercado que atue como um ponto de contacto único.
(154)
Vnútroštátne príslušné orgány by mali vykonávať svoje právomoci nezávisle, nestranne a bez zaujatosti s cieľom chrániť zásady objektivity svojich činností a úloh a zabezpečiť uplatňovanie a vykonávanie tohto nariadenia. Členovia týchto orgánov by sa mali zdržať akéhokoľvek konania nezlučiteľného s ich povinnosťami a mali by podliehať pravidlám dôvernosti podľa tohto nariadenia.
(154)
As autoridades nacionais competentes deverão exercer os seus poderes de forma independente, imparcial e sem enviesamentos, a fim de salvaguardar os princípios da objetividade das suas atividades e funções e de assegurar a aplicação e execução do presente regulamento. Os membros dessas autoridades deverão abster-se de qualquer ato incompatível com as suas funções e estar sujeitos às regras de confidencialidade previstas no presente regulamento.
(155)
Všetci poskytovatelia vysokorizikových systémov AI by mali mať zavedený systém monitorovania po uvedení na trh, aby zabezpečili, že budú schopní zohľadniť skúsenosti s používaním vysokorizikových systémov AI na zlepšenie svojich systémov a procesu dizajnovania a vývoja, alebo aby mohli včas prijať akékoľvek možné nápravné opatrenia. V prípade potreby by monitorovanie po uvedení na trh malo zahŕňať analýzu interakcie s inými systémami AI vrátane iných zariadení a softvéru. Monitorovanie po uvedení na trh by sa nemalo vzťahovať na citlivé operačné údaje nasadzujúcich subjektov, ktoré sú orgánmi presadzovania práva. Tento systém je takisto kľúčový na zabezpečenie toho, aby sa možné riziká vyplývajúce zo systémov AI, ktoré sa po uvedení na trh alebo do prevádzky ďalej učia, mohli efektívnejšie a včas riešiť. V tejto súvislosti by sa od poskytovateľov malo vyžadovať, aby mali zavedený systém na ohlasovanie všetkých závažných incidentov vyplývajúcich z používania ich systémov AI relevantným orgánom, t. j. incidentov alebo porúch, ktoré vedú k smrti alebo vážnemu poškodeniu zdravia, závažnému a nezvratnému narušeniu riadenia a prevádzky kritickej infraštruktúry, porušeniam povinností podľa práva Únie určených na ochranu základných práv alebo k vážnej škode na majetku alebo životnom prostredí.
(155)
Para assegurar que os prestadores de sistemas de IA de risco elevado possam aproveitar a experiência adquirida na utilização de sistemas de IA de risco elevado para melhorarem os seus sistemas e o processo de conceção e desenvolvimento ou possam adotar eventuais medidas corretivas em tempo útil, todos os prestadores deverão dispor de um sistema de acompanhamento pós-comercialização. Se for caso disso, o acompanhamento pós-comercialização deverá incluir uma análise da interação com outros sistemas de IA, incluindo outros dispositivos e software. O acompanhamento pós-comercialização não deverá abranger os dados operacionais sensíveis dos responsáveis pela implantação que sejam autoridades responsáveis pela aplicação da lei. Este sistema também é fundamental para assegurar uma resolução mais eficaz e atempada dos eventuais riscos decorrentes dos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou colocados em serviço. Neste contexto, os prestadores também deverão ser obrigados a dispor de um sistema para comunicar às autoridades competentes quaisquer incidentes graves resultantes da utilização dos seus sistemas de IA, ou seja, incidentes ou anomalias que conduzam à morte ou a danos graves para a saúde, perturbações graves e irreversíveis da gestão e do funcionamento de infraestruturas críticas, violações das obrigações decorrentes do direito da União destinadas a proteger os direitos fundamentais ou danos graves à propriedade ou ao ambiente.
(156)
S cieľom zabezpečiť primerané a účinné presadzovanie požiadaviek a povinností stanovených v tomto nariadení, ktoré predstavuje harmonizačný právny predpis Únie, by sa mal v celom rozsahu uplatňovať systém dohľadu nad trhom a súladu výrobkov stanovený nariadením (EÚ) 2019/1020. Orgány dohľadu nad trhom určené podľa tohto nariadenia by mali mať všetky právomoci v oblasti presadzovania stanovené v tomto nariadení a v nariadení (EÚ) 2019/1020 a mali by svoje právomoci a povinnosti vykonávať nezávisle, nestranne a bez zaujatosti. Hoci väčšina systémov AI nepodlieha osobitným požiadavkám ani povinnostiam podľa tohto nariadenia, orgány dohľadu nad trhom môžu prijať opatrenia vo vzťahu ku všetkým systémom AI, ak predstavujú riziko podľa tohto nariadenia. Vzhľadom na osobitnú povahu inštitúcií, agentúr a orgánov Únie, ktoré patria do rozsahu pôsobnosti tohto nariadenia, je vhodné pre ne určiť ako príslušný orgán dohľadu nad trhom európskeho dozorného úradníka pre ochranu údajov. Tým by nemalo byť dotknuté určenie vnútroštátnych príslušných orgánov členskými štátmi. Činnosti dohľadu nad trhom by nemali mať vplyv na schopnosť subjektov pod dohľadom vykonávať svoje úlohy nezávisle, ak sa takáto nezávislosť vyžaduje podľa práva Únie.
(156)
Para assegurar uma execução adequada e eficaz dos requisitos e obrigações estabelecidos no presente regulamento, que faz parte da legislação de harmonização da União, o sistema de fiscalização do mercado e de conformidade dos produtos estabelecido no Regulamento (UE) 2019/1020 deverá ser aplicado na íntegra. As autoridades de fiscalização do mercado designadas nos termos do presente regulamento deverão dispor de todos os poderes de execução estabelecidos no presente regulamento e no Regulamento (UE) 2019/1020 e deverão exercer os seus poderes e desempenhar as suas funções de forma independente, imparcial e objetiva. Embora a maioria dos sistemas de IA não esteja sujeita a requisitos e obrigações específicos nos termos do presente regulamento, as autoridades de fiscalização do mercado podem tomar medidas em relação a todos os sistemas de IA que apresentem um risco em conformidade com o presente regulamento. Dada a natureza específica das instituições, órgãos e organismos da União abrangidos pelo âmbito de aplicação do presente regulamento, é conveniente designar a Autoridade Europeia para a Proteção de Dados como autoridade de fiscalização do mercado competente relativamente a essas instituições, órgãos e organismos. Tal não deverá prejudicar a designação das autoridades nacionais competentes pelos Estados-Membros. As atividades de fiscalização do mercado não deverão afetar a capacidade das entidades supervisionadas de desempenharem as suas funções de forma independente, quando essa independência for exigida pelo direito da União.
(157)
Týmto nariadením nie sú dotknuté kompetencie, úlohy, právomoci ani nezávislosť príslušných vnútroštátnych orgánov verejnej moci alebo subjektov, ktoré dohliadajú na uplatňovanie práva Únie na ochranu základných práv, vrátane subjektov pre rovnaké zaobchádzanie a orgánov pre ochranu osobných údajov. Takéto vnútroštátne orgány verejnej moci alebo subjekty by mali mať aj prístup k všetkej dokumentácii vytvorenej podľa tohto nariadenia, pokiaľ je to potrebné pre ich mandát. Na zabezpečenie primeraného a včasného presadzovania v prípade systémov AI, ktoré predstavujú riziko pre zdravie, bezpečnosť a základné práva, by sa mal stanoviť osobitný ochranný postup. Postup pre takéto systémy AI predstavujúce riziko by sa mal uplatňovať na vysokorizikové systémy AI predstavujúce riziko, zakázané systémy, ktoré boli uvedené na trh, do prevádzky alebo používané v rozpore s ustanoveniam tohto nariadenia o zakázaných praktikách, a na systémy AI, ktoré boli sprístupnené v rozpore s požiadavkami na transparentnosť stanovenými v tomto nariadení a predstavujú riziko.
(157)
O presente regulamento não prejudica as competências, as atribuições, os poderes nem a independência das autoridades ou organismos públicos nacionais competentes que supervisionam a aplicação do direito da União que protege direitos fundamentais, incluindo os organismos de promoção da igualdade e as autoridades de proteção de dados. Quando tal for necessário ao cumprimento do seu mandato, essas autoridades ou organismos públicos nacionais deverão também ter acesso à documentação elaborada por força do presente regulamento. Deverá ser estabelecido um procedimento de salvaguarda específico para assegurar uma aplicação adequada e atempada relativamente aos sistemas de IA que apresentem um risco para a saúde, a segurança e os direitos fundamentais. O procedimento aplicável a esses sistemas de IA que apresentam um risco deverá ser aplicado aos sistemas de IA de risco elevado que apresentem um risco, aos sistemas proibidos que tenham sido colocados no mercado, colocados em serviço ou utilizados em violação das disposições respeitantes a práticas proibidas estabelecidas no presente regulamento e aos sistemas de IA que tenham sido disponibilizados em violação dos requisitos de transparência estabelecidos no presente regulamento e que apresentem um risco.
(158)
Právne predpisy Únie týkajúce sa finančných služieb zahŕňajú pravidlá a požiadavky vnútornej správy a riadenia a riadenia rizík, ktoré sa vzťahujú na regulované finančné inštitúcie počas poskytovania týchto služieb vrátane prípadov, keď využívajú systémy AI. S cieľom zabezpečiť jednotné uplatňovanie a presadzovanie povinností podľa tohto nariadenia a príslušných pravidiel a požiadaviek právnych aktov Únie v oblasti finančných služieb by mali byť príslušné orgány pre dohľad nad uvedenými právnymi aktmi a za ich presadzovanie, najmä príslušné orgány v zmysle vymedzenia v nariadení Európskeho parlamentu a Rady (EÚ) č. 575/2013 (46), smerniciach Európskeho parlamentu a Rady 2008/48/ES (47), 2009/138/ES (48), (EÚ) 2013/36/EÚ (49), 2014/17/EÚ (50) a (EÚ) 2016/97 (51) určené v rámci svojich príslušných právomocí za príslušné orgány na účely dohľadu nad vykonávaním tohto nariadenia vrátane činností dohľadu nad trhom, pokiaľ ide o systémy AI, poskytované alebo používané regulovanými finančnými inštitúciami podliehajúcimi dohľadu, pokiaľ členské štáty nerozhodnú o určení iného orgánu na plnenie týchto úloh dohľadu nad trhom. Tieto príslušné orgány by mali mať všetky právomoci podľa tohto nariadenia a nariadenia (EÚ) 2019/1020 na presadzovanie požiadaviek a povinností vyplývajúcich z tohto nariadenia vrátane právomocí vykonávať ex post činnosti dohľadu nad trhom, ktoré možno podľa potreby začleniť do ich existujúcich mechanizmov a postupov dohľadu podľa príslušných právnych predpisov Únie v oblasti finančných služieb. Je vhodné stanoviť, že keď vnútroštátne orgány zodpovedné za dohľad nad úverovými inštitúciami regulovanými podľa smernice 2013/36/EÚ, ktoré sa zúčastňujú na jednotnom mechanizme dohľadu zriadenom nariadením Rady (EÚ) č. 1024/2013 (52), konajú ako orgány dohľadu nad trhom podľa tohto nariadenia, mali by Európskej centrálnej banke bezodkladne oznamovať všetky informácie identifikované v priebehu svojich činností dohľadu nad trhom, ktoré môžu byť potenciálne zaujímavé pre úlohy Európskej centrálnej banky v oblasti prudenciálneho dohľadu, ako sa uvádza v uvedenom nariadení. Na účely ďalšieho zvýšenia jednotnosti medzi týmto nariadením a pravidlami platnými pre úverové inštitúcie regulované podľa smernice 2013/36/EÚ, je tiež vhodné integrovať niektoré procesné povinnosti poskytovateľov, pokiaľ ide o riadenie rizika, monitorovanie po uvedení na trh a dokumentáciu, do existujúcich povinností a postupov podľa smernice 2013/36/EÚ. Na zabránenie prekrývaniu by sa mali zvážiť aj obmedzené výnimky v súvislosti so systémom riadenia kvality poskytovateľov a s povinnosťou monitorovania uloženou subjektom nasadzujúcim vysokorizikové systémy AI, pokiaľ sa vzťahujú na úverové inštitúcie regulované smernicou 2013/36/EÚ. Rovnaký režim by sa mal uplatňovať na poisťovne a zaisťovne a holdingové poisťovne podľa smernice 2009/138/ES a sprostredkovateľov poistenia podľa smernice (EÚ) 2016/97 a ďalšie typy finančných inštitúcií, na ktoré sa vzťahujú požiadavky týkajúce sa vnútornej správy a riadenia, dojednaní alebo postupov podľa relevantného práva Únie v oblasti finančných služieb, s cieľom zaistiť jednotnosť a rovnaké zaobchádzanie vo finančnom sektore.
(158)
A legislação da União no domínio dos serviços financeiros inclui regras e requisitos relativos à governação interna e à gestão dos riscos aplicáveis às instituições financeiras regulamentadas durante a prestação desses serviços, inclusive quando estas utilizam sistemas de IA. Para assegurar a coerência na aplicação e na execução das obrigações previstas no presente regulamento e das regras e requisitos dos atos legais da União aplicáveis aos serviços financeiros, as autoridades competentes responsáveis pela supervisão e execução desses atos jurídicos, nomeadamente as autoridades competentes na aceção do Regulamento (UE) n.o 575/2013 do Parlamento Europeu e do Conselho (46) e as Diretivas 2008/48/CE (47), 2009/138/CE (48), 2013/36/UE (49), 2014/17/UE (50) e (UE) 2016/97 (51) do Parlamento Europeu e do Conselho, deverão ser designadas, no âmbito das respetivas competências, autoridades competentes para efeitos de supervisão da aplicação do presente regulamento, incluindo o exercício de funções de fiscalização do mercado, no que diz respeito aos sistemas de IA disponibilizados ou utilizados por instituições financeiras regulamentadas e supervisionadas, salvo se os Estados-Membros decidirem designar outra autoridade para desempenhar essas funções de fiscalização do mercado. Essas autoridades competentes deverão dispor de todos os poderes ao abrigo do presente regulamento e do Regulamento (UE) 2019/1020 para fazer cumprir os requisitos e obrigações do presente regulamento, incluindo poderes para levar a cabo atividades de fiscalização do mercado ex post que possam ser integradas, se for caso disso, nos seus mecanismos e procedimentos de supervisão existentes ao abrigo do direito da União aplicável no domínio dos serviços financeiros. É apropriado definir que, ao atuarem como autoridades de fiscalização do mercado ao abrigo do presente regulamento, as autoridades nacionais responsáveis por supervisionar as instituições de crédito regulamentadas pela Diretiva 2013/36/UE, que participam no Mecanismo Único de Supervisão estabelecido pelo Regulamento (UE) n.o 1024/2013 do Conselho (52), deverão comunicar sem demora ao Banco Central Europeu todas as informações identificadas no âmbito das suas atividades de fiscalização do mercado que possam ser de interesse potencial para as atribuições de supervisão prudencial do Banco Central Europeu especificadas nesse regulamento. A fim de reforçar a coerência entre o presente regulamento e as regras aplicáveis às instituições de crédito regulamentadas pela Diretiva 2013/36/UE, também é apropriado integrar algumas das obrigações processuais dos prestadores relativas à gestão de riscos, ao acompanhamento pós-comercialização e à documentação nas obrigações e procedimentos em vigor por força da referida diretiva. No intuito de evitar sobreposições, também deverão ser previstas derrogações limitadas no respeitante ao sistema de gestão da qualidade dos prestadores e à obrigação de controlo imposta aos responsáveis pela implantação de sistemas de IA de risco elevado, contanto que tal se aplique a instituições de crédito regulamentadas pela Diretiva 2013/36/UE. Deverá aplicar-se o mesmo regime às empresas de seguros e de resseguros e às sociedades gestoras de participações no setor dos seguros nos termos da Diretiva 2009/138/CE, aos mediadores de seguros nos termos da Diretiva (UE) 2016/97 e a outros tipos de instituições financeiras sujeitas a requisitos em matéria governação, mecanismos ou processos internos estabelecidos nos termos do direito da União aplicável no domínio dos serviços financeiros, a fim de assegurar a coerência e a igualdade de tratamento no setor financeiro.
(159)
Každý orgán dohľadu nad trhom pre vysokorizikové systémy AI v oblasti biometrie uvedené v prílohe k tomuto nariadeniu, pokiaľ sa tieto systémy používajú na účely presadzovania práva, migrácie, azylu a riadenia kontroly hraníc, alebo na účely výkonu spravodlivosti a demokratických procesov, by mal mať účinné vyšetrovacie a nápravné právomoci vrátane aspoň právomoci získať prístup ku všetkým spracúvaným osobným údajom a ku všetkým informáciám potrebným na plnenie svojich úloh. Orgány dohľadu nad trhom by mali mať možnosť vykonávať svoje právomoci tak, že budú konať úplne nezávisle. Akýmikoľvek obmedzeniami ich prístupu k citlivým operačným údajom podľa tohto nariadenia by nemali byť dotknuté právomoci, ktoré im boli udelené smernicou (EÚ) 2016/680. Žiadne vylúčenie poskytovania údajov vnútroštátnym orgánom pre ochranu údajov podľa tohto nariadenia by nemalo mať vplyv na súčasné ani budúce právomoci týchto orgánov nad rámec rozsahu pôsobnosti tohto nariadenia.
(159)
Todas as autoridades de fiscalização do mercado dos sistemas de IA de risco elevado enumerados no domínio da biométrica, conforme enumerado num anexo do presente regulamento, na medida em que esses sistemas sejam utilizados para fins de aplicação da lei, da migração, do asilo e da gestão do controlo das fronteiras, ou para a administração da justiça e processos democráticos, deverão dispor de poderes de investigação e de correção eficazes, incluindo, pelo menos, o poder de aceder a todos os dados pessoais que estão a ser tratados e a todas as informações necessárias ao desempenho das suas funções. As autoridades de fiscalização do mercado deverão poder exercer os seus poderes atuando com total independência. Quaisquer limitações ao seu acesso a dados operacionais sensíveis nos termos do presente regulamento não deverão prejudicar os poderes que lhes são conferidos pela Diretiva (UE) 2016/680. Nenhuma exclusão da divulgação de dados às autoridades nacionais de proteção de dados ao abrigo do presente regulamento deverá afetar os atuais ou futuros poderes dessas autoridades fora do âmbito de aplicação do presente regulamento.
(160)
Orgány dohľadu nad trhom a Komisia by mali mať možnosť navrhovať spoločné činnosti vrátane spoločných vyšetrovaní, ktoré majú vykonávať orgány dohľadu nad trhom alebo orgány dohľadu nad trhom spoločne s Komisiou a ktorých cieľom je podpora dodržiavania predpisov, identifikácia nesúladu, zvyšovanie informovanosti a poskytovanie usmernení v súvislosti s týmto nariadením, pokiaľ ide o konkrétne kategórie vysokorizikových systémov AI, o ktorých sa zistilo, že predstavujú vážne riziko v dvoch alebo viacerých členských štátoch. Spoločné činnosti na podporu dodržiavania predpisov by sa mali vykonávať v súlade s článkom 9 nariadenia (EÚ) 2019/1020. Úrad pre AI by mal poskytovať koordinačnú podporu pre spoločné vyšetrovania.
(160)
As autoridades de fiscalização do mercado e a Comissão deverão poder propor atividades conjuntas, incluindo investigações conjuntas, a realizar quer pelas autoridades de fiscalização do mercado quer pelas autoridades de fiscalização do mercado em conjunto com a Comissão, que tenham por objetivo promover a conformidade, identificar situações de não conformidade, sensibilizar e disponibilizar orientações em relação ao presente regulamento no que diz respeito a categorias específicas de sistemas de IA de risco elevado consideradas como apresentando um risco grave em dois ou mais Estados-Membros. As atividades conjuntas para promover a conformidade deverão ser realizadas em conformidade com o artigo 9.o do Regulamento (UE) 2019/1020. O Serviço para a IA deverá prestar apoio à coordenação de investigações conjuntas.
(161)
Je potrebné objasniť povinnosti a právomoci na úrovni Únie a na vnútroštátnej úrovni, pokiaľ ide o systémy AI, ktoré sú postavené na modeloch AI na všeobecné účely. Aby sa predišlo prekrývaniu právomocí, ak je systém AI založený na modeli AI na všeobecné účely a tento model a systém poskytuje ten istý poskytovateľ, dohľad by sa mal vykonávať na úrovni Únie prostredníctvom úradu pre AI, ktorý by mal mať na tento účel právomoci orgánu dohľadu nad trhom v zmysle nariadenia (EÚ) 2019/1020. Vo všetkých ostatných prípadoch sú za dohľad nad systémami AI naďalej zodpovedné vnútroštátne orgány dohľadu nad trhom. V prípade systémov AI na všeobecné účely, ktoré môžu nasadzujúce subjekty priamo používať aspoň na jeden účel, ktorý je klasifikovaný ako vysokorizikový, by však orgány dohľadu nad trhom mali spolupracovať s úradom pre AI s cieľom vykonávať hodnotenia dodržiavania predpisov a zodpovedajúcim spôsobom informovať radu pre AI a ostatné orgány dohľadu nad trhom. Okrem toho by orgány dohľadu nad trhom mali mať možnosť požiadať úrad pre AI o pomoc, ak orgán dohľadu nad trhom nie je schopný uzavrieť vyšetrovanie vysokorizikového systému AI z dôvodu, že nemá prístup k určitým informáciám týkajúcim sa modelu AI na všeobecné účely, na ktorom je vysokorizikový systém AI vybudovaný. V takýchto prípadoch by sa mal mutatis mutandis uplatňovať postup týkajúci sa vzájomnej pomoci v cezhraničných prípadoch uvedený v kapitole VI nariadenia (EÚ) 2019/1020.
(161)
É necessário clarificar as responsabilidades e competências a nível da União e a nível nacional no que diz respeito aos sistemas de IA que se baseiam em modelos de IA de finalidade geral. A fim de evitar a sobreposição de competências, sempre que um sistema de IA se baseie num modelo de IA de finalidade geral e o modelo e o sistema sejam disponibilizados pelo mesmo prestador, a supervisão deverá ter lugar a nível da União através do Serviço para a IA, o qual deverá ter os poderes de uma autoridade de fiscalização do mercado na aceção do Regulamento (UE) 2019/1020 para esse efeito. Em todos os outros casos, os responsáveis pela supervisão dos sistemas de IA continuam a ser as autoridades nacionais de fiscalização do mercado. No entanto, para os sistemas de IA de finalidade geral que possam ser utilizados diretamente pelos responsáveis pela implantação para, pelo menos, uma finalidade classificada como sendo de risco elevado, as autoridades de fiscalização do mercado deverão cooperar com o Serviço para a IA na realização de avaliações da conformidade e informar o Comité e outras autoridades de fiscalização do mercado em conformidade. Além disso, as autoridades de fiscalização do mercado deverão poder solicitar assistência ao Serviço para a IA sempre que a autoridade de fiscalização do mercado não seja capaz de concluir uma investigação sobre um sistema de IA de risco elevado devido à sua impossibilidade de aceder a determinadas informações relacionadas com o modelo de IA de finalidade geral no qual o sistema de IA de risco elevado se baseia. Nesses casos, o procedimento relativo à assistência mútua em casos transfronteiriços previsto no capítulo VI do Regulamento (UE) 2019/1020 deverá aplicar-se mutatis mutandis.
(162)
S cieľom čo najlepšie využiť centralizované odborné znalosti a synergie Únie na úrovni Únie by právomoci dohľadu a presadzovania povinností mali vo vzťahu k poskytovateľom modelov AI na všeobecné účely patriť do právomoci Komisie. Úrad pre AI by mal byť schopný vykonávať všetky potrebné opatrenia na monitorovanie účinného vykonávania tohto nariadenia, pokiaľ ide o modely AI na všeobecné účely. Mal by byť schopný vyšetrovať možné porušenia pravidiel týkajúcich sa poskytovateľov modelov AI na všeobecné účely z vlastnej iniciatívy, a to na základe výsledkov svojich monitorovacích činností alebo na žiadosť orgánov dohľadu nad trhom v súlade s podmienkami stanovenými v tomto nariadení. Na podporu účinného monitorovania by mal úrad pre AI umožniť nadväzujúcim poskytovateľom podávať sťažnosti na možné porušenia pravidiel týkajúcich sa poskytovateľov modelov a systémov AI na všeobecné účely.
(162)
A fim de utilizar da melhor forma os conhecimentos especializados centralizados da União e as sinergias a nível da União, os poderes de supervisão e execução das obrigações dos prestadores de modelos de IA de finalidade geral deverão ser da competência da Comissão. O Serviço para a IA deverá poder realizar todas as ações necessárias para acompanhar a execução efetiva do presente regulamento no que diz respeito aos modelos de IA de finalidade geral. Deverá poder investigar eventuais infrações às regras aplicáveis aos prestadores de modelos de IA de finalidade geral, tanto por sua própria iniciativa, na sequência dos resultados das suas atividades de acompanhamento, como a pedido das autoridades de fiscalização do mercado, em conformidade com as condições estabelecidas no presente regulamento. A fim de apoiar um acompanhamento eficaz do Serviço para a IA, este deverá prever a possibilidade de os prestadores a jusante apresentarem queixas sobre possíveis infrações às regras aplicáveis aos prestadores de modelos e sistemas de IA de finalidade geral.
(163)
S cieľom doplniť systémy riadenia a správy modelov AI na všeobecné účely by mal vedecký panel podporovať monitorovacie činnosti úradu pre AI, pričom v určitých prípadoch môže úradu pre AI poskytovať kvalifikované upozornenia, ktoré povedú k následným opatreniam, ako sú vyšetrovania. Malo by tomu tak byť v prípade, keď má vedecký panel dôvodné podozrenie, že model AI na všeobecné účely predstavuje konkrétne a identifikovateľné riziko na úrovni Únie. Okrem toho by tomu tak malo byť v prípade, keď má vedecký panel dôvodné podozrenie, že model AI na všeobecné účely spĺňa kritériá, ktoré by viedli ku klasifikácii tohto modelu ako modelu AI na všeobecné účely so systémovým rizikom. S cieľom poskytnúť vedeckému panelu informácie potrebné na plnenie týchto úloh by mal existovať mechanizmus, prostredníctvom ktorého by vedecký panel mohol požiadať Komisiu, aby od poskytovateľa vyžadovala dokumentáciu alebo informácie.
(163)
Com vista a complementar os sistemas de governação aplicáveis a modelos de IA de finalidade geral, o painel científico deverá apoiar as atividades de acompanhamento do Serviço para a IA e pode, em certos casos, emitir alertas qualificados ao Serviço para a IA que desencadeiem seguimentos, como investigações. Tal deverá ser o caso se o painel científico tiver razões para suspeitar que um modelo de IA de finalidade geral representa um risco concreto e identificável a nível da União. Além disso, deverá ser esse o caso se o painel científico tiver motivos para suspeitar que um modelo de IA de finalidade geral cumpre os critérios que conduziriam a uma classificação como modelo de IA de finalidade geral com risco sistémico. A fim de dotar o painel científico das informações necessárias para o desempenho dessas funções, deverá existir um mecanismo através do qual o painel científico possa solicitar à Comissão que exija documentação ou informações a um prestador.
(164)
Úrad pre AI by mal mať možnosť prijímať potrebné opatrenia na monitorovanie účinného vykonávania a dodržiavania povinností poskytovateľov modelov AI na všeobecné účely stanovených v tomto nariadení. Úrad pre AI by mal mať možnosť vyšetrovať možné porušenia v súlade s právomocami stanovenými v tomto nariadení, a to aj vyžiadaním dokumentácie a informácií, vykonávaním hodnotení, ako aj požadovaním opatrení od poskytovateľov modelov AI na všeobecné účely. S cieľom využiť nezávislé odborné znalosti by mal mať úrad pre AI pri vykonávaní hodnotení možnosť zapojiť nezávislých expertov do vykonávania hodnotení v jeho mene. Dodržiavanie povinností by malo byť vynútiteľné okrem iného prostredníctvom žiadostí o prijatie vhodných opatrení vrátane opatrení na zmiernenie rizika v prípade identifikovaných systémových rizík, ako aj prostredníctvom obmedzenia sprístupňovania na trhu, stiahnutia modelu z trhu alebo stiahnutia modelu od používateľa. Ako záruka v prípade, že je to potrebné nad rámec procesných práv stanovených v tomto nariadení, by poskytovatelia modelov AI na všeobecné účely mali mať procesné práva stanovené v článku 18 nariadenia (EÚ) 2019/1020, ktoré by sa mali mutatis mutandis uplatňovať bez toho, aby boli dotknuté konkrétnejšie procesné práva stanovené v tomto nariadení.
(164)
O Serviço para a IA deverá poder tomar as medidas necessárias para fiscalizar a execução efetiva e o cumprimento das obrigações dos prestadores de modelos de IA de finalidade geral estabelecidas no presente regulamento. O Serviço para a IA deverá poder investigar eventuais infrações em conformidade com os poderes previstos no presente regulamento, nomeadamente solicitando documentação e informações, realizando avaliações, bem como solicitando medidas aos prestadores de modelos de IA de finalidade geral. Na realização das avaliações, a fim de recorrer a conhecimentos especializados independentes, o Serviço para a IA deverá poder envolver peritos independentes para realizar as avaliações em seu nome. O cumprimento das obrigações deverá ser executório, nomeadamente através de pedidos de adoção de medidas adequadas, incluindo medidas de redução dos riscos em caso de riscos sistémicos identificados, bem como através da restrição da disponibilização no mercado, da retirada ou da recolha do modelo. A título de salvaguarda, sempre que seja necessário para além dos direitos processuais previstos no presente regulamento, os prestadores de modelos de IA de finalidade geral deverão gozar dos direitos processuais previstos no artigo 18.o do Regulamento (UE) 2019/1020, que deverão ser aplicáveis mutatis mutandis, sem prejuízo de direitos processuais mais específicos previstos no presente regulamento.
(165)
Vývoj systémov AI, ktoré nie sú vysokorizikové, v súlade s požiadavkami tohto nariadenia môže viesť k rozsiahlejšiemu zavádzaniu etickej a dôveryhodnej AI v Únii. Poskytovatelia systémov AI, ktoré nie sú vysokorizikové, by sa mali nabádať, aby vytvárali kódexy správania vrátane súvisiacich mechanizmov správy a riadenia s cieľom podporiť dobrovoľné uplatňovanie niektorých alebo všetkých povinných požiadaviek uplatniteľných na vysokorizikové systémy AI, prispôsobených zamýšľanému účelu systémov a nižšiemu súvisiacemu riziku a s prihliadnutím na dostupné technické riešenia a najlepšie odvetvové postupy, ako sú modely a dátové karty. Poskytovatelia všetkých vysokorizikových alebo nerizikových systémov a modelov AI a prípadne subjekty nasadzujúce takéto systémy a modely by sa tiež mali nabádať, aby dobrovoľne uplatňovali dodatočné požiadavky týkajúce sa napríklad prvkov únijných etických usmernení pre dôveryhodnú AI, environmentálnej udržateľnosti, opatrení týkajúcich sa gramotnosti v oblasti AI, inkluzívneho a rôznorodého dizajnu a vývoja systémov AI vrátane pozornosti venovanej zraniteľným osobám a prístupnosti pre osoby so zdravotným postihnutím, účasti zainteresovaných strán, podľa potreby za účasti relevantných zainteresovaných strán, ako sú podniky a organizácie občianskej spoločnosti, akademická obec a výskumné organizácie, odborové zväzy a organizácie na ochranu spotrebiteľa, pri navrhovaní a vývoji systémov AI, ako aj rozmanitosti vývojárskych tímov vrátane rodovej rovnováhy. Aby sa zabezpečila účinnosť dobrovoľných kódexov správania, mali by byť založené na jasných cieľoch a kľúčových ukazovateľoch výkonu na meranie dosahovania týchto cieľov. Mali by sa podľa potreby rozvíjať inkluzívnym spôsobom aj so zapojením relevantných zainteresovaných strán, ako sú podniky a organizácie občianskej spoločnosti, akademická obec a výskumné organizácie, odborové zväzy a organizácie na ochranu spotrebiteľa. Komisia môže vypracovať iniciatívy, a to aj odvetvovej povahy, na uľahčenie znižovania technických prekážok, ktoré bránia cezhraničnej výmene údajov na účely rozvoja AI, a to aj v oblasti infraštruktúry prístupu k údajom a sémantickej a technickej interoperability rôznych typov údajov.
(165)
O desenvolvimento de outros sistemas de IA, que não sejam sistemas de IA de risco elevado de acordo com os requisitos do presente regulamento pode conduzir a uma maior utilização de IA ética e de confiança na União. Os prestadores de sistemas de IA que não sejam de risco elevado deverão ser incentivados a criar códigos de conduta, incluindo mecanismos de governação conexos, destinados a promover a aplicação voluntária de alguns ou de todos os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado, adaptados à finalidade prevista dos sistemas e ao menor risco envolvido e tendo em conta as soluções técnicas disponíveis e as boas práticas da indústria, como modelos e cartões de dados. Os prestadores e, se for caso disso, os responsáveis pela implantação de todos os sistemas de IA, de risco elevado ou não, e dos modelos de IA deverão também ser incentivados a aplicar, numa base voluntária, requisitos adicionais relacionados, por exemplo, com os elementos das Orientações Éticas da União para uma IA de Confiança, a sustentabilidade ambiental, as medidas de literacia no domínio da IA, a conceção e o desenvolvimento inclusivos e diversificados de sistemas de IA, incluindo a atenção às pessoas vulneráveis e a acessibilidade das pessoas com deficiência, a participação das partes interessadas com a participação, conforme adequado, das partes interessadas pertinentes, como as organizações empresariais e da sociedade civil, o meio académico, as organizações de investigação, os sindicatos e as organizações de defesa dos consumidores na conceção e desenvolvimento de sistemas de IA, e a diversidade das equipas de desenvolvimento, incluindo o equilíbrio entre homens e mulheres. A fim de assegurar que sejam eficazes, os códigos de conduta voluntários deverão basear-se em objetivos claros e em indicadores-chave de desempenho para medir a consecução desses objetivos. Deverão também ser desenvolvidos de forma inclusiva, conforme adequado, com a participação das partes interessadas pertinentes, como as organizações empresariais e da sociedade civil, o meio académico, as organizações de investigação, os sindicatos e as organizações de defesa dos consumidores. A Comissão pode desenvolver iniciativas, nomeadamente de natureza setorial, para facilitar a redução de obstáculos técnicos que impeçam o intercâmbio transfronteiriço de dados para o desenvolvimento da IA, inclusive em matéria de infraestruturas de acesso aos dados e de interoperabilidade semântica e técnica dos diferentes tipos de dados.
(166)
Je dôležité, aby systémy AI týkajúce sa výrobkov, ktoré v súlade s týmto nariadením nie sú vysokorizikové, a preto sa v súvislosti s nimi nevyžaduje, aby spĺňali požiadavky stanovené pre vysokorizikové systémy AI, však boli pri uvádzaní na trh alebo do prevádzky bezpečné. S cieľom prispieť k dosiahnutiu tohto cieľa by sa ako záchranná sieť uplatňovalo nariadenie Európskeho parlamentu a Rady (EÚ) 2023/988 (53).
(166)
Não obstante, é importante que os sistemas de IA relacionados com produtos que não são de risco elevado, nos termos do presente regulamento e que, como tal, não são obrigados a cumprir os requisitos aplicáveis a sistemas de IA de risco elevado, sejam seguros quando são colocados no mercado ou colocados em serviço. A fim de contribuir para alcançar esse objetivo, o Regulamento (UE) 2023/988 do Parlamento Europeu e do Conselho (53) deverá ser aplicado como uma rede de segurança.
(167)
V záujme zabezpečenia dôvernej a konštruktívnej spolupráce príslušných orgánov na úrovni Únie a vnútroštátnej úrovni by všetky strany zapojené do uplatňovania tohto nariadenia mali rešpektovať dôvernosť informácií a údajov získaných pri výkone svojich úloh v súlade s právom Únie a vnútroštátnym právom. Svoje úlohy a činnosti by mali vykonávať takým spôsobom, aby chránili najmä práva duševného vlastníctva, dôverné obchodné informácie a obchodné tajomstvo, účinné vykonávanie tohto nariadenia, verejné záujmy a záujmy národnej bezpečnosti, integritu trestného a správneho konania a integritu utajovaných skutočností.
(167)
Para assegurar uma cooperação de confiança e construtiva entre as autoridades competentes a nível da União e nacional, todas as partes envolvidas na aplicação do presente regulamento deverão respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções, em conformidade com o direito da União ou o direito nacional. Deverão desempenhar as suas funções e atividades de modo a proteger, em especial, os direitos de propriedade intelectual, as informações comerciais de caráter confidencial e os segredos comerciais, a execução efetiva do presente regulamento, os interesses públicos e nacionais em matéria de segurança, a integridade dos processos penais e administrativos e a integridade das informações classificadas.
(168)
Dodržiavanie tohto nariadenia by malo byť vymáhateľné prostredníctvom ukladania sankcií a iných opatrení na presadzovanie práva. Členské štáty by mali prijať všetky opatrenia potrebné na zabezpečenie vykonávania ustanovení tohto nariadenia vrátane stanovenia účinných, primeraných a odrádzajúcich sankcií za ich porušenie a na dodržiavanie zásady ne bis in idem. S cieľom posilniť a harmonizovať správne sankcie za porušenie tohto nariadenia by sa mali ustanoviť horné hranice na stanovenie správnych pokút za určité konkrétne porušenia. Pri posudzovaní výšky pokút by členské štáty mali v každom jednotlivom prípade zohľadniť všetky relevantné okolnosti konkrétnej situácie s náležitým zreteľom najmä na povahu, závažnosť a trvanie porušenia a jeho dôsledky, ako aj na veľkosť poskytovateľa, najmä ak je poskytovateľom MSP alebo startup. Európsky dozorný úradník pre ochranu údajov by mal mať právomoc ukladať správne pokuty inštitúciám, agentúram a orgánom Únie, ktoré patria do rozsahu pôsobnosti tohto nariadenia.
(168)
O cumprimento do presente regulamento deverá ter força executória através da imposição de sanções e de outras medidas de execução. Os Estados-Membros deverão tomar todas as medidas necessárias para assegurar a aplicação das disposições do presente regulamento, inclusive estabelecendo sanções efetivas, proporcionadas e dissuasivas aplicáveis em caso de violação dessas disposições, e a respeito do princípio ne bis in idem. A fim de reforçar e harmonizar as sanções administrativas em caso de infração ao presente regulamento, deverão ser estabelecidos os limites máximos para a fixação de coimas para determinadas infrações específicas. Ao avaliar o montante das coimas, os Estados-Membros deverão, em cada caso individual, ter em conta todas as circunstâncias relevantes da situação específica, prestando a devida atenção à natureza, à gravidade e à duração da infração e às suas consequências, bem como à dimensão do prestador, em particular se o prestador for uma PME, incluindo uma empresa em fase de arranque. A Autoridade Europeia para a Proteção de Dados deverá ter competências para impor coimas às instituições, órgãos e organismos da União que se enquadram no âmbito do presente regulamento.
(169)
Dodržiavanie povinností poskytovateľov modelov AI na všeobecné účely uložených podľa tohto nariadenia by malo byť vymáhateľné okrem iného prostredníctvom pokút. Na tento účel by sa mali stanoviť aj primerané úrovne pokút za porušenie týchto povinností vrátane nedodržania opatrení požadovaných Komisiou v súlade s týmto nariadením, s výhradou primeraných premlčacích lehôt v súlade so zásadou proporcionality. Všetky rozhodnutia prijaté Komisiou podľa tohto nariadenia môže preskúmať Súdny dvor Európskej únie v súlade so ZFEÚ vrátane neobmedzenej právomoci Súdneho dvora, pokiaľ ide o sankcie podľa článku 261 ZFEÚ.
(169)
O cumprimento das obrigações impostas aos prestadores de modelos de IA de finalidade geral nos termos do presente regulamento deverá ter força executória, nomeadamente, através de coimas. Para o efeito, deverão também ser estabelecidos níveis adequados de coimas em caso de infração dessas obrigações, incluindo o incumprimento das medidas solicitadas pela Comissão nos termos do presente regulamento, sob reserva de prazos de prescrição adequados, de acordo com o princípio da proporcionalidade. Todas as decisões tomadas pela Comissão ao abrigo do presente regulamento estão sujeitas a fiscalização pelo Tribunal de Justiça da União Europeia nos termos do TFUE, incluindo a plena jurisdição do Tribunal de Justiça da União Europeia no que diz respeito às sanções nos termos do artigo 261.o do TFUE.
(170)
V práve Únie a vo vnútroštátnom práve sa už stanovujú účinné prostriedky nápravy pre fyzické a právnické osoby, ktorých práva a slobody sú nepriaznivo ovplyvnené používaním systémov AI. Bez toho, aby boli dotknuté tieto prostriedky nápravy, každá fyzická alebo právnická osoba, ktorá má dôvody domnievať sa, že došlo k porušeniu tohto nariadenia, by mala byť oprávnená podať sťažnosť príslušnému orgánu dohľadu nad trhom.
(170)
O direito da União e o direito nacional já preveem vias de recurso eficazes para as pessoas singulares e coletivas cujos direitos e liberdades sejam afetados negativamente pela utilização de sistemas de IA. Sem prejuízo dessas vias, qualquer pessoa singular ou coletiva que tenha motivos para considerar que houve uma infração do presente regulamento deverá ter o direito de apresentar uma queixa à autoridade de fiscalização do mercado competente.
(171)
Dotknuté osoby by mali mať právo dostať o vysvetlenie, keď sa rozhodnutie nasadzujúceho subjektu zakladá hlavne na výstupe z určitých vysokorizikových systémov AI, ktoré patria do rozsahu pôsobnosti tohto nariadenia, a keď má toto rozhodnutie právne účinky alebo podobne významne ovplyvňuje uvedené osoby spôsobom, ktorý podľa nich nepriaznivo ovplyvňuje ich zdravie, bezpečnosť alebo základné práva. Uvedené vysvetlenie by malo byť jasné a zmysluplné a malo by dotknutým osobám poskytnúť základ na uplatňovanie ich práv. Právo na vysvetlenie by sa nemalo vzťahovať na používanie systémov AI, pre ktoré z práva Únie alebo vnútroštátneho práva vyplývajú výnimky alebo obmedzenia, a malo by sa uplatňovať len v rozsahu, v akom toto právo ešte nie je stanovené v právnych predpisoch Únie.
(171)
As pessoas afetadas deverão ter o direito de obter explicações quando uma decisão do responsável pela implantação tenha por base principalmente os resultados de determinados sistemas de IA de risco elevado abrangidos pelo âmbito de aplicação do presente regulamento, e quando essa decisão produzir efeitos jurídicos ou analogamente afetar num grau significativo essas pessoas, de uma forma que considerem ter repercussões negativas na sua saúde, segurança ou direitos fundamentais. Essas explicações deverão ser claras e pertinentes e constituir uma base sobre a qual as pessoas afetadas possam exercer os seus direitos. O direito à obtenção de explicações não deverá aplicar-se à utilização de sistemas de IA para os quais decorram do direito da União ou do direito nacional exceções ou restrições e deverá aplicar-se apenas na medida em que não esteja já previsto no direito da União.
(172)
Osoby nahlasujúce porušenia tohto nariadenia by mali byť chránené podľa práva Únie. Na nahlasovanie porušení tohto nariadenia a na ochranu osôb nahlasujúcich tieto porušenia by sa preto mala vzťahovať smernica Európskeho parlamentu a Rady (EÚ) 2019/1937 (54).
(172)
As pessoas que atuam como denunciantes de infrações ao presente regulamento deverão ser protegidas ao abrigo do direito da União. A Diretiva (UE) 2019/1937 do Parlamento Europeu e do Conselho (54) deverá, por conseguinte, aplicar-se à denúncia de infrações ao presente regulamento e à proteção das pessoas que denunciam essas infrações.
(173)
S cieľom zabezpečiť, aby sa regulačný rámec mohol v prípade potreby upraviť, by sa mala na Komisiu delegovať právomoc prijímať akty v súlade s článkom 290 ZFEÚ na účely zmeny podmienok, za ktorých sa systém AI nemá považovať za vysokorizikový, zoznamu vysokorizikových systémov AI, ustanovení týkajúcich sa technickej dokumentácie, obsahu EÚ vyhlásenia o zhode, ustanovení týkajúcich sa postupov posudzovania zhody, ustanovení, ktorými sa stanovujú vysokorizikové systémy AI, na ktoré by sa mal vzťahovať postup posudzovania zhody založený na posúdení systému riadenia kvality a posúdení technickej dokumentácie, prahovej hodnoty, referenčných hodnôt a ukazovateľov, a to aj doplnením týchto referenčných hodnôt a ukazovateľov, v pravidlách pre klasifikáciu modelov AI na všeobecné účely so systémovým rizikom, kritérií označovania modelov AI na všeobecné účely so systémovým rizikom, technickej dokumentácie pre poskytovateľov modelov AI na všeobecné účely a transparentnosti informácií pre poskytovateľov modelov AI na všeobecné účely. Je osobitne dôležité, aby Komisia počas prípravných prác uskutočnila príslušné konzultácie, a to aj na úrovni expertov, a aby tieto konzultácie vykonávala v súlade so zásadami stanovenými v Medziinštitucionálnej dohode z 13. apríla 2016 o lepšej tvorbe práva (55). Predovšetkým v záujme rovnakého zastúpenia pri príprave delegovaných aktov sa všetky dokumenty doručujú Európskemu parlamentu a Rade v rovnakom čase ako expertom z členských štátov, a experti Európskeho parlamentu a Rady majú systematicky prístup na zasadnutia skupín expertov Komisie, ktoré sa zaoberajú prípravou delegovaných aktov.
(173)
A fim de assegurar que o regime regulamentar possa ser adaptado sempre que necessário, o poder de adotar atos nos termos do artigo 290.o do TFUE deverá ser delegado na Comissão para que possa alterar as condições nas quais um sistema de IA não é para ser considerado de risco elevado, a lista dos sistemas de IA de risco elevado, as disposições relativas à documentação técnica, o conteúdo da declaração UE de conformidade, as disposições relativas aos procedimentos de avaliação da conformidade, as disposições que estabelecem os sistemas de IA de risco elevado aos quais se deverá aplicar o procedimento de avaliação da conformidade baseado na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica, o limiar e os parâmetros de referência e os indicadores, inclusive complementando esses parâmetros de referência e indicadores, nas regras para a classificação de modelos de IA de finalidade geral com risco sistémico, os critérios para a designação de modelos de IA de finalidade geral com risco sistémico, a documentação técnica para os prestadores de modelos de IA de finalidade geral e informações em matéria de transparência para os prestadores de modelos de IA de finalidade geral. É particularmente importante que a Comissão proceda às consultas adequadas durante os trabalhos preparatórios, inclusive ao nível de peritos, e que essas consultas sejam conduzidas de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor (55). Em particular, a fim de assegurar a igualdade de participação na preparação dos atos delegados, o Parlamento Europeu e o Conselho recebem todos os documentos ao mesmo tempo que os peritos dos Estados—Membros e os respetivos peritos têm sistematicamente acesso às reuniões dos grupos de peritos da Comissão que tratem da preparação dos atos delegados.
(174)
Vzhľadom na rýchly technologický vývoj a technické odborné znalosti potrebné na účinné uplatňovanie tohto nariadenia by Komisia mala toto nariadenie vyhodnotiť a preskúmať do 2. augusta 2029 a potom každé štyri roky a podať správu Európskemu parlamentu a Rade. Okrem toho, berúc do úvahy dôsledky pre rozsah pôsobnosti tohto nariadenia, by Komisia mala raz ročne posúdiť potrebu zmeniť zoznam vysokorizikových systémov AI a zoznam zakázaných praktík. Komisia by taktiež mala do 2. augusta 2028 a potom každé štyri roky vyhodnotiť potrebu zmeniť zoznam položiek vysokorizikových oblastí v prílohe k tomuto nariadeniu, systémy AI v rozsahu povinností týkajúcich sa transparentnosti, účinnosť systému dohľadu a správy a riadenia a pokrok vo vývoji normalizačných produktov týkajúcich sa energeticky efektívneho vývoja modelov AI na všeobecné účely vrátane potreby ďalších opatrení alebo krokov, a podať o tom správu Európskemu parlamentu a Rade. Komisia by mala do 2. augusta 2028 a potom každé tri roky vyhodnotiť vplyv a efektívnosť dobrovoľných kódexov správania na podporu uplatňovania požiadaviek stanovených pre vysokorizikové systémy AI v prípade systémov AI, ktoré nie sú vysokorizikové, a prípadne ďalších dodatočných požiadaviek na takéto systémy AI.
(174)
Tendo em conta a rápida evolução tecnológica e os conhecimentos técnicos necessários para a aplicação efetiva do presente regulamento, a Comissão deverá avaliar e rever o presente regulamento até 2 de agosto de 2029 e, posteriormente, de quatro em quatro anos, e apresentar um relatório ao Parlamento Europeu e ao Conselho. Além disso, tendo em conta as implicações para o âmbito de aplicação do presente regulamento, uma vez por ano a Comissão deverá efetuar uma avaliação da necessidade de alterar a lista de sistemas de IA de risco elevado e a lista de práticas proibidas. Além disso, até 2 de agosto de 2028 e, posteriormente, de quatro em quatro anos, a Comissão deverá avaliar e apresentar um relatório ao Parlamento Europeu e ao Conselho sobre a necessidade de alterar os a lista de domínios de risco elevado do anexo do presente regulamento, os sistemas de IA abrangidos pelas obrigações de transparência, a eficácia do sistema de supervisão e governação e os progressos realizados no desenvolvimento de produtos de normalização sobre o desenvolvimento eficiente do ponto de vista energético de modelos de IA de finalidade geral, incluindo a necessidade de medidas ou ações adicionais. Por fim, até 2 de agosto de 2028 e, posteriormente, de três em três anos, a Comissão deverá avaliar o impacto e a eficácia dos códigos de conduta voluntários, a fim de fomentar a aplicação dos requisitos estabelecidos para sistemas de IA de risco elevado a sistemas de IA que não sejam de risco elevado e, possivelmente, de outros requisitos adicionais para esses sistemas de IA.
(175)
S cieľom zabezpečiť jednotné podmienky vykonávania tohto nariadenia by sa mali na Komisiu preniesť vykonávacie právomoci. Uvedené právomoci by sa mali vykonávať v súlade s nariadením Európskeho parlamentu a Rady (EÚ) č. 182/2011 (56).
(175)
A fim de assegurar condições uniformes para a execução do presente regulamento, deverão ser atribuídas competências de execução à Comissão. Essas competências deverão ser exercidas nos termos do Regulamento (UE) n.o 182/2011 do Parlamento Europeu e do Conselho (56).
(176)
Keďže cieľ tohto nariadenia, a to zlepšiť fungovanie vnútorného trhu a podporovať zavádzanie dôveryhodnej AI sústredenej na človeka a súčasne zabezpečiť vysokú úroveň ochrany zdravia, bezpečnosti, základných práv zakotvených v charte vrátane demokracie, právneho štátu a ochranu životného prostredia pred škodlivými účinkami systémov AI v Únii, a zároveň podporovať inovácie, nie je možné uspokojivo dosiahnuť na úrovni členských štátov a z dôvodu rozsahu alebo dôsledkov činnosti ho možno lepšie dosiahnuť na úrovni Únie, môže Únia prijať opatrenia v súlade so zásadou subsidiarity podľa článku 5 Zmluvy o EÚ. V súlade so zásadou proporcionality podľa uvedeného článku toto nariadenie neprekračuje rámec nevyhnutný na dosiahnutie tohto cieľa.
(176)
Atendendo a que o objetivo do presente regulamento, a saber, melhorar o funcionamento do mercado interno e promover a adoção de uma IA centrada no ser humano e de confiança, assegurando simultaneamente um elevado nível de proteção da saúde, da segurança e dos direitos fundamentais consagrados na Carta, incluindo a democracia, o Estado de direito e a proteção do ambiente contra os efeitos nocivos dos sistemas de IA na União e apoiando a inovação, não pode ser suficientemente alcançado pelos Estados-Membros mas pode, devido à dimensão ou aos efeitos da ação, ser mais bem alcançado ao nível da União, a União pode tomar medidas em conformidade com o princípio da subsidiariedade consagrado no artigo 5.o do TUE. Em conformidade com o princípio da proporcionalidade consagrado no mesmo artigo, o presente regulamento não excede o necessário para alcançar esse objetivo.
(177)
S cieľom zabezpečiť právnu istotu a primerané adaptačné obdobie pre prevádzkovateľov a zabrániť narušeniu trhu, a to aj zabezpečením kontinuity používania systémov AI, je vhodné, aby sa toto nariadenie uplatňovalo na vysokorizikové systémy AI, ktoré boli uvedené na trh alebo do prevádzky pred všeobecným dňom začatia jeho uplatňovania, len ak od uvedeného dňa dizajn alebo zamýšľaný účel týchto systémov prešli významnými zmenami. Je vhodné spresniť, že v tejto súvislosti by sa pojem významnej zmeny mal vykladať tak, že je vo svojej podstate rovnocenný s pojmom podstatnej zmeny, ktorý sa používa len v súvislosti s vysokorizikovými systémami AI podľa tohto nariadenia. Výnimočne a vzhľadom na verejnú zodpovednosť by prevádzkovatelia systémov AI, ktoré sú komponentmi rozsiahlych informačných systémov zriadených právnymi aktmi uvedenými v prílohe k tomuto nariadeniu, a prevádzkovatelia vysokorizikových systémov AI, ktoré majú používať orgány verejnej moci, mali prijať potrebné kroky na dosiahnutie súladu s požiadavkami tohto nariadenia do konca roka 2030 a do 2. augusta 2030.
(177)
A fim de garantir a segurança jurídica, assegurar um período de adaptação adequado para os operadores e evitar perturbações do mercado, nomeadamente assegurando a continuidade da utilização dos sistemas de IA, é conveniente que o presente regulamento só seja aplicável aos sistemas de IA de risco elevado que tenham sido colocados no mercado ou colocados em serviço antes da data geral de aplicação do mesmo, se, a partir dessa data, esses sistemas sofrerem alterações significativas na sua conceção ou finalidade prevista. É conveniente clarificar que, a este respeito, o conceito de alteração significativa deverá ser entendido como equivalente, em substância, ao conceito de modificação substancial, que é utilizado apenas no que diz respeito aos sistemas de IA de risco elevado, nos termos do presente regulamento. A título excecional e à luz da responsabilização pública, os operadores de sistemas de IA que são componentes dos sistemas informáticos de grande escala estabelecidos pelos atos jurídicos enumerados num anexo do presente regulamento e os operadores de sistemas de IA de risco elevado concebidos para serem utilizados por autoridades públicas deverão, respetivamente, tomar as medidas necessárias para cumprir os requisitos do presente regulamento até ao final de 2030 e até 2 de agosto de 2030.
(178)
Poskytovatelia vysokorizikových systémov AI sa vyzývajú, aby dobrovoľne začali plniť príslušné povinnosti stanovené v tomto nariadení už počas prechodného obdobia.
(178)
Os prestadores de sistemas de IA de risco elevado são incentivados a começar a cumprir, numa base voluntária, as obrigações pertinentes previstas no presente regulamento já durante o período de transição.
(179)
Toto nariadenie by sa malo uplatňovať od 2. augusta 2026. Vzhľadom na neprijateľné riziko spojené s používaním AI určitými spôsobmi by sa však zákazy, ako aj všeobecné ustanovenia tohto nariadenia, mali uplatňovať už od 2. februára 2025. Zatiaľ čo plný účinok týchto zákazov vyplýva zo zavedenia správy a riadenia a presadzovania tohto nariadenia, je dôležité predpokladať uplatňovanie zákazov, aby sa zohľadnili neprijateľné riziká a aby sa dosiahol vplyv na iné postupy, napríklad v občianskom práve. Taktiež platí, že infraštruktúra súvisiaca so správou a riadením a so systémom posudzovania zhody by však mala byť funkčná pred 2. augusta 2026, a preto by sa ustanovenia o notifikovaných osobách a štruktúre správy a riadenia mali uplatňovať od 2. augusta 2025. Vzhľadom na rýchle tempo technologického pokroku a prijímanie modelov AI na všeobecné účely by sa povinnosti poskytovateľov modelov AI na všeobecné účely mali začať uplatňovať od 2. augusta 2025. Kódexy postupov by mali byť pripravené do 2. mája 2025, aby sa poskytovateľom umožnilo včas preukázať plnenie predpisov. Úrad pre AI by mal zabezpečiť, aby pravidlá a postupy klasifikácie boli aktuálne vzhľadom na technologický vývoj. Okrem toho by členské štáty mali stanoviť pravidlá týkajúce sa sankcií vrátane správnych pokút, oznámiť ich Komisii a zabezpečiť ich riadne a účinné vykonávanie do dátumu začatia uplatňovania tohto nariadenia. Ustanovenia o sankciách by sa preto mali začať uplatňovať od 2. augusta 2025.
(179)
O presente regulamento é aplicável a partir de 2 de agosto de 2026. No entanto, tendo em conta o risco inaceitável associado à utilização da IA de determinadas formas, as proibições bem como as disposições gerais do presente regulamento deverão aplicar-se já a partir de 2 de fevereiro de 2025. Embora o pleno efeito dessas proibições decorra do estabelecimento da governação e da execução do presente regulamento, a antecipação da aplicação das proibições é importante para ter em conta riscos inaceitáveis e para ter efeitos noutros procedimentos, como no direito civil. Além disso, as estruturas relacionadas com a governação e o sistema de avaliação da conformidade deverão estar operacionais antes de 2 de agosto de 2026, pelo que as disposições relativas aos organismos notificados e à estrutura de governação deverão aplicar-se a partir de 2 de agosto de 2025. Tendo em conta o ritmo acelerado da evolução tecnológica e da adoção de modelos de IA de finalidade geral, as obrigações dos prestadores de modelos de IA de finalidade geral deverão aplicar-se a partir de 2 de agosto de 2025. Códigos de práticas deverão estar prontos até 2 de maio de 2025, com vista a permitir que os prestadores demonstrem o cumprimento atempadamente. O Serviço para a IA deverá assegurar que as regras e procedimentos de classificação estejam atualizados à luz da evolução tecnológica. Além disso, os Estados-Membros deverão estabelecer as regras em matéria de sanções, incluindo coimas, e notificá-las à Comissão, bem como assegurar a sua aplicação de forma efetiva e adequada à data de aplicação do presente regulamento. Como tal, as disposições relativas às sanções deverão aplicar-se a partir de 2 de agosto de 2025.
(180)
V súlade s článkom 42 ods. 1 a 2 nariadenia (EÚ) 2018/1725 sa konzultovalo s európskym dozorným úradníkom pre ochranu údajov a s Európskym výborom na ochranu údajov, ktorí 18. júna 2021 vydali svoje spoločné stanovisko,
(180)
A Autoridade Europeia para a Proteção de Dados e o Comité Europeu para a Proteção de Dados foram consultados nos termos do artigo 42.o, n.os 1 e 2, do Regulamento (UE) 2018/1725, e emitiram parecer em 18 de junho de 2021,
PRIJALI TOTO NARIADENIE:
ADOTARAM O PRESENTE REGULAMENTO:
KAPITOLA I
CAPÍTULO I
VŠEOBECNÉ USTANOVENIA
DISPOSIÇÕES GERAIS
Článok 1
Artigo 1.o
Predmet úpravy
Objeto
1. Účelom tohto nariadenia je zlepšiť fungovanie vnútorného trhu a podporiť zavádzanie dôveryhodnej umelej inteligencie (ďalej len „AI“) sústredenej na človeka, a pritom zabezpečiť vysokú úroveň ochrany zdravia, bezpečnosti, základných práv zakotvených v charte vrátane demokracie, právneho štátu a ochrany životného prostredia pred škodlivými účinkami systémov AI v Únii a podporovať inovácie.
1. A finalidade do presente regulamento é melhorar o funcionamento do mercado interno e promover a adoção de uma inteligência artificial (IA) centrada no ser humano e de confiança, assegurando simultaneamente um elevado nível de proteção da saúde, da segurança e dos direitos fundamentais consagrados na Carta, incluindo a democracia, o Estado de direito e a proteção do ambiente, contra os efeitos nocivos dos sistemas de IA na União, bem como apoiar a inovação.
2. V tomto nariadení sa stanovujú:
2. O presente regulamento estabelece:
a)
harmonizované pravidlá uvádzania na trh, uvádzania do prevádzky a používania systémov AI v Únii;
a)
Regras harmonizadas para a colocação no mercado, a colocação em serviço e a utilização de sistemas de IA na União;
b)
zákazy určitých praktík využívajúcich AI;
b)
Proibições de certas práticas de IA;
c)
osobitné požiadavky na vysokorizikové systémy AI a povinnosti prevádzkovateľov takýchto systémov;
c)
Requisitos específicos para sistemas de IA de risco elevado e obrigações para os operadores desses sistemas;
d)
harmonizované pravidlá transparentnosti pre určité systémy AI;
d)
Regras de transparência harmonizadas para determinados sistemas de IA;
e)
harmonizované pravidlá uvádzania modelov AI na všeobecné účely na trh;
e)
Regras harmonizadas para a colocação no mercado de modelos de IA de finalidade geral;
f)
pravidlá monitorovania trhu, dohľadu nad trhom, správy a riadenia a presadzovania;
f)
Regras relativas ao acompanhamento do mercado, à fiscalização do mercado, à governação e à aplicação da lei;
g)
opatrenia na podporu inovácií s osobitným dôrazom na MSP vrátane startupov.
g)
Medidas de apoio à inovação, com especial ênfase nas PME, incluindo as empresas em fase de arranque.
Článok 2
Artigo 2.o
Rozsah pôsobnosti
Âmbito
1. Toto nariadenie sa vzťahuje na:
1. O presente regulamento é aplicável a:
a)
poskytovateľov, ktorí v Únii uvádzajú na trh alebo do prevádzky systémy AI alebo uvádzajú na trh modely AI na všeobecné účely, bez ohľadu na to, či sú títo poskytovatelia usadení alebo sa nachádzajú v Únii alebo v tretej krajine;
a)
Prestadores que coloquem no mercado ou coloquem em serviço sistemas de IA ou que coloquem no mercado modelos de IA de finalidade geral no território da União, independentemente de estarem estabelecidos ou localizados na União ou num país terceiro;
b)
subjekty nasadzujúce systémy AI, ktoré majú miesto usadenia alebo sa nachádzajú v Únii;
b)
Responsáveis pela implantação de sistemas de IA que tenham o seu local de estabelecimento ou que estejam localizados na União;
c)
poskytovateľov systémov AI a subjekty nasadzujúce systémy AI, ktoré majú miesto usadenia alebo sa nachádzajú v tretej krajine, ak sa výstup vytvorený systémom AI používa v Únii;
c)
Prestadores e responsáveis pela implantação de sistemas de IA que tenham o seu local de estabelecimento ou estejam localizados num país terceiro, se o resultado produzido pelo sistema de IA for utilizado na União;
d)
dovozcov a distribútorov systémov AI;
d)
Importadores e distribuidores de sistemas de IA;
e)
výrobcov výrobkov, ktorí uvádzajú na trh alebo do prevádzky systém AI spolu so svojím výrobkom a pod vlastným menom alebo ochrannou známkou;
e)
Fabricantes de produtos que coloquem no mercado ou coloquem em serviço um sistema de IA juntamente com o seu produto e sob o seu próprio nome ou a sua própria marca;
f)
splnomocnených zástupcov poskytovateľov, ktorí nie sú usadení v Únii;
f)
Mandatários dos prestadores que não estejam estabelecidos na União;
g)
dotknuté osoby, ktoré sa nachádzajú v Únii.
g)
Pessoas afetadas localizadas na União.
2. Na systémy AI klasifikované v súlade s článkom 6 ods. 1 ako vysokorizikové systémy AI súvisiace s výrobkami, na ktoré sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I oddiele B, sa uplatňuje len článok 6 ods. 1, články 102 až 109 a článok 112. Článok 57 sa uplatňuje len v rozsahu, v akom boli požiadavky na vysokorizikové systémy AI podľa tohto nariadenia začlenené do uvedených harmonizačných právnych predpisov Únie.
2. Aos sistemas de IA classificados como sistemas de IA de risco elevado em conformidade com o artigo 6.o, n.o 1, relacionados com os produtos abrangidos pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção B, apenas é aplicável o artigo 6.o, n.o 1, os artigos 102.o a 109.o e o artigo 112.o. O artigo 57.o só é aplicável na medida em que os requisitos aplicáveis aos sistemas de IA de risco elevado previstos no presente regulamento tenham sido integrados na referida legislação de harmonização da União.
3. Toto nariadenie sa neuplatňuje na oblasti mimo rozsahu pôsobnosti práva Únie a v žiadnom prípade nemá vplyv na právomoci členských štátov týkajúce sa národnej bezpečnosti, a to bez ohľadu na typ subjektu, ktorý členské štáty poverili vykonávaním úloh v súvislosti s týmito právomocami.
3. O presente regulamento não se aplica a domínios não abrangidos pelo âmbito de aplicação do direito da União nem afeta, em caso algum, as competências dos Estados-Membros em matéria de segurança nacional, independentemente do tipo de entidade designada pelos Estados-Membros para desempenhar as funções relacionadas com essas competências.
Toto nariadenie sa neuplatňuje na systémy AI, ak a pokiaľ sa uvádzajú na trh, uvádzajú do prevádzky alebo sa používajú, či už upravené alebo nie, výlučne na vojenské alebo obranné účely alebo na účely národnej bezpečnosti, a to bez ohľadu na typ subjektu vykonávajúceho tieto činnosti.
O presente regulamento não se aplica aos sistemas de IA se e na medida em que tiverem sido colocados no mercado, colocados em serviço ou utilizados, com ou sem modificações, exclusivamente para finalidades militares, de defesa ou de segurança nacional, independentemente do tipo de entidade que realiza essas atividades.
Toto nariadenie sa neuplatňuje na systémy AI, ktoré sa neuvádzajú na trh ani do prevádzky v Únii, ak sa výstup používa v Únii výlučne na vojenské alebo obranné účely alebo na účely národnej bezpečnosti, a to bez ohľadu na typ subjektu vykonávajúceho tieto činnosti.
O presente regulamento não se aplica aos sistemas de IA que não tenham sido colocados no mercado ou colocados em serviço na União, se os seus resultados forem utilizados na União exclusivamente para finalidades militares, de defesa ou de segurança nacional, independentemente do tipo de entidade que realiza essas atividades.
4. Toto nariadenie sa neuplatňuje na orgány verejnej moci v tretej krajine ani na medzinárodné organizácie, ktoré podľa odseku 1 patria do rozsahu pôsobnosti tohto nariadenia, ak tieto orgány alebo organizácie používajú systémy AI v rámci medzinárodných dohôd o spolupráci alebo dohôd o presadzovaní práva a justičnej spolupráci s Úniou alebo s jedným alebo viacerými členskými štátmi, pod podmienkou, že táto tretia krajina alebo medzinárodná organizácia poskytuje primerané záruky, pokiaľ ide o ochranu základných práv a slobôd jednotlivcov.
4. O presente regulamento não se aplica a autoridades públicas de países terceiros, nem a organizações internacionais abrangidas pelo âmbito do presente regulamento nos termos do n.o 1, quando essas autoridades ou organizações usem sistemas de IA no âmbito da cooperação internacional ou de acordos internacionais para efeitos de cooperação policial e judiciária com a União ou com um ou vários Estados-Membros, sob condição de esse país terceiro ou organização internacional apresentar salvaguardas adequadas em matéria de proteção de direitos e liberdades fundamentais das pessoas.
5. Týmto nariadením nie je dotknuté uplatňovanie ustanovení o zodpovednosti poskytovateľov sprostredkovateľských služieb uvedených v kapitole II nariadenia (EÚ) 2022/2065.
5. O presente regulamento não afeta a aplicação das disposições relativas à responsabilidade dos prestadores de serviços intermediários estabelecidas no capítulo II do Regulamento (UE) 2022/2065.
6. Toto nariadenie sa neuplatňuje na systémy alebo modely AI vrátane ich výstupov, ktoré sú osobitne vyvinuté a uvedené do prevádzky výlučne na účely vedeckého výskumu a vývoja.
6. O presente regulamento não se aplica a sistemas de IA ou modelos de IA, incluindo os respetivos resultados, especificamente desenvolvidos e colocados em serviço exclusivamente para fins de investigação e desenvolvimento científicos.
7. Na osobné údaje spracúvané v súvislosti s právami a povinnosťami stanovenými v tomto nariadení sa vzťahuje právo Únie o ochrane osobných údajov, súkromia a dôvernosti komunikácie. Toto nariadenie nemá vplyv na nariadenie (EÚ) 2016/679 či (EÚ) 2018/1725, ani na smernicu 2002/58/ES alebo (EÚ) 2016/680 bez toho, aby bol dotknutý článok 10 ods. 5 a článok 59 tohto nariadenia.
7. O direito da União em matéria de proteção de dados pessoais, privacidade e confidencialidade das comunicações aplica-se aos dados pessoais tratados em virtude dos direitos e obrigações estabelecidos no presente regulamento. O presente regulamento não afeta o disposto nos Regulamentos (UE) 2016/679 ou (UE) 2018/1725 nem nas Diretivas 2002/58/CE ou (UE) 2016/680, sem prejuízo do disposto no artigo 10.o, n.o 5, e no artigo 59.o do presente regulamento.
8. Toto nariadenie sa neuplatňuje na žiadnu výskumnú, testovaciu ani vývojovú činnosť týkajúcu sa systémov AI alebo modelov AI pred ich uvedením na trh alebo do prevádzky. Takéto činnosti sa vykonávajú v súlade s uplatniteľným právom Únie. Toto vylúčenie sa nevzťahuje na testovanie v reálnych podmienkach.
8. O presente regulamento não se aplica às atividades de investigação, testagem ou desenvolvimento relativas a sistemas de IA ou modelos de IA antes de serem colocados no mercado ou colocados em serviço. Tais atividades devem ser realizadas em conformidade com direito da União aplicável. A testagem em condições reais não é abrangida por essa exclusão.
9. Týmto nariadením nie sú dotknuté pravidlá stanovené v iných právnych aktoch Únie týkajúcich sa ochrany spotrebiteľa a bezpečnosti výrobkov.
9. O presente regulamento não prejudica as regras estabelecidas por outros atos legislativos da União relacionados com a proteção dos consumidores e a segurança dos produtos.
10. Toto nariadenie sa neuplatňuje na povinnosti nasadzujúcich subjektov, ktoré sú fyzickými osobami používajúcimi systémy AI v rámci čisto osobnej neprofesionálnej činnosti.
10. O presente regulamento não se aplica às obrigações dos responsáveis pela implantação que sejam pessoas singulares que utilizam os sistemas de IA no âmbito de uma atividade puramente pessoal de caráter não profissional.
11. Toto nariadenie nebráni Únii ani členským štátom v tom, aby zachovali v platnosti alebo prijali zákony, iné právne predpisy alebo správne opatrenia, ktoré sú pre pracovníkov priaznivejšie z hľadiska ochrany ich práv v súvislosti s používaním systémov AI zamestnávateľmi, alebo aby podporovali alebo umožňovali uplatňovanie kolektívnych zmlúv, ktoré sú pre pracovníkov priaznivejšie.
11. O presente regulamento não impede a União nem os Estados-Membros de manterem ou introduzirem disposições legislativas, regulamentares ou administrativas mais favoráveis para os trabalhadores em termos de proteção dos seus direitos no que diz respeito à utilização de sistemas de IA por empregadores, nem de incentivarem ou permitirem a aplicação de convenções coletivas mais favoráveis para os trabalhadores.
12. Toto nariadenie sa neuplatňuje na systémy AI vydané na základe bezplatných licencií s otvoreným zdrojovým kódom, pokiaľ nie sú uvedené na trh alebo do prevádzky ako vysokorizikové systémy AI alebo ako systém AI, na ktorý sa vzťahuje článok 5 alebo článok 50.
12. O presente regulamento não se aplica aos sistemas de IA lançados ao abrigo de licenças gratuitas e de código aberto, a menos que sejam colocados no mercado ou colocados em serviço como sistemas de IA de risco elevado ou que sejam sistemas de IA abrangidos pelo âmbito de aplicação dos artigos 5.o ou 50.o.
Článok 3
Artigo 3.o
Vymedzenie pojmov
Definições
Na účely tohto nariadenia sa uplatňuje toto vymedzenie pojmov:
Para efeitos do presente regulamento, entende-se por:
1.
„systém AI“ je strojový systém, ktorý je dizajnovaný na prevádzku s rôznymi úrovňami autonómnosti, ktorý môže po nasadení prejavovať adaptabilitu a ktorý pre explicitné alebo implicitné ciele odvodzuje zo vstupov, ktoré dostáva, spôsob generovania výstupov, ako sú predpovede, obsah, odporúčania alebo rozhodnutia, ktoré môžu ovplyvniť fyzické alebo virtuálne prostredie;
1)
«Sistema de IA», um sistema baseado em máquinas concebido para funcionar com níveis de autonomia variáveis, e que pode apresentar capacidade de adaptação após a implantação e que, para objetivos explícitos ou implícitos, e com base nos dados de entrada que recebe, infere a forma de gerar resultados, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais;
2.
„riziko“ je kombinácia pravdepodobnosti výskytu ujmy a závažnosti tejto ujmy;
2)
«Risco», a combinação da probabilidade de ocorrência de danos com a gravidade desses danos;
3.
„poskytovateľ“ je fyzická alebo právnická osoba, orgán verejnej moci, agentúra alebo iný subjekt, ktorý vyvíja systém AI alebo model AI na všeobecné účely alebo ktorý si dáva vyvinúť systém AI alebo model AI na všeobecné účely a uvádza ho na trh alebo uvádza systém AI do prevádzky pod svojím vlastným menom alebo ochrannou známkou, či už za odplatu alebo bezodplatne;
3)
«Prestador», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que desenvolva, ou mande desenvolver, um sistema de IA ou um modelo de IA de finalidade geral e o coloque no mercado, ou coloque o sistema de IA em serviço sob o seu próprio nome ou a sua própria marca, a título oneroso ou gratuito;
4.
„nasadzujúci subjekt“ je fyzická alebo právnická osoba, orgán verejnej moci, agentúra alebo iný subjekt, ktorý používa systém AI v rámci svojej právomoci, s výnimkou prípadov, keď sa systém AI používa v rámci osobnej neprofesionálnej činnosti;
4)
«Responsável pela implantação», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utilize um sistema de IA sob a sua própria autoridade, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional;
5.
„splnomocnený zástupca“ je fyzická alebo právnická osoba nachádzajúca sa alebo usadená v Únii, ktorá od poskytovateľa systému AI alebo modelu AI na všeobecné účely dostala a akceptovala písomné splnomocnenie plniť v jeho mene povinnosti a vykonávať postupy stanovené týmto nariadením;
5)
«Mandatário», uma pessoa singular ou coletiva localizada ou estabelecida na União que tenha recebido e aceitado um mandato escrito de um prestador de um sistema de IA ou de um modelo de IA de finalidade geral para cumprir e executar em seu nome, respetivamente, as obrigações e os procedimentos previstos no presente regulamento;
6.
„dovozca“ je fyzická alebo právnická osoba nachádzajúca sa alebo usadená v Únii, ktorá uvádza na trh systém AI, ktorý je označený menom alebo ochrannou známkou fyzickej alebo právnickej osoby usadenej v tretej krajine;
6)
«Importador», uma pessoa singular ou coletiva localizada ou estabelecida na União que coloca no mercado um sistema de IA que ostenta o nome ou a marca de uma pessoa singular ou coletiva estabelecida num país terceiro;
7.
„distribútor“ je fyzická alebo právnická osoba v dodávateľskom reťazci okrem poskytovateľa alebo dovozcu, ktorá na trhu Únie sprístupňuje systém AI;
7)
«Distribuidor», uma pessoa singular ou coletiva inserida na cadeia de distribuição, distinta do prestador e do importador, que disponibiliza um sistema de IA no mercado da União;
8.
„prevádzkovateľ“ je poskytovateľ, výrobca výrobku, nasadzujúci subjekt, splnomocnený zástupca, dovozca alebo distribútor;
8)
«Operador», um prestador, fabricante de produtos, responsável pela implantação, mandatário, importador ou distribuidor;
9.
„uvedenie na trh“ je prvé sprístupnenie systému AI alebo modelu AI na všeobecné účely na trhu Únie;
9)
«Colocação no mercado», a primeira disponibilização de um sistema de IA ou de um modelo de IA de finalidade geral no mercado da União;
10.
„sprístupnenie na trhu“ je dodanie systému AI alebo modelu AI na všeobecné účely s cieľom distribuovať ho alebo používať ho na trhu Únie v rámci komerčnej činnosti, či už za odplatu alebo bezodplatne;
10)
«Disponibilização no mercado», o fornecimento de um sistema de IA ou de um modelo de IA de finalidade geral para distribuição ou utilização no mercado da União no âmbito de uma atividade comercial, a título oneroso ou gratuito;
11.
„uvedenie do prevádzky“ je dodanie systému AI na prvé použitie priamo nasadzujúcemu subjektu alebo na vlastné použitie v Únii na jeho zamýšľaný účel;
11)
«Colocação em serviço», o fornecimento, diretamente ao responsável pela implantação ou para utilização própria, de um sistema de IA para a primeira utilização na União com a finalidade prevista;
12.
„zamýšľaný účel“ je použitie, na ktoré systém AI určil poskytovateľ vrátane konkrétneho kontextu a podmienok používania, ako sa uvádza v informáciách od poskytovateľa v návode na použitie, v propagačných alebo predajných materiáloch a vyhláseniach, ako aj v technickej dokumentácii;
12)
«Finalidade prevista», a utilização a que o prestador destina o sistema de IA, incluindo o contexto específico e as condições de utilização, conforme especificado nas informações facultadas pelo prestador nas instruções de utilização, nos materiais e declarações promocionais ou de venda, bem como na documentação técnica;
13.
„odôvodnene predvídateľné nesprávne použitie“ je také použitie systému AI, ktoré nie je v súlade so zamýšľaným účelom, ale ktoré môže byť výsledkom odôvodnene predvídateľného ľudského správania alebo interakcie s inými systémami vrátane iných systémov AI;
13)
«Utilização indevida razoavelmente previsível», a utilização de um sistema de IA de uma forma não conforme com a sua finalidade prevista, mas que pode resultar de um comportamento humano razoavelmente previsível ou de uma interação razoavelmente previsível com outros sistemas, incluindo outros sistemas de IA;
14.
„bezpečnostný komponent“ je komponent výrobku alebo systému AI, ktorý pre daný výrobok alebo systém AI plní bezpečnostnú funkciu alebo ktorého zlyhanie alebo porucha ohrozuje zdravie a bezpečnosť osôb alebo majetku;
14)
«Componente de segurança», um componente de um produto ou sistema de IA que cumpre uma função de segurança nesse produto ou sistema de IA, ou cuja falha ou anomalia põe em risco a saúde e a segurança de pessoas ou bens;
15.
„návod na použitie“ sú informácie, ktoré poskytuje poskytovateľ s cieľom informovať nasadzujúci subjekt najmä o zamýšľanom účele a správnom používaní systému AI;
15)
«Instruções de utilização», as informações facultadas pelo prestador para esclarecer responsável pela implantação, em especial, sobre a finalidade prevista e a utilização correta de um sistema de IA;
16.
„stiahnutie systému AI od používateľa“ je každé opatrenie, ktorého cieľom je dosiahnutie navrátenia systému AI, ktorý sa sprístupnil nasadzujúcim subjektom, poskytovateľovi alebo jeho stiahnutie z prevádzky, alebo znemožnenie jeho používania;
16)
«Recolha de um sistema de IA», qualquer medida destinada a obter a devolução ao prestador de um sistema de IA disponibilizado aos responsáveis pela implantação ou a colocar esse sistema fora de serviço ou a desativá-lo;
17.
„stiahnutie systému AI z trhu“ je každé opatrenie, ktorého cieľom je zabrániť, aby sa systém AI, ktorý sa nachádza v dodávateľskom reťazci, sprístupnil na trhu;
17)
«Retirada de um sistema de IA», qualquer medida destinada a impedir a disponibilização no mercado de um sistema de IA presente na cadeia de distribuição;
18.
„výkon systému AI“ je schopnosť systému AI dosiahnuť jeho zamýšľaný účel;
18)
«Desempenho de um sistema de IA», a capacidade de um sistema de IA para alcançar a sua finalidade prevista;
19.
„notifikujúci orgán“ je vnútroštátny orgán zodpovedný za stanovenie a vykonávanie nevyhnutných postupov na posudzovanie, určovanie a notifikáciu orgánov posudzovania zhody a za ich monitorovanie;
19)
«Autoridade notificadora», a autoridade nacional responsável por estabelecer e executar os procedimentos necessários para a avaliação, designação e notificação de organismos de avaliação da conformidade e pela fiscalização destes;
20.
„posudzovanie zhody“ je postup preukázania, či boli splnené požiadavky stanovené v kapitole III oddiele 2 týkajúce sa vysokorizikového systému AI;
20)
«Avaliação da conformidade», o processo de demonstrar se estão preenchidos os requisitos relacionados com um sistema de IA de risco elevado estabelecidos no capítulo III, secção 2;
21.
„orgán posudzovania zhody“ je orgán, ktorý ako tretia strana vykonáva činnosti posudzovania zhody vrátane skúšania, certifikácie a kontroly;
21)
«Organismo de avaliação da conformidade», um organismo que realiza atividades de avaliação da conformidade por terceiros, nomeadamente testagem, certificação e inspeção;
22.
„notifikovaná osoba“ je orgán posudzovania zhody notifikovaný v súlade s týmto nariadením a inými relevantnými harmonizačnými právnymi predpismi Únie;
22)
«Organismo notificado», um organismo de avaliação da conformidade notificado nos termos do presente regulamento ou de outra legislação de harmonização da União pertinente;
23.
„podstatná zmena“ je zmena systému AI po jeho uvedení na trh alebo do prevádzky, ktorú poskytovateľ v počiatočnom posudzovaní zhody nepredpokladal ani neplánoval a v dôsledku ktorej je ovplyvnený súlad systému AI s požiadavkami stanovenými v kapitole III oddiele 2 alebo ktorá vedie k zmene zamýšľaného účelu, z hľadiska ktorého bol systém AI posudzovaný;
23)
«Modificação substancial», uma alteração do sistema de IA após a sua colocação no mercado ou colocação em serviço, que não tenha sido prevista ou planeada pelo prestador na avaliação da conformidade inicial e que, consequentemente, afete a conformidade do sistema de IA com os requisitos estabelecidos no capítulo III, secção 2, do presente regulamento, ou modifique a finalidade prevista relativamente à qual o sistema de IA foi avaliado;
24.
„označenie CE“ je označenie, ktorým poskytovateľ vyjadruje, že systém AI je v zhode s požiadavkami stanovenými v kapitole III oddiele 2 a v iných uplatniteľných harmonizačných právnych predpisoch Únie, v ktorých sa stanovuje umiestňovanie tohto označenia;
24)
«Marcação CE», a marcação pela qual um prestador atesta que um sistema de IA está em conformidade com os requisitos estabelecidos no capítulo III, secção 2, e noutros atos aplicáveis enumerados na lista da legislação de harmonização da União que prevejam a aposição dessa marcação;
25.
„systém monitorovania po uvedení na trh“ sú všetky činnosti, ktoré vykonávajú poskytovatelia systémov AI na zhromažďovanie a skúmanie skúseností získaných z používania systémov AI, ktoré uvádzajú na trh alebo do prevádzky, a to na účely zisťovania akejkoľvek potreby okamžite uplatniť všetky potrebné nápravné či preventívne opatrenia;
25)
«Sistema de acompanhamento pós-comercialização», todas as atividades empreendidas pelos prestadores de sistemas de IA para recolher e analisar dados sobre a experiência adquirida com a utilização de sistemas de IA por eles colocados no mercado ou colocados em serviço, com vista a identificar a eventual necessidade de aplicar imediatamente as eventuais medidas corretivas ou preventivas necessárias;
26.
„orgán dohľadu nad trhom“ je vnútroštátny orgán, ktorý vykonáva činnosti a prijíma opatrenia podľa nariadenia (EÚ) 2019/1020;
26)
«Autoridade de fiscalização do mercado», a autoridade nacional que realiza as atividades e toma as medidas previstas no Regulamento (UE) 2019/1020;
27.
„harmonizovaná norma“ je harmonizovaná norma v zmysle vymedzenia v článku 2 bode 1 písm. c) nariadenia (EÚ) č. 1025/2012;
27)
«Norma harmonizada», uma norma europeia na aceção do artigo 2.o, n.o 1, alínea c), do Regulamento (UE) n.o 1025/2012;
28.
„spoločná špecifikácia“ je súbor technických špecifikácií v zmysle vymedzenia v článku 2 bode 4 nariadenia (EÚ) č. 1025/2012, ktorý predstavuje prostriedok na dosiahnutie súladu s určitými požiadavkami stanovenými v tomto nariadení;
28)
«Especificação comum», um conjunto de especificações técnicas, definidas no artigo 2.o, ponto 4, do Regulamento (UE) n.o 1025/2012, que proporcionam os meios para cumprir certos requisitos estabelecidos no presente regulamento;
29.
„trénovacie údaje“ sú údaje, ktoré sa používajú na trénovanie systému AI adaptáciou jeho parametrov, ktoré sa dajú naučiť;
29)
«Dados de treino», os dados usados para treinar um sistema de IA mediante o ajustamento dos seus parâmetros passíveis de serem aprendidos;
30.
„validačné údaje“ sú údaje, ktoré sa používajú na vyhodnotenie natrénovaného systému AI a na doladenie jeho parametrov, ktoré sa nedajú naučiť, a jeho procesu učenia, okrem iného s cieľom zabrániť podtrénovaniu alebo pretrénovaniu;
30)
«Dados de validação», os dados utilizados para realizar uma avaliação do sistema de IA treinado e ajustar os seus parâmetros não passíveis de serem aprendidos e o seu processo de aprendizagem, a fim de, entre outras coisas, evitar um subajustamento ou um sobreajustamento;
31.
„validačný súbor údajov“ je samostatný súbor údajov alebo časť súboru trénovacích údajov, a to buď ako pevné alebo variabilné rozdelenie;
31)
«Conjunto de dados de validação», um conjunto de dados separado ou parte de um conjunto de dados de treino, sob forma de uma divisão fixa ou variável;
32.
„testovacie údaje“ sú údaje, ktoré sa používajú na nezávislé hodnotenie systému AI s cieľom potvrdiť očakávaný výkon tohto systému pred jeho uvedením na trh alebo do prevádzky;
32)
«Dados de teste», os dados utilizados para realizar uma avaliação independente do sistema de IA, a fim de confirmar o desempenho esperado desse sistema antes da sua colocação no mercado ou colocação em serviço;
33.
„vstupné údaje“ sú údaje poskytnuté systému AI alebo priamo získané týmto systémom, na základe ktorých systém vytvára výstup;
33)
«Dados de entrada», os dados disponibilizados a um sistema de IA, ou por ele obtidos diretamente, com base nos quais o sistema produz um resultado;
34.
„biometrické údaje“ sú osobné údaje, ktoré sú výsledkom osobitného technického spracúvania týkajúceho sa fyzických, fyziologických alebo behaviorálnych charakteristických znakov fyzickej osoby, ako sú podoby tváre alebo daktyloskopické údaje;
34)
«Dados biométricos», dados pessoais resultantes de um tratamento técnico específico relativo às características físicas, fisiológicas ou comportamentais de uma pessoa singular, nomeadamente imagens faciais ou dados dactiloscópicos;
35.
„biometrická identifikácia“ je automatizované rozpoznávanie fyzických, fyziologických, behaviorálnych alebo psychologických znakov človeka na účely stanovenia totožnosti fyzickej osoby porovnaním biometrických údajov daného jednotlivca s biometrickými údajmi jednotlivcov uloženými v databáze;
35)
«Identificação biométrica», o reconhecimento automatizado de características humanas físicas, fisiológicas, comportamentais ou psicológicas para efeitos de determinação da identidade de uma pessoa singular, comparando os dados biométricos dessa pessoa com os dados biométricos de pessoas armazenados numa base de dados;
36.
„biometrické overenie“ je automatizované overenie totožnosti fyzických osôb porovnaním ich biometrických údajov s biometrickými údajmi, ktoré boli poskytnuté skôr, spočívajúce v porovnaní jedného údaja s príslušným druhým údajom vrátane autentifikácie;
36)
«Verificação biométrica», a verificação automatizada, «um para um», incluindo a autenticação, da identidade de pessoas singulares por meio da comparação dos seus dados biométricos com dados biométricos previamente facultados;
37.
„osobitné kategórie osobných údajov“ sú kategórie osobných údajov uvedené v článku 9 ods. 1 nariadenia (EÚ) 2016/679, článku 10 smernice (EÚ) 2016/680 a článku 10 ods. 1 nariadenia (EÚ) 2018/1725;
37)
«Categorias especiais de dados pessoais», as categorias de dados pessoais a que se referem o artigo 9.o, n.o 1, do Regulamento (UE) 2016/679, o artigo 10.o da Diretiva (UE) 2016/680 e o artigo 10.o, n.o 1, do Regulamento (UE) 2018/1725;
38.
„citlivé operačné údaje“ sú operačné údaje súvisiace s činnosťami predchádzania trestným činom, ich odhaľovania, vyšetrovania alebo stíhania, ktorých zverejnenie by mohlo ohroziť integritu trestného konania;
38)
«Dados operacionais sensíveis», dados operacionais relacionados com atividades de prevenção, deteção, investigação ou repressão de infrações penais, cuja divulgação possa comprometer a integridade de processos penais;
39.
„systém na rozpoznávanie emócií“ je systém AI na účely identifikácie alebo odvodenia emócií alebo úmyslov fyzických osôb na základe ich biometrických údajov;
39)
«Sistema de reconhecimento de emoções», um sistema de IA concebido para identificar ou inferir emoções ou intenções de pessoas singulares com base nos seus dados biométricos;
40.
„systém biometrickej kategorizácie“ je systém AI na účely zaraďovania fyzických osôb do špecifických kategórií na základe ich biometrických údajov, pokiaľ to nie je pomocný úkon pre inú komerčnú službu a nevyhnutne potrebné z objektívnych technických dôvodov;
40)
«Sistema de categorização biométrica», um sistema de IA destinado a afetar pessoas singulares a categorias específicas com base nos seus dados biométricos, a menos que seja acessório a outro serviço comercial e estritamente necessário por razões técnicas objetivas;
41.
„systém diaľkovej biometrickej identifikácie“ je systém AI na účely identifikácie fyzických osôb bez ich aktívneho zapojenia, zvyčajne na diaľku prostredníctvom porovnania biometrických údajov osoby s biometrickými údajmi obsiahnutými v referenčnej databáze;
41)
«Sistema de identificação biométrica à distância», um sistema de IA concebido para identificar pessoas singulares, sem a sua participação ativa, normalmente à distância, por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência;
42.
„systém diaľkovej biometrickej identifikácie v reálnom čase“ je systém diaľkovej biometrickej identifikácie, v ktorom zachytávanie biometrických údajov, ich porovnávanie a identifikácia prebiehajú bez výrazného oneskorenia, pričom zahŕňa nielen okamžitú identifikáciu, ale aj identifikáciu s limitovanými menšími oneskoreniami, aby sa zabránilo obchádzaniu pravidiel;
42)
«Sistema de identificação biométrica à distância em tempo real», um sistema de identificação biométrica à distância em que a recolha de dados biométricos, a comparação e a identificação ocorrem sem atraso significativo, que engloba não apenas a identificação instantânea, mas também a identificação com ligeiro atraso, a fim de evitar que as regras sejam contornadas;
43.
„systém následnej diaľkovej biometrickej identifikácie“ je systém diaľkovej biometrickej identifikácie, ktorý nie je systémom diaľkovej biometrickej identifikácie v reálnom čase;
43)
«Sistema de identificação biométrica à distância em diferido», um sistema de identificação biométrica à distância que não seja um sistema de identificação biométrica à distância em tempo real;
44.
„verejne prístupný priestor“ je akékoľvek fyzické miesto vo verejnom alebo v súkromnom vlastníctve prístupné neurčenému počtu fyzických osôb bez ohľadu na to, či možno uplatniť určité podmienky prístupu, a bez ohľadu na možné obmedzenia kapacity;
44)
«Espaço acessível ao público», qualquer espaço físico, público ou privado, acessível a um número indeterminado de pessoas singulares, independentemente da eventual aplicação de condições de acesso específicas e independentemente das eventuais restrições de capacidade;
45.
„orgán presadzovania práva“ je:
45)
«Autoridade responsável pela aplicação da lei»:
a)
každý orgán verejnej moci príslušný v oblasti predchádzania trestným činom, ich vyšetrovania, odhaľovania alebo stíhania, alebo v oblasti výkonu trestných sankcií vrátane ochrany pred ohrozením verejnej bezpečnosti a predchádzania takémuto ohrozeniu, alebo
a)
Uma autoridade pública competente para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas, ou
b)
každý iný orgán alebo subjekt, ktorý bol právom členského štátu poverený vykonávať verejnú moc a verejné právomoci na účely predchádzania trestným činom, ich vyšetrovania, odhaľovania alebo stíhania alebo na účely výkonu trestných sankcií vrátane ochrany pred ohrozením verejnej bezpečnosti a predchádzania takémuto ohrozeniu;
b)
Qualquer outro organismo ou entidade designado pelo direito de um Estado-Membro para exercer autoridade pública e poderes públicos para efeitos de prevenção, investigação, deteção ou pelo exercício da ação penal relativo a infrações penais ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas;
46.
„presadzovanie práva“ sú činnosti vykonávané orgánmi presadzovania práva alebo v ich mene na účely predchádzania trestným činom, ich vyšetrovania, odhaľovania alebo stíhania, alebo na účely výkonu trestných sankcií vrátane ochrany pred ohrozením verejnej bezpečnosti a predchádzania takémuto ohrozeniu;
46)
«Aplicação da lei», as atividades realizadas por autoridades responsáveis pela aplicação da lei ou em nome destas para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas;
47.
„úrad pre AI“ je úloha Komisie prispievať k vykonávaniu, monitorovaniu a dohľadu nad systémami AI a modelmi AI na všeobecné účely a k správe a riadeniu AI stanovená v rozhodnutí Komisie z 24. januára 2024; odkazy v tomto nariadení na úrad pre AI sa považujú za odkazy na Komisiu;
47)
«Serviço para a IA», a atribuição da Comissão de contribuir para a aplicação, o acompanhamento e a supervisão dos sistemas de IA, dos modelos de IA de finalidade geral, e da governação da IA prevista na Decisão da Comissão de 24 de janeiro de 2024; as referências ao Serviço para a IA no presente regulamento devem ser entendidas como referências à Comissão;
48.
„vnútroštátny príslušný orgán“ je notifikujúci orgán alebo orgán dohľadu nad trhom; pokiaľ ide o systémy AI uvedené do prevádzky alebo používané inštitúciami, orgánmi, úradmi a agentúrami Únie, odkazy na príslušné vnútroštátne orgány alebo orgány dohľadu nad trhom v tomto nariadení sa považujú za odkazy na európskeho dozorného úradníka pre ochranu údajov;
48)
«Autoridade nacional competente», uma autoridade notificadora ou uma autoridade de fiscalização do mercado; no que diz respeito aos sistemas de IA colocados em serviço ou utilizados pelas instituições, agências, serviços e organismos da União, quaisquer referências às autoridades nacionais competentes ou às autoridades de fiscalização do mercado no presente regulamento devem ser entendidas como referências à Autoridade Europeia para a Proteção de Dados;
49.
„závažný incident“ je incident alebo porucha systému AI, ktoré priamo alebo nepriamo vyústia do ktorejkoľvek z týchto situácií:
49)
«Incidente grave», qualquer incidente ou anomalia num sistema de IA que, direta ou indiretamente, tenha alguma das seguintes consequências:
a)
smrť osoby alebo vážna ujma na zdraví osoby;
a)
A morte de uma pessoa ou danos graves para a saúde de uma pessoa,
b)
vážne a nezvratné narušenie riadenia alebo prevádzky kritickej infraštruktúry;
b)
Uma perturbação grave e irreversível da gestão ou do funcionamento de uma infraestrutura crítica,
c)
porušenie povinností vyplývajúcich z práva Únie, ktorých cieľom je ochrana základných práv;
c)
A infração das obrigações decorrentes do direito da União destinadas a proteger os direitos fundamentais,
d)
vážna ujma na majetku alebo životnom prostredí;
d)
Danos graves a bens ou ao ambiente;
50.
„osobné údaje“ sú osobné údaje v zmysle vymedzenia v článku 4 bode 1 nariadenia (EÚ) 2016/679;
50)
«Dados pessoais», os dados pessoais na aceção do artigo 4.o, ponto 1, do Regulamento (UE) 2016/679;
51.
„iné ako osobné údaje“ sú údaje iné než osobné údaje v zmysle vymedzenia v článku 4 bode 1 nariadenia (EÚ) 2016/679;
51)
«Dados não pessoais», os dados que não sejam dados pessoais na aceção do artigo 4.o, ponto 1), do Regulamento (UE) 2016/679;
52.
„profilovanie“ je profilovanie v zmysle vymedzenia v článku 4 bode 4 nariadenia (EÚ) 2016/679;
52)
«Definição de perfis», a definição de perfis na aceção do artigo 4.o, ponto 4), do Regulamento (UE) 2016/679;
53.
„plán testovania v reálnych podmienkach“ je dokument, v ktorom sa opisujú ciele, metodika, geografický, populačný a časový rozsah, monitorovanie, organizácia a vykonávanie testovania v reálnych podmienkach;
53)
«Plano de testagem em condições reais», um documento que descreve os objetivos, a metodologia, o âmbito geográfico, populacional e temporal, o acompanhamento, a organização e a realização dos testes em condições reais;
54.
„plán experimentálneho prostredia“ je dokument dohodnutý medzi zúčastneným poskytovateľom a príslušným orgánom, v ktorom sa opisujú ciele, podmienky, časový rámec, metodika a požiadavky na činnosti vykonávané v rámci experimentálneho prostredia;
54)
«Plano do ambiente de testagem», um documento acordado entre o prestador participante e a autoridade competente, que descreve os objetivos, as condições, o calendário, a metodologia e os requisitos aplicáveis às atividades realizadas no ambiente de testagem;
55.
„regulačné experimentálne prostredie pre AI“ je kontrolovaný rámec zriadený príslušným orgánom, ktorý poskytovateľom alebo potenciálnym poskytovateľom systémov AI ponúka možnosť vyvíjať, trénovať, validovať a testovať, v relevantnom prípade aj v reálnych podmienkach, inovačný systém AI podľa plánu experimentálneho prostredia na obmedzený čas pod regulačným dohľadom;
55)
«Ambiente de testagem da regulamentação da IA», um modelo controlado, criado por uma autoridade competente, que oferece aos prestadores ou potenciais prestadores de sistemas de IA a possibilidade de desenvolver, treinar, validar e testar, se for caso disso em condições reais, um sistema de IA inovador, de acordo com um plano do ambiente de testagem, durante um período limitado sob supervisão regulamentar;
56.
„gramotnosť v oblasti AI“ sú zručnosti, vedomosti a pochopenie, ktoré poskytovateľom, nasadzujúcim subjektom a dotknutým osobám umožňujú s ohľadom na ich príslušné práva a povinnosti v kontexte tohto nariadenia informovane nasadzovať systémy AI, ako aj získať povedomie o príležitostiach a rizikách AI a o prípadnej ujme, ktorú môže spôsobiť;
56)
«Literacia no domínio da IA», as competências, os conhecimentos e a compreensão que permitem que os prestadores, os responsáveis pela implantação e as pessoas afetadas, tendo em conta os respetivos direitos e obrigações no contexto do presente regulamento, procedam à implantação dos sistemas de IA com conhecimento de causa e tomem consciência das oportunidades e dos riscos inerentes à IA, bem como dos eventuais danos que a IA pode causar;
57.
„testovanie v reálnych podmienkach“ je dočasné testovanie systému AI na jeho zamýšľaný účel v reálnych podmienkach mimo laboratória alebo inak simulovaného prostredia s cieľom zhromaždiť spoľahlivé a robustné údaje a posúdiť a overiť zhodu systému AI s požiadavkami tohto nariadenia a nepovažuje sa za uvedenie systému AI na trh alebo do prevádzky v zmysle tohto nariadenia za predpokladu, že sú splnené všetky podmienky stanovené v článku 57 alebo 60;
57)
«Testagem em condições reais», a testagem temporária de um sistema de IA para a sua finalidade prevista em condições reais, fora de um laboratório ou de outro ambiente simulado, com vista a recolher dados fiáveis e sólidos e a avaliar e verificar a conformidade do sistema de IA com os requisitos do presente regulamento e não se considera como colocação do sistema de IA no mercado nem colocação do sistema de IA em serviço na aceção do presente regulamento, desde que estejam preenchidas todas as condições estabelecidas no artigo 57.o ou no artigo 60.o;
58.
„účastník“ na účely testovania v reálnych podmienkach je fyzická osoba, ktorá sa zúčastňuje na testovaní v reálnych podmienkach;
58)
«Participante», para efeitos de testagem em condições reais, uma pessoa singular que participa na testagem em condições reais;
59.
„informovaný súhlas“ je slobodne poskytnuté, konkrétne, jednoznačné a dobrovoľné vyjadrenie vôle účastníka zúčastniť sa na konkrétnom testovaní v reálnych podmienkach, a to po tom, ako bol informovaný o všetkých aspektoch testovania, ktoré sú relevantné pre jeho rozhodnutie zúčastniť sa;
59)
«Consentimento informado», a expressão livre, específica, inequívoca e voluntária, por parte do participante, da sua vontade de participar numa dada testagem em condições reais, depois de ter sido informado de todos os aspetos da testagem que sejam relevantes para a sua decisão de participar;
60.
„deep fake“ je obrazový obsah, audioobsah alebo videoobsah vytvorený alebo zmanipulovaný pomocou AI, ktorý sa podobá na existujúce osoby, objekty, miesta, subjekty alebo udalosti a osobe by sa falošne javil ako autentický alebo pravdivý;
60)
«Falsificações profundas», conteúdos de imagem, áudio ou vídeo gerados ou manipulados por IA, que sejam semelhantes a pessoas, objetos, locais, entidades ou acontecimentos reais, e que possam levar uma pessoa a crer, erroneamente, que são autênticos ou verdadeiros;
61.
„rozsiahle porušovanie právnych predpisov“ je každé konanie alebo opomenutie v rozpore s právom Únie na ochranu záujmov jednotlivcov, ktoré:
61)
«Infração generalizada», uma ação ou omissão contrária à legislação da União que protege os interesses das pessoas, e que:
a)
spôsobilo alebo pravdepodobne spôsobí ujmu na kolektívnych záujmoch jednotlivcov s pobytom najmenej v dvoch iných členských štátoch, než je členský štát, v ktorom:
a)
Tenha prejudicado, ou seja suscetível de prejudicar, os interesses coletivos de pessoas que residam em, pelo menos, dois Estados-Membros que não o Estado-Membro no qual:
i)
takéto konanie alebo opomenutie malo pôvod alebo sa uskutočnilo;
i)
o ato ou omissão tenha tido origem ou sido cometido,
ii)
sa nachádza alebo je usadený dotknutý poskytovateľ alebo v relevantnom prípade jeho splnomocnený zástupca, alebo
ii)
o prestador em causa ou, se aplicável, o seu mandatário esteja estabelecido, ou
iii)
je usadený nasadzujúci subjekt v čase, keď sa tento nasadzujúci subjekt dopúšťa porušenia právnych predpisov;
iii)
o responsável pela implantação esteja estabelecido, caso a violação seja cometida por este;
b)
spôsobilo, spôsobuje alebo pravdepodobne spôsobí ujmu na kolektívnych záujmoch jednotlivcov a má spoločné znaky vrátane rovnakého protiprávneho konania alebo porušovania rovnakého záujmu, a ktorého sa dopustil súčasne ten istý prevádzkovateľ v najmenej troch členských štátoch;
b)
Tenha prejudicado, ou seja suscetível de prejudicar, os interesses coletivos das pessoas e tenha características comuns, inclusive a mesma prática ilegal ou a violação de um mesmo interesse, e que seja cometida pelo mesmo operador em, pelo menos, três Estados-Membros em simultâneo;
62.
„kritická infraštruktúra“ je kritická infraštruktúra v zmysle vymedzenia v článku 2 bode 4 smernice (EÚ) 2022/2557;
62)
«Infraestrutura crítica», uma infraestrutura crítica na aceção do artigo 2.o, ponto 4), da Diretiva (UE) 2022/2557;
63.
„model AI na všeobecné účely“ je model AI, a to aj model AI trénovaný veľkým množstvom údajov s použitím samokontroly vo veľkom rozsahu, ktorý má významnú všeobecnú povahu a je schopný kompetentne vykonávať širokú škálu odlišných úloh bez ohľadu na spôsob, akým sa model uvádza na trh, a ktorý možno integrovať do rôznych nadväzujúcich systémov alebo aplikácií, s výnimkou modelov AI, ktoré sa využívajú na účely výskumných, vývojových a prototypových činností pred ich uvedením na trh;
63)
«Modelo de IA de finalidade geral», um modelo de IA, inclusive se for treinado com uma grande quantidade de dados utilizando a autossupervisão em escala, que apresenta uma generalidade significativa e é capaz de executar de forma competente uma vasta gama de tarefas distintas, independentemente da forma como o modelo é colocado no mercado, e que pode ser integrado numa variedade de sistemas ou aplicações a jusante, exceto os modelos de IA que são utilizados para atividades de investigação, desenvolvimento ou criação de protótipos antes de serem colocados no mercado;
64.
„spôsobilosti s veľkým vplyvom“ sú spôsobilosti, ktoré zodpovedajú spôsobilostiam zaznamenaným v najvyspelejších modeloch AI na všeobecné účely alebo tieto spôsobilosti prevyšujú;
64)
«Capacidades de elevado impacto», capacidades que correspondem ou excedem as capacidades registadas nos modelos de IA de finalidade geral mais avançados;
65.
„systémové riziko“ je riziko špecifické pre spôsobilosti s veľkým vplyvom pri modeloch AI na všeobecné účely, ktoré má významný vplyv na vnútorný trh Únie z dôvodu dosahu týchto modelov alebo z dôvodu skutočných alebo odôvodnene predvídateľných negatívnych účinkov na verejné zdravie, bezpečnosť, verejnú bezpečnosť, základné práva alebo spoločnosť ako celok, ktoré možno šíriť vo veľkom rozsahu v celom hodnotovom reťazci;
65)
«Risco sistémico», um risco específico das capacidades de elevado impacto dos modelos de IA de finalidade geral que têm um impacto significativo no mercado da União devido ao seu alcance ou devido a efeitos negativos reais ou razoavelmente previsíveis na saúde pública, na segurança, na segurança pública, nos direitos fundamentais ou na sociedade no seu conjunto, que se pode propagar em escala ao longo da cadeia de valor;
66.
„systém AI na všeobecné účely“ je systém AI, ktorý je založený na modeli AI na všeobecné účely a ktorý je spôsobilý slúžiť na rôzne účely, a to na priame použitie, ako aj na integráciu do iných systémov AI;
66)
«Sistema de IA de finalidade geral», um sistema de IA baseado num modelo de IA de finalidade geral, e com a capacidade de servir para diversas finalidades, tanto para utilização direta como para integração noutros sistemas de IA;
67.
„operácia s pohyblivou rádovou čiarkou“ je akákoľvek matematická operácia alebo funkcia obsahujúca čísla s pohyblivou rádovou čiarkou, ktoré sú podmnožinou reálnych čísel zvyčajne reprezentovaných v počítačoch celým číslom s pevným počtom číslic, škálovaným celočíselným exponentom pevného základu;
67)
«Operação de vírgula flutuante», qualquer operação matemática ou atribuição que envolva números em vírgula flutuante, que são um subconjunto dos números reais normalmente representados em computadores por um número inteiro de precisão fixa escalado por um expoente inteiro de uma base fixa;
68.
„nadväzujúci poskytovateľ“ je poskytovateľ systému AI vrátane systému AI na všeobecné účely, ktorý integruje model AI, bez ohľadu na to, či tento model AI poskytuje sám a je vertikálne integrovaný alebo ho poskytuje iný subjekt na základe zmluvných vzťahov.
68)
«Prestador a jusante», um prestador de um sistema de IA, incluindo um sistema de IA de finalidade geral, que integra um modelo de IA, independentemente de o modelo de IA ser disponibilizado por si próprio e verticalmente integrado ou ser disponibilizado por outra entidade com base em relações contratuais.
Článok 4
Artigo 4.o
Gramotnosť v oblasti AI
Literacia no domínio da IA
Poskytovatelia systémov AI a subjekty nasadzujúce systémy AI prijímajú opatrenia na čo najlepšie zabezpečenie dostatočnej úrovne gramotnosti v oblasti AI svojich zamestnancov a ostatných osôb, ktoré sa v ich mene zaoberajú prevádzkou a používaním systémov AI, pričom zohľadňujú ich technické znalosti, skúsenosti, vzdelanie a odbornú prípravu, ako aj kontext, v ktorom sa majú systémy AI používať, a berú do úvahy osoby alebo skupiny osôb, pri ktorých sa majú systémy AI používať.
Os prestadores e os responsáveis pela implantação de sistemas de IA adotam medidas para garantir, na medida do possível, que o seu pessoal e outras pessoas envolvidas na operação e utilização de sistemas de IA em seu nome dispõem de um nível suficiente de literacia no domínio da IA, tendo em conta os seus conhecimentos técnicos, experiência, qualificações académicas e formação e o contexto em que os sistemas de IA serão utilizados, bem como as pessoas ou grupos de pessoas visadas por essa utilização.
KAPITOLA II
CAPÍTULO II
ZAKÁZANÉ PRAKTIKY VYUŽÍVAJÚCE AI
PRÁTICAS DE IA PROIBIDAS
Článok 5
Artigo 5.o
Zakázané praktiky využívajúce AI
Práticas de IA proibidas
1. Zakazujú sa tieto praktiky využívajúce AI:
1. Estão proibidas as seguintes práticas de IA:
a)
uvádzanie na trh, uvádzanie do prevádzky alebo používanie systému AI, ktorý využíva podprahové techniky mimo vedomia osoby alebo účelovo manipulatívne alebo klamlivé techniky s cieľom alebo účinkom podstatne narušiť správanie osoby alebo skupiny osôb tým, že sa citeľne oslabí ich schopnosť prijať informované rozhodnutie, čo zapríčiní, že prijmú rozhodnutie, ktoré by inak neprijali, a to spôsobom, ktorý tejto osobe, inej osobe alebo skupine osôb spôsobuje alebo pri ktorom je odôvodnené predpokladať, že pravdepodobne spôsobí značnú ujmu;
a)
A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa, ou técnicas manifestamente manipuladoras ou enganadoras, com o objetivo ou o efeito de distorcer substancialmente o comportamento de uma pessoa ou de um grupo de pessoas prejudicando de forma considerável a sua capacidade de tomar uma decisão informada e levando, assim, a que tomem uma decisão que, caso contrário, não tomariam, de uma forma que cause ou seja razoavelmente suscetível de causar danos significativos a essa ou a outra pessoa, ou a um grupo de pessoas;
b)
uvádzanie na trh, uvádzanie do prevádzky alebo používanie systému AI, ktorý využíva ktorúkoľvek zo zraniteľností fyzickej osoby alebo osobitnej skupiny osôb z dôvodu ich veku, zdravotného postihnutia alebo osobitnej sociálnej alebo ekonomickej situácie s cieľom alebo účinkom podstatne narušiť správanie tejto osoby alebo osoby patriacej do tejto skupiny spôsobom, ktorý tejto alebo inej osobe spôsobuje alebo pri ktorom je odôvodnené predpokladať, že pravdepodobne spôsobí značnú ujmu;
b)
A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore vulnerabilidades de uma pessoa singular ou de um grupo específico de pessoas devidas à sua idade, incapacidade ou situação socioeconómica específica, com o objetivo ou o efeito de distorcer substancialmente o comportamento dessa pessoa ou de uma pessoa pertencente a esse grupo de uma forma que cause ou seja razoavelmente suscetível de causar danos significativos a essa ou a outra pessoa;
c)
uvádzanie na trh, uvádzanie do prevádzky alebo používanie systémov AI na hodnotenie alebo klasifikáciu fyzických osôb alebo skupín osôb počas určitého obdobia na základe ich spoločenského správania alebo známych, odvodených či predpokladaných osobných alebo osobnostných charakteristík, pričom takto získané sociálne skóre vedie k jednému alebo obidvom z týchto výsledkov:
c)
A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para avaliação ou classificação de pessoas singulares ou grupos de pessoas durante um certo período com base no seu comportamento social ou em características de personalidade ou pessoais, conhecidas, inferidas ou previsíveis, em que a classificação social conduza a uma das seguintes situações ou a ambas:
i)
ku škodlivému alebo nepriaznivému zaobchádzaniu s určitými fyzickými osobami alebo skupinami osôb v sociálnych kontextoch, ktoré nesúvisia s kontextami, v ktorých boli údaje pôvodne generované alebo zhromaždené;
i)
tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos de pessoas em contextos sociais não relacionados com os contextos nos quais os dados foram originalmente gerados ou recolhidos,
ii)
ku škodlivému alebo nepriaznivému zaobchádzaniu s určitými fyzickými osobami alebo skupinami osôb, ktoré je neodôvodnené alebo neprimerané ich spoločenskému správaniu alebo jeho závažnosti;
ii)
tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos de pessoas que seja injustificado ou desproporcionado face ao seu comportamento social ou à gravidade do mesmo;
d)
uvádzanie na trh, uvádzanie do prevádzky na tento konkrétny účel alebo používanie systému AI na posudzovanie rizík fyzických osôb s cieľom posúdiť alebo predvídať riziko toho, že fyzická osoba spácha trestný čin, a to výlučne na základe profilovania fyzickej osoby alebo posúdenia jej osobnostných vlastností a charakteristík; tento zákaz sa nevzťahuje na systémy AI používané na podporu ľudského posúdenia zapojenia osoby do trestnej činnosti, ktoré je už založené na objektívnych a overiteľných skutočnostiach priamo spojených s trestnou činnosťou;
d)
A colocação no mercado, a colocação em serviço para esta finalidade específica ou a utilização de um sistema de IA para a realização de avaliações de risco de pessoas singulares a fim de avaliar ou prever o risco de uma pessoa singular cometer uma infração penal, com base exclusivamente na definição de perfis de uma pessoa singular ou na avaliação dos seus traços e características de personalidade. Esta proibição não se aplica aos sistemas de IA utilizados para apoiar a avaliação humana do envolvimento de uma pessoa numa atividade criminosa, que já se baseia em factos objetivos e verificáveis diretamente ligados a uma atividade criminosa;
e)
uvádzanie na trh, uvádzanie do prevádzky na tento konkrétny účel alebo používanie systémov AI, ktoré vytvárajú alebo rozširujú databázy na rozpoznávanie tváre prostredníctvom necielenej extrakcie podôb tváre z internetu alebo zo záznamov CCTV;
e)
A colocação no mercado, a colocação em serviço para esta finalidade específica ou a utilização de sistemas de IA que criam ou expandem bases de dados de reconhecimento facial através da recolha aleatória de imagens faciais a partir da Internet ou de imagens de televisão em circuito fechado (TVCF);
f)
uvádzanie na trh, uvádzanie do prevádzky na tento konkrétny účel alebo používanie systémov AI na odvodzovanie emócií fyzickej osoby v oblasti pracoviska a vzdelávacích inštitúcií s výnimkou prípadov, keď je používanie systému AI určené na uvedenie do prevádzky alebo na trh zo zdravotných alebo bezpečnostných dôvodov;
f)
A colocação no mercado, a colocação em serviço para esta finalidade específica ou a utilização de sistemas de IA para inferir emoções de uma pessoa singular no local de trabalho e nas instituições de ensino, exceto nos casos em que o sistema de IA se destine a ser instalado ou introduzido no mercado por razões médicas ou de segurança;
g)
uvádzanie na trh, uvádzanie do prevádzky na tento konkrétny účel alebo používanie systémov biometrickej kategorizácie, ktoré jednotlivo kategorizujú fyzické osoby na základe ich biometrických údajov s cieľom odvodiť alebo vyvodiť ich rasu, politické názory, členstvo v odboroch, náboženské alebo filozofické presvedčenie, sexuálny život alebo sexuálnu orientáciu; tento zákaz sa nevzťahuje na žiadne označovanie ani filtrovanie zákonne získaných súborov biometrických údajov, ako sú obrázky, na základe biometrických údajov alebo kategorizácie biometrických údajov v oblasti presadzovania práva;
g)
A colocação no mercado, a colocação em serviço para este fim específico, ou a utilização de sistemas de categorização biométrica que classifiquem individualmente as pessoas singulares com base nos seus dados biométricos para deduzir ou inferir a sua raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas, vida sexual ou orientação sexual; esta proibição não abrange rotulagens nem filtragens de conjuntos de dados biométricos legalmente adquiridos, tais como imagens, com base em dados biométricos ou na categorização de dados biométricos no domínio da aplicação da lei;
h)
používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva, pokiaľ takéto použitie nie je nevyhnutne potrebné na jeden z týchto cieľov:
h)
A utilização de sistemas de identificação biométrica à distância em «tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei, a menos e na medida em que essa utilização seja estritamente necessária para um dos seguintes fins:
i)
cielené pátranie po konkrétnych obetiach únosov, obchodovania s ľuďmi alebo sexuálneho vykorisťovania ľudí, ako aj pátranie po nezvestných osobách;
i)
busca seletiva de vítimas específicas de rapto, tráfico de seres humanos ou exploração sexual de seres humanos, bem como a busca por pessoas desaparecidas,
ii)
predchádzanie konkrétnemu, závažnému a bezprostrednému ohrozeniu života alebo fyzickej bezpečnosti fyzických osôb alebo skutočnej a existujúcej alebo skutočnej a predvídateľnej hrozbe teroristického útoku;
ii)
prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas singulares ou de uma ameaça real e atual ou real e previsível de um ataque terrorista,
iii)
lokalizácia alebo identifikácia osoby podozrivej zo spáchania trestného činu na účel vedenia vyšetrovania alebo stíhania trestného činu alebo výkonu trestnej sankcie za trestné činy uvedené v prílohe II, za ktoré možno v dotknutom členskom štáte uložiť trest odňatia slobody alebo ochranné opatrenie obmedzujúce slobodu s hornou hranicou trestnej sadzby najmenej štyri roky.
iii)
a localização ou identificação de uma pessoa suspeita de ter cometido uma infração penal, para efeitos da realização de uma investigação criminal, ou instauração de ação penal ou execução de uma sanção penal por alguma das infrações referidas no anexo II e puníveis no Estado-Membro em causa com pena ou medida de segurança privativa de liberdade de duração máxima não inferior a quatro anos.
Prvým pododsekom písm. h) nie je dotknutý článok 9 nariadenia (EÚ) 2016/679 na účely spracúvania biometrických údajov na iné účely ako je presadzovania práva.
A alínea h) do primeiro parágrafo não prejudica o disposto no artigo 9.o do Regulamento (UE) 2016/679 no que respeita ao tratamento de dados biométricos para outros fins que não a aplicação da lei.
2. Systémy diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch sa na účely presadzovania práva na dosiahnutie ktoréhokoľvek z cieľov uvedených v odseku 1 prvom pododseku písm. h) nasadzujú na účely stanovené v uvedenom písmene, len aby sa potvrdila totožnosť špecificky zacieleného jednotlivca, pričom sa zohľadnia tieto skutočnosti:
2. A utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei com vista a alcançar qualquer um dos fins previstos no n.o 1, primeiro parágrafo, alínea h), deve ser implantada para os fins descritos na referida alínea, apenas com a finalidade de confirmar a identidade da pessoa especificamente visada e deve ter em conta os seguintes elementos:
a)
povaha situácie, ktorá viedla k možnému použitiu, najmä závažnosť, pravdepodobnosť a rozsah ujmy, ktorá by bola spôsobená v prípade nepoužitia systému;
a)
A natureza da situação que origina a possível utilização, em especial a gravidade, a probabilidade e a magnitude dos danos causados na ausência da utilização do sistema;
b)
dôsledky použitia systému pre práva a slobody všetkých dotknutých osôb, najmä závažnosť, pravdepodobnosť a rozsah týchto dôsledkov.
b)
As consequências da utilização do sistema para os direitos e as liberdades de todas as pessoas afetadas, em especial a gravidade, a probabilidade e a magnitude dessas consequências.
Používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva na dosiahnutie ktoréhokoľvek z cieľov uvedených v odseku 1 prvom pododseku písm. h) tohto článku musí okrem toho byť v súlade s nevyhnutnými a primeranými zárukami a podmienkami týkajúcimi sa tohto používania, a to podľa vnútroštátnych právnych predpisov oprávňujúcich ich použitie, najmä pokiaľ ide o časové, geografické a osobné obmedzenia. Používanie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch sa povolí len vtedy, ak orgán presadzovania práva dokončil posúdenie vplyvu na základné práva, ako sa stanovuje v článku 27, a zaregistroval systém v databáze Únie podľa článku 49. V riadne odôvodnených naliehavých prípadoch sa však používanie takýchto systémov môže začať bez registrácie v databáze Únie za predpokladu, že sa takáto registrácia dokončí bez zbytočného odkladu.
Além disso, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei com vista a alcançar qualquer um dos objetivos referidos no n.o 1, primeiro parágrafo, alínea h), do presente artigo deve observar salvaguardas e condições necessárias e proporcionadas em conformidade com o direito nacional que autoriza tal utilização, nomeadamente no respeitante a limitações temporais, geográficas e das pessoas visadas. A utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público só é autorizada se a autoridade responsáveis pela aplicação da lei tiver concluído uma avaliação de impacto sobre os direitos fundamentais, conforme previsto no artigo 27.o, e tiver registado o sistema na base de dados da UE em conformidade com o artigo 49.o. No entanto, em casos de urgência devidamente justificados, a utilização desses sistemas pode ser iniciada sem o registo na base de dados da UE, desde que esse registo seja concluído sem demora injustificada.
3. Na účely odseku 1 prvého pododseku písm. h) a odseku 2 podlieha každé použitie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva predchádzajúcemu povoleniu, ktoré udeľuje justičný orgán alebo nezávislý správny orgán, ktorého rozhodnutie je záväzné, členského štátu, v ktorom sa má použitie uskutočniť, vydanému na základe odôvodnenej žiadosti a v súlade s podrobnými pravidlami vnútroštátneho práva uvedenými v odseku 5. V riadne odôvodnenej naliehavej situácii sa však použitie takéhoto systému môže začať bez povolenia za predpokladu, že sa o takéto povolenie požiada bez zbytočného odkladu, najneskôr však do 24 hodín. Ak sa takéto povolenie zamietne, používanie sa s okamžitou účinnosťou zastaví a všetky údaje, ako aj výsledky a výstupy tohto používania sa okamžite vyradia a vymažú.
3. No tocante ao n.o 1, primeiro parágrafo, alínea h), e ao n.o 2, cada utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei está sujeita a autorização prévia concedida por uma autoridade judiciária, ou uma autoridade administrativa independente cuja decisão seja vinculativa, do Estado-Membro no qual a utilização terá lugar, após apresentação de um pedido fundamentado em conformidade com as regras de execução previstas no direito nacional a que se refere o n.o 5. Contudo, numa situação de urgência devidamente justificada, a utilização do sistema pode ser iniciada sem uma autorização, desde que essa autorização seja solicitada sem demora injustificada, o mais tardar no prazo de 24 horas. Se o pedido de autorização for rejeitado, a utilização do sistema é suspensa com efeito imediato, e todos os dados, bem como os resultados dessa utilização, são imediatamente descartados e eliminados.
Príslušný justičný orgán alebo nezávislý správny orgán, ktorého rozhodnutie je záväzné, udelí povolenie len vtedy, ak sa na základe objektívnych dôkazov alebo jasných indícií, ktoré mu boli predložené, presvedčí, že použitie predmetného systému diaľkovej biometrickej identifikácie v reálnom čase je potrebné a primerané na dosiahnutie niektorého z cieľov uvedených v odseku 1 prvom pododseku písm. h), ako sa uvádza v žiadosti, a najmä je naďalej obmedzené na to, čo je striktne nevyhnutné, pokiaľ ide o časový a geografický rozsah a rozsah týkajúci sa osobných aspektov. Pri rozhodovaní o žiadosti tento orgán zohľadní skutočnosti uvedené v odseku 2. Žiadne rozhodnutie, ktoré má pre osobu nepriaznivé právne účinky, sa nesmie prijať výlučne na základe výstupu systému diaľkovej biometrickej identifikácie v reálnom čase.
A autoridade judiciária competente, ou uma autoridade administrativa independente cuja decisão seja vinculativa, apenas concede a autorização se considerar, com base em dados objetivos ou indícios claros que lhe tenham sido apresentados, que a utilização do sistema de identificação biométrica à distância «em tempo real» em apreço é necessária e proporcionada para alcançar um dos objetivos especificados no n.o 1, primeiro parágrafo, alínea h), conforme identificado no pedido, e, em especial, se limita ao estritamente necessário no que diz respeito ao período de tempo e ao âmbito geográfico e pessoal. Ao decidir sobre o pedido, a autoridade judiciária ou administrativa competente tem em conta os elementos referidos no n.o 2. As decisões que produzam efeitos jurídicos adversos sobre uma pessoa não podem ser tomadas exclusivamente com base nos resultados saídos do sistema de identificação biométrica à distância «em tempo real».
4. Bez toho, aby bol dotknutý odsek 3, každé použitie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva sa oznámi príslušnému orgánu dohľadu nad trhom a vnútroštátnemu orgánu pre ochranu údajov v súlade s vnútroštátnymi pravidlami uvedenými v odseku 5. Oznámenie obsahuje aspoň informácie uvedené v odseku 6 a neobsahuje citlivé operačné údaje.
4. Sem prejuízo do disposto no n.o 3, cada utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei é notificada à autoridade de fiscalização do mercado pertinente e à autoridade nacional de proteção de dados, em conformidade com as regras nacionais a que se refere o n.o 5. A notificação deve conter, no mínimo, as informações especificadas no n.o 6 e não pode incluir dados operacionais sensíveis.
5. Členský štát sa môže rozhodnúť, že na účely presadzovania práva v rámci obmedzení a za podmienok uvedených v odseku 1 prvom pododseku písm. h) a odsekoch 2 a 3 stanoví možnosť úplne alebo čiastočne povoliť používanie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch. Dotknuté členské štáty vo svojom vnútroštátnom práve stanovia potrebné podrobné pravidlá na podávanie žiadostí o povolenia uvedené v odseku 3, ich vydávanie a výkon, ako aj pre dohľad nad nimi a podávanie správ o nich. V týchto pravidlách sa takisto uvedie, v súvislosti s ktorým z cieľov uvedených v odseku 1 prvom pododseku písm. h) a s ktorým z trestných činov uvedených v bode iii) uvedeného písmena h) môžu byť príslušné orgány oprávnené používať tieto systémy na účely presadzovania práva. Členské štáty oznámia tieto pravidlá Komisii najneskôr 30 dní po ich prijatí. Členské štáty môžu v súlade s právom Únie zaviesť prísnejšie právne predpisy o používaní systémov diaľkovej biometrickej identifikácie.
5. Um Estado-Membro pode decidir prever a possibilidade de autorizar total ou parcialmente a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para fins de aplicação da lei dentro dos limites e sob as condições enumeradas no n.o 1, primeiro parágrafo, alínea h), e nos n.os 2 e 3. Os Estados-Membros em causa estabelecem na sua legislação nacional as regras de execução aplicáveis ao pedido, à emissão e ao exercício das autorizações a que se refere o n.o 3, bem como à supervisão e comunicação das mesmas. Essas regras especificam igualmente para quais dos objetivos enumerados no n.o 1, primeiro parágrafo, alínea h), inclusive para quais das infrações penais referidas na subalínea iii) da referida alínea, as autoridades competentes podem ser autorizadas a usar esses sistemas para efeitos de aplicação da lei. Os Estados-Membros notificam essas regras à Comissão o mais tardar 30 dias após a sua adoção. Os Estados-Membros podem introduzir, em conformidade com o direito da União, legislação mais restritiva sobre a utilização de sistemas de identificação biométrica à distância.
6. Vnútroštátne orgány dohľadu nad trhom a vnútroštátne orgány pre ochranu údajov členských štátov, ktorým bolo oznámené používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva podľa odseku 4, predkladajú Komisii výročné správy o takomto používaní. Na tento účel Komisia poskytne členským štátom a vnútroštátnym orgánom dohľadu nad trhom a orgánom pre ochranu údajov vzor vrátane informácií o počte rozhodnutí prijatých príslušnými justičnými orgánmi alebo nezávislým správnym orgánom, ktorého rozhodnutie je záväzné v nadväznosti na žiadosti o povolenie v súlade s odsekom 3, a o ich výsledku.
6. As autoridades nacionais de fiscalização do mercado e as autoridades nacionais de proteção de dados dos Estados-Membros que tenham sido notificadas da utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei nos termos do n.o 4 apresentam à Comissão relatórios anuais sobre essa utilização. Para o efeito, a Comissão disponibiliza aos Estados-Membros e às autoridades nacionais de fiscalização do mercado e de proteção de dados um modelo que inclua informações sobre o número de decisões tomadas pelas autoridades judiciárias competentes, ou por uma autoridade administrativa independente cuja decisão seja vinculativa, após os pedidos de autorização nos termos do n.o 3, bem como sobre o seu resultado.
7. Komisia uverejňuje výročné správy o používaní systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva, pričom vychádza zo súhrnných údajov z členských štátov na základe výročných správ uvedených v odseku 6. Tieto výročné správy nesmú obsahovať citlivé operačné údaje o súvisiacich činnostiach v oblasti presadzovania práva.
7. A Comissão publica relatórios anuais sobre a utilização de sistemas de identificação biométrica à distância em tempo real em espaços acessíveis ao público para efeitos de aplicação da lei, baseados em dados agregados nos Estados-Membros com base nos relatórios anuais a que se refere o n.o 6. Esses relatórios anuais não podem incluir dados operacionais sensíveis sobre as atividades de aplicação da lei conexas.
8. Týmto článkom nie sú dotknuté zákazy, ktoré sa uplatňujú, ak určitá praktika využívajúca AI porušuje iné právne predpisy Únie.
8. O presente artigo não afeta as proibições aplicáveis sempre que uma prática de IA infrinja outra legislação da União.
KAPITOLA III
CAPÍTULO III
VYSOKORIZIKOVÉ SYSTÉMY AI
SISTEMAS DE IA DE RISCO ELEVADO
ODDIEL 1
SECÇÃO 1
Klasifikácia systémov AI ako vysokorizikových
Classificação de sistemas de IA como sendo de risco elevado
Článok 6
Artigo 6.o
Pravidlá klasifikácie vysokorizikových systémov AI
Regras para a classificação de sistemas de IA de risco elevado
1. Bez ohľadu na to, či sa systém AI uvádza na trh alebo uvádza do prevádzky nezávisle od výrobkov uvedených v písmenách a) a b), považuje sa daný systém AI za vysokorizikový, ak sú splnené obe tieto podmienky:
1. Independentemente de a colocação no mercado ou a colocação em serviço de um sistema de IA ser feita separadamente dos produtos a que se referem as alíneas a) e b), esse sistema de IA é considerado de risco elevado sempre que se estejam preenchidas ambas as seguintes condições:
a)
systém AI je určený na používanie ako bezpečnostný komponent výrobku, na ktorý sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I, alebo je systém AI sám osebe takýmto výrobkom;
a)
O sistema de IA destina-se a ser utilizado como um componente de segurança de um produto ou o sistema de IA é, ele próprio, um produto abrangido pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I;
b)
výrobok, ktorého bezpečnostným komponentom podľa písmena a) je systém AI, alebo samotný systém AI ako výrobok sa musí podrobiť posúdeniu zhody treťou stranou s cieľom uviesť daný výrobok na trh alebo do prevádzky podľa harmonizačných právnych predpisov Únie uvedených v prílohe I.
b)
O produto cujo componente de segurança nos termos da alínea a) é o sistema de IA, ou o próprio sistema de IA enquanto produto, tem de ser sujeito a uma avaliação da conformidade por terceiros com vista à sua colocação no mercado ou colocação em serviço nos termos dos atos enumerados na lista da legislação de harmonização da União constante do anexo I.
2. Okrem vysokorizikových systémov AI uvedených v odseku 1 sa za vysokorizikové považujú systémy AI uvedené v prílohe III.
2. Além dos sistemas de IA de risco elevado a que se refere o n.o 1, os sistemas de IA a que se refere o anexo III são também considerados de risco elevado.
3. Odchylne od odseku 2 sa systém AI uvedený v prílohe III nepovažuje za vysokorizikový, ak nepredstavuje významné riziko ujmy na zdraví, bezpečnosti alebo základných právach fyzických osôb, vrátane toho, že podstatným spôsobom neovplyvňuje výsledok rozhodovania.
3. Em derrogação do n.o 2, um sistema de IA a que se refere o Anexo III não pode ser considerado de risco elevado se não representar um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares, nomeadamente se não influenciarem de forma significativa o resultado da tomada de decisões.
Prvý pododsek sa uplatňuje, ak je splnená ktorákoľvek z týchto podmienok:
O primeiro parágrafo aplica-se nos casos em que estiverem preenchidas quaisquer das seguintes condições:
a)
systém AI je určený na vykonávanie úzko vymedzenej procedurálnej úlohy;
a)
O sistema de IA destina-se a desempenhar uma tarefa processual restrita;
b)
systém AI je určený na zlepšenie výsledku predtým dokončenej ľudskej činnosti;
b)
O sistema de IA destina-se a melhorar o resultado de uma atividade humana previamente concluída;
c)
systém AI je určený na zisťovanie vzorcov rozhodovania alebo odchýlok od vzorcov predchádzajúceho rozhodovania a nie je určený na to, aby bez riadneho ľudského preskúmania nahradil alebo ovplyvnil predtým dokončené ľudské posúdenie, alebo
c)
O sistema de IA destina-se a detetar padrões de tomada de decisões ou desvios em relação a padrões de tomada de decisões anteriores e não se destina a substituir nem influenciar uma avaliação humana previamente concluída, sem que se proceda a uma verificação adequada por um ser humano; ou
d)
systém AI je určený na vykonávanie prípravnej úlohy pri posudzovaní relevantnom na účely prípadov použitia uvedených v prílohe III.
d)
O sistema de IA destina-se a executar uma tarefa preparatória no contexto de uma avaliação pertinente para efeitos dos casos de utilização enumerados no anexo III.
Bez ohľadu na prvý pododsek sa systém AI uvedený v prílohe III vždy považuje za vysokorizikový, ak sa ním vykonáva profilovanie fyzických osôb.
Não obstante o primeiro parágrafo, os sistemas de IA a que se refere o anexo III devem ser sempre considerados de risco elevado nos casos em que executarem a definição de perfis de pessoas singulares.
4. Poskytovateľ, ktorý sa domnieva, že systém AI uvedený v prílohe III nie je vysokorizikový, zdokumentuje svoje posúdenie pred uvedením tohto systému na trh alebo do prevádzky. Takýto poskytovateľ podlieha registračnej povinnosti stanovenej v článku 49 ods. 2. Na žiadosť vnútroštátnych príslušných orgánov poskytovateľ poskytne dokumentáciu o posúdení.
4. Um prestador que considere que um dos sistemas de IA a que se refere o anexo III não é de risco elevado deve documentar a sua avaliação antes de esse sistema ser colocado no mercado ou colocado em serviço. Esse prestador está sujeito à obrigação de registo prevista no artigo 49.o, n.o 2. A pedido das autoridades nacionais competentes, o prestador deve facultar a documentação da avaliação.
5. Komisia po konzultácii s Európskou radou pre AI (ďalej len „rada pre AI“) a najneskôr do 2. februára 2026 poskytne usmernenia, v ktorých spresní praktické vykonávanie tohto článku v súlade s článkom 96 spolu s komplexným zoznamom praktických príkladov prípadov použitia systémov AI, ktoré sú vysokorizikové, a prípadov použitia systémov AI, ktoré nie sú vysokorizikové.
5. Após consulta do Comité Europeu para a Inteligência Artificial («Comité»), e o mais tardar até 2 de fevereiro de 2026, a Comissão disponibiliza orientações que especifiquem a aplicação prática do presente artigo em conformidade com o artigo 96.o, juntamente com uma lista exaustiva de exemplos práticos de casos de utilização de sistemas de IA de risco elevado e de risco não elevado.
6. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 s cieľom zmeniť odsek 3 druhý pododsek tohto článku doplnením nových podmienok k podmienkam v ňom stanoveným alebo ich upravením, ak existujú konkrétne a spoľahlivé dôkazy o existencii systémov AI, ktoré patria do rozsahu pôsobnosti prílohy III, ale nepredstavujú významné riziko ujmy na zdraví, bezpečnosti alebo základných právach fyzických osôb.
6. A Comissão fica habilitada a adotar atos delegados os termos do artigo 97.o para alterar o n.o 3, segundo parágrafo, do presente artigo no que diz respeito a aditar novas condições para além das que aí se encontram previstas, ou a alterar essas condições, se existirem provas concretas e fiáveis da existência de sistemas de IA que sejam abrangidos pelo âmbito de aplicação do anexo III mas não apresentem um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares.
7. Komisia prijme delegované akty v súlade s článkom 97 s cieľom zmeniť odsek 3 druhý pododsek tohto článku vypustením ktorejkoľvek z podmienok v ňom stanovených, ak existujú konkrétne a spoľahlivé dôkazy o tom, že je to potrebné na zachovanie úrovne ochrany zdravia, bezpečnosti a základných práv stanovenej týmto nariadením.
7. A Comissão adota atos delegados nos termos do artigo 97.o no que diz respeito à alteração do n.o 3, segundo parágrafo, do presente artigo, para suprimir qualquer uma das condições aí previstas, caso existam provas concretas e fiáveis de que tal é necessário para manter o nível de proteção da saúde, da segurança e dos direitos fundamentais previsto no presente regulamento.
8. Žiadna zmena podmienok stanovených v odseku 3 druhom pododseku prijatá v súlade s odsekmi 6 a 7 tohto článku nesmie znížiť celkovú úroveň ochrany zdravia, bezpečnosti a základných práv stanovenú týmto nariadením a musí zabezpečiť súlad s delegovanými aktmi prijatými podľa článku 7 ods. 1 a zohľadniť vývoj na trhu a technologický vývoj.
8. Qualquer alteração às condições estabelecidas no n.o 3, segundo parágrafo, adotadas nos termos dos n.os 6 e 7 do presente artigo, não pode diminuir o nível geral de proteção da saúde, da segurança e dos direitos fundamentais previsto no presente regulamento e assegura a coerência com os atos delegados adotados nos termos do artigo 7.o, n.o 1, e tem em conta a evolução tecnológica e do mercado.
Článok 7
Artigo 7.o
Zmeny prílohy III
Alterações ao anexo III
1. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 s cieľom zmeniť prílohu III doplnením alebo úpravou prípadov používania vysokorizikových systémov AI, ak sú splnené obe tieto podmienky:
1. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar o anexo III, aditando ou modificando casos de utilização de sistemas de IA de risco elevado sempre que estejam preenchidas ambas as seguintes condições:
a)
systémy AI sú určené na používanie v ktorejkoľvek z oblastí uvedených v prílohe III;
a)
Os sistemas de IA destinam-se a ser utilizados em qualquer um dos domínios enumerados no anexo III;
b)
systémy AI predstavujú riziko ujmy na zdraví a bezpečnosti alebo riziko nepriaznivého vplyvu na základné práva a toto riziko je rovnocenné alebo väčšie než riziko poškodenia alebo nepriaznivého vplyvu, ktoré predstavujú vysokorizikové systémy AI už uvedené v prílohe III.
b)
Os sistemas de IA representam um risco de danos para a saúde e a segurança ou de repercussões negativas nos direitos fundamentais, e esse risco é equivalente ou superior ao risco de danos ou repercussões negativas representado pelos sistemas de IA de risco elevado já referidos no anexo III.
2. Pri posudzovaní podmienky podľa odseku 1 písm. b) Komisia zohľadní tieto kritériá:
2. Ao avaliar a condição prevista no n.o 1, alínea b), a Comissão tem em conta os seguintes critérios:
a)
zamýšľaný účel systému AI;
a)
A finalidade prevista do sistema de IA;
b)
rozsah, v akom sa systém AI používa alebo sa pravdepodobne bude používať;
b)
O grau de utilização efetiva ou a probabilidade de utilização de um sistema de IA;
c)
povahu a množstvo údajov spracúvaných a používaných systémom AI, najmä to, či sa spracúvajú osobitné kategórie osobných údajov;
c)
A natureza e a quantidade dos dados tratados e utilizados pelo sistema de IA e, em particular, o facto de serem tratadas categorias especiais de dados pessoais;
d)
rozsah, v akom systém AI koná samostatne, a možnosť človeka zvrátiť rozhodnutia alebo odporúčania, ktoré môžu viesť k potenciálnej ujme;
d)
A medida em que o sistema de IA atua de forma autónoma e a possibilidade de um ser humano anular decisões ou recomendações que possam causar danos;
e)
rozsah, v akom používanie systému AI už spôsobilo ujmu na zdraví a bezpečnosti alebo nepriaznivý vplyv na základné práva, alebo vyvolalo vážne obavy v súvislosti s pravdepodobnosťou takejto ujmy alebo nepriaznivého vplyvu, čo preukazujú napríklad správy alebo zdokumentované tvrdenia, ktoré sa predložili vnútroštátnym príslušným orgánom, alebo prípadne iné správy;
e)
A medida em que a utilização de um sistema de IA já tenha causado danos para a saúde e a segurança, tenha tido repercussões negativas nos direitos fundamentais ou tenha suscitado preocupações significativas quanto à probabilidade de esses danos ou essas repercussões negativas ocorrerem, conforme demonstrado, por exemplo, por relatórios ou alegações documentadas apresentados às autoridades nacionais competentes, ou por outros relatórios, consoante o caso;
f)
potenciálny rozsah takejto ujmu alebo nepriaznivého vplyvu, najmä pokiaľ ide o jeho intenzitu a schopnosť ovplyvniť viacero osôb alebo neúmerne ovplyvniť konkrétnu skupinu osôb;
f)
A potencial dimensão desses danos ou dessas repercussões negativas, nomeadamente em termos de intensidade e de capacidade para afetar várias pessoas, ou para afetar de forma desproporcionada um determinado grupo de pessoas;
g)
rozsah, v akom sú osoby, ktoré potenciálne utrpeli ujmu alebo trpia nepriaznivým vplyvom, závislé od výsledku vytvoreného systémom AI, najmä preto, že z praktických alebo právnych dôvodov nie je primerane možné sa na tomto výsledku nepodieľať;
g)
A medida em que as pessoas que sofreram potenciais danos ou repercussões negativas dependem dos resultados produzidos por um sistema de IA, em especial se, por razões práticas ou jurídicas, não lhes for razoavelmente possível autoexcluir-se desse resultado;
h)
rozsah, v akom existuje nerovnováha moci, alebo osoby, ktoré potenciálne utrpeli ujmu alebo trpia nepriaznivým vplyvom, sú vo vzťahu k subjektu nasadzujúcemu systém AI v zraniteľnom postavení, najmä z dôvodu postavenia, autority, znalostí, hospodárskych alebo sociálnych okolností alebo veku;
h)
A medida em que existe um desequilíbrio em termos de poder ou em que as pessoas que sofreram potenciais danos ou repercussões negativas se encontram numa posição vulnerável em relação ao responsável pela implantação de um sistema de IA, em particular por motivos relacionados com o estatuto, a autoridade, o conhecimento, as circunstâncias económicas ou sociais, ou a idade;
i)
rozsah, v akom je výsledok vytvorený pomocou systému AI ľahko napraviteľný alebo zvrátiteľný s prihliadnutím na technické riešenia, ktoré sú k dispozícii na jeho nápravu alebo zvrátenie, pričom výsledky s nepriaznivým vplyvom na zdravie, bezpečnosť alebo základné práva sa nepovažujú za ľahko napraviteľné alebo zvrátiteľné;
i)
A medida em que os resultados produzidos com o envolvimento de um sistema de IA são facilmente corrigíveis ou reversíveis, tendo em conta as soluções técnicas disponíveis para os corrigir ou reverter, sendo que os resultados com uma repercussão negativa na saúde, na segurança ou nos direitos fundamentais não podem ser considerados como facilmente corrigíveis ou reversíveis;
j)
rozsah a pravdepodobnosť prínosu nasadenia systému AI pre jednotlivcov, skupiny alebo spoločnosť ako celok vrátane možných zlepšení bezpečnosti výrobkov;
j)
A magnitude e a probabilidade dos benefícios da implantação do sistema de IA para as pessoas, os grupos ou a sociedade em geral, incluindo possíveis melhorias na segurança dos produtos;
k)
rozsah, v akom sa v existujúcom práve Únie stanovujú:
k)
A medida em que o direito da União em vigor prevê:
i)
účinné nápravné opatrenia v súvislosti s rizikami, ktoré systém AI predstavuje, s výnimkou nárokov na náhradu škody;
i)
medidas de reparação eficazes em relação aos riscos representados por um sistema de IA, com exclusão de pedidos de indemnização,
ii)
účinné opatrenia na predchádzanie týmto rizikám alebo ich podstatnú minimalizáciu.
ii)
medidas eficazes para prevenir ou minimizar substancialmente esses riscos.
3. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 s cieľom zmeniť zoznam v prílohe III vypustením vysokorizikových systémov AI, ak sú splnené obe tieto podmienky:
3. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar a lista do anexo III suprimindo sistemas de IA de risco elevado sempre que estejam preenchidas ambas as seguintes condições:
a)
dotknutý vysokorizikový systém AI už nepredstavuje významné riziká pre základné práva, zdravie alebo bezpečnosť, pričom sa zohľadňujú kritériá uvedené v odseku 2;
a)
O sistema de IA de risco elevado em causa deixa de representar um risco significativo para os direitos fundamentais, a saúde ou a segurança, tendo em conta os critérios enumerados no n.o 2;
b)
vypustením sa neznižuje celková úroveň ochrany zdravia, bezpečnosti a základných práv podľa práva Únie.
b)
A supressão não diminui o nível geral de proteção da saúde, da segurança e dos direitos fundamentais ao abrigo do direito da União.
ODDIEL 2
SECÇÃO 2
Požiadavky na vysokorizikové systémy AI
Requisitos aplicáveis aos sistemas de IA de risco elevado
Článok 8
Artigo 8.o
Súlad s požiadavkami
Cumprimento dos requisitos
1. Vysokorizikové systémy AI musia spĺňať požiadavky stanovené v tomto oddiele s prihliadnutím na ich zamýšľaný účel, ako aj na všeobecne uznávaný aktuálny stav vývoja AI a technológií súvisiacich s AI. Pri zabezpečovaní súladu s týmito požiadavkami sa zohľadňuje systém riadenia rizík uvedený v článku 9.
1. Os sistemas de IA de risco elevado devem cumprir os requisitos estabelecidos na presente secção, tendo em conta a sua finalidade prevista, bem como o estado da arte geralmente reconhecido em matéria de IA e de tecnologias conexas. O sistema de gestão de riscos a que se refere o artigo 9.o deve ser tido em conta para efeitos de cumprimento desses requisitos.
2. Ak výrobok obsahuje systém AI, na ktorý sa vzťahujú požiadavky tohto nariadenia, ako aj požiadavky harmonizačných právnych predpisov Únie uvedených v prílohe I oddiele A, poskytovatelia sú zodpovední za zabezpečenie úplného súladu svojho výrobku so všetkými uplatniteľnými požiadavkami podľa uplatniteľných harmonizačných právnych predpisov Únie. Pri zabezpečovaní súladu vysokorizikových systémov AI uvedených v odseku 1 s požiadavkami stanovenými v tomto oddiele a s cieľom zabezpečiť konzistentnosť, zabrániť duplicite a minimalizovať dodatočné zaťaženie majú poskytovatelia možnosť podľa potreby začleniť potrebné procesy testovania a nahlasovania, informácie a dokumentáciu, ktorú poskytujú v súvislosti so svojím výrobkom, do už existujúcej dokumentácie a postupov požadovaných podľa harmonizačných právnych predpisov Únie uvedených v prílohe I oddiele A.
2. Sempre que um produto contenha um sistema de IA ao qual se aplicam os requisitos do presente regulamento, bem como os requisitos dos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção A, os prestadores são responsáveis por assegurar que o seu produto está em plena conformidade com todos os requisitos aplicáveis ao abrigo da legislação de harmonização da União. Ao assegurar a conformidade dos sistemas de IA de risco elevado a que se refere o n.o 1 com os requisitos estabelecidos na presente secção, e a fim de assegurar a coerência, evitar duplicações e minimizar os encargos adicionais, os prestadores têm a possibilidade de integrar, conforme adequado, os processos de testagem e comunicação de informações necessários, bem como as informações e a documentação necessárias, por si disponibilizados relativamente ao seu produto na documentação e nos procedimentos já existentes exigidos pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção A.
Článok 9
Artigo 9.o
Systém riadenia rizík
Sistema de gestão de riscos
1. V súvislosti s vysokorizikovými systémami AI sa zriadi, zavedie, zdokumentuje a udržiava systém riadenia rizík.
1. Deve ser criado, implantado, documentado e mantido um sistema de gestão de riscos em relação aos sistemas de IA de risco elevado.
2. Systém riadenia rizík sa vykladá ako nepretržitý iteratívny proces plánovaný a uskutočňovaný počas celého životného cyklu vysokorizikového systému AI, ktorý si vyžaduje pravidelné systematické preskúmanie a aktualizovanie. Zahŕňa tieto kroky:
2. O sistema de gestão de riscos é entendido como um processo iterativo contínuo, planeado e executado ao longo de todo o ciclo de vida de um sistema de IA de risco elevado, que requer revisões e atualizações sistemáticas regulares. Deve compreender as seguintes etapas:
a)
identifikáciu a analýzu známych a odôvodnene predvídateľných rizík, ktoré vysokorizikový systém AI môže predstavovať pre zdravie, bezpečnosť alebo základné práva, keď sa vysokorizikový systém AI používa v súlade s jeho zamýšľaným účelom;
a)
A identificação e análise dos riscos conhecidos e razoavelmente previsíveis que o sistema de IA de risco elevado pode representar para a saúde, a segurança ou os direitos fundamentais quando é utilizado em conformidade com a sua finalidade prevista;
b)
odhad a hodnotenie rizík, ktoré môžu vzniknúť, keď sa vysokorizikový systém AI používa v súlade s jeho zamýšľaným účelom a za podmienok odôvodnene predvídateľného nesprávneho použitia;
b)
A estimativa e avaliação dos riscos que podem surgir quando o sistema de IA de risco elevado é utilizado em conformidade com a sua finalidade prevista e em condições de utilização indevida razoavelmente previsível;
c)
hodnotenie ďalších možných rizík na základe analýzy údajov získaných zo systému monitorovania po uvedení na trh v zmysle článku 72;
c)
A avaliação de outros riscos que possam surgir, com base na análise dos dados recolhidos por meio do sistema de acompanhamento pós-comercialização a que se refere o artigo 72.o;
d)
prijatie vhodných a cielených opatrení na riadenie rizík určených na riešenie rizík identifikovaných podľa písmena a).
d)
A adoção de medidas adequadas e específicas de gestão de riscos concebidas para fazer face aos riscos identificados nos termos da alínea a).
3. Tento článok sa vzťahuje len na tie riziká, ktoré možno primerane zmierniť alebo odstrániť vývojom alebo dizajnom vysokorizikového systému AI alebo poskytnutím primeraných technických informácií.
3. O presente artigo faz referência apenas aos riscos que possam ser razoavelmente atenuados ou eliminados aquando do desenvolvimento ou da conceção do sistema de IA de risco elevado ou por meio da prestação de informações técnicas adequadas.
4. V opatreniach na riadenie rizík uvedených v odseku 2 písm. d) sa náležite zohľadnia účinky a možné interakcie vyplývajúce z kombinovaného uplatňovania požiadaviek stanovených v tomto oddiele s cieľom účinnejšie minimalizovať riziká a zároveň dosiahnuť primeranú rovnováhu pri vykonávaní opatrení na splnenie týchto požiadaviek.
4. As medidas de gestão de riscos a que se refere o n.o 2, alínea d), devem ter em devida consideração os efeitos e a eventual interação resultantes da aplicação combinada dos requisitos estabelecidos na presente secção, com vista a minimizar os riscos de forma mais eficaz e, ao mesmo tempo, alcançar um equilíbrio adequado na aplicação das medidas destinadas a cumprir esses requisitos.
5. Opatrenia na riadenie rizík uvedené v odseku 2 písm. d) musia byť také, aby sa relevantné zvyškové riziká spojené s jednotlivými nebezpečenstvami, ako aj celkové zvyškové riziko vysokorizikových systémov AI považovali za prijateľné.
5. As medidas de gestão de riscos a que se refere o n.o 2, alínea d), devem ser de molde a fazer com que o risco residual pertinente associado a cada perigo, bem como o risco residual global dos sistemas de IA de risco elevado, sejam considerados aceitáveis.
Pri určovaní najvhodnejších opatrení na riadenie rizík sa zabezpečí:
Ao identificar as medidas de gestão de riscos mais apropriadas, deve assegurar-se o seguinte:
a)
odstránenie alebo zníženie rizík identifikovaných a vyhodnotených podľa odseku 2, pokiaľ je to technicky možné prostredníctvom primeraného dizajnu a vývoja vysokorizikového systému AI;
a)
Eliminação ou redução dos riscos identificados e avaliados nos termos do n.o 2, tanto quanto tecnicamente viável através da conceção e do desenvolvimento adequados do sistema de IA de risco elevado;
b)
v relevantnom prípade zavedenie primeraných zmierňujúcich a kontrolných opatrení na riešenie rizík, ktoré nemožno odstrániť;
b)
Se for caso disso, adoção de medidas de atenuação e controlo adequadas para fazer face aos riscos que não possam ser eliminados;
c)
poskytovanie informácií požadovaných podľa článku 13 a v relevantnom prípade odborná príprava pre nasadzujúce subjekty.
c)
Prestação das informações exigidas nos termos do artigo 13.o e, se for caso disso, formação dos responsáveis pela implantação.
V záujme odstraňovania alebo znižovania rizík súvisiacich s používaním vysokorizikového systému AI sa náležite zohľadnia technické znalosti, skúsenosti, vzdelanie, odborná príprava, ktoré sa očakávajú od nasadzujúceho subjektu, ako aj predpokladaný kontext, v ktorom sa má systém používať.
Com vista à eliminação ou redução de riscos relacionados com a utilização do sistema de IA de risco elevado, há que ter em consideração o conhecimento técnico, a experiência, a educação e a formação que se pode esperar que o responsável pela implantação possua e o contexto presumível em que o sistema se destina a ser utilizado.
6. Vysokorizikové systémy AI sa testujú na účel identifikácie najvhodnejších a cielených opatrení na riadenie rizík. Testovaním sa zabezpečí, aby vysokorizikové systémy AI fungovali konzistentne s ich zamýšľaným účelom a spĺňali požiadavky stanovené v tomto oddiele.
6. Os sistemas de IA de risco elevado são sujeitos a testes a fim de se identificarem as medidas de gestão de riscos específicas mais adequadas. Os testes asseguram que os sistemas de IA de risco elevado funcionam de forma coerente com a sua finalidade prevista e cumprem os requisitos estabelecidos na presente secção.
7. Postupy testovania môžu zahŕňať testovanie v reálnych podmienkach v súlade s článkom 60.
7. Os procedimentos de teste podem incluir a testagem em condições reais, em conformidade com o artigo 60.
8. Testovanie vysokorizikových systémov AI sa vykonáva podľa potreby kedykoľvek počas celého procesu vývoja a v každom prípade pred ich uvedením na trh alebo do prevádzky. Testovanie sa vykonáva na základe vopred vymedzených metrík a pravdepodobnostných prahových hodnôt, ktoré sú primerané zamýšľanému účelu vysokorizikového systému AI.
8. Os testes dos sistemas de IA de risco elevado devem ser realizados, consoante apropriado, em qualquer momento durante o processo de desenvolvimento e, em qualquer caso, antes da colocação no mercado ou da colocação em serviço. Os testes devem ser realizados com base em parâmetros e limiares probabilísticos previamente definidos que sejam adequados à finalidade prevista do sistema de IA de risco elevado.
9. Pri implementácii systému riadenia rizík stanoveného v odsekoch 1 až 7 poskytovatelia zvážia, či vysokorizikový systém AI vzhľadom na svoj zamýšľaný účel pravdepodobne nepriaznivo neovplyvní osoby mladšie ako 18 rokov a prípadne iné zraniteľné skupiny.
9. Ao implementarem o sistema de gestão de riscos tal como previsto nos n.os 1 a 7, os prestadores ponderam se, tendo em conta a sua finalidade prevista, existe a probabilidade de o sistema de IA de risco elevado ter repercussões negativas sobre pessoas com menos de 18 anos e, se for o caso, outros grupos vulneráveis.
10. V prípade poskytovateľov vysokorizikových systémov AI, na ktorých sa vzťahujú požiadavky týkajúce sa vnútorných procesov riadenia rizík podľa iných príslušných ustanovení práva Únie, môžu byť aspekty stanovené v odsekoch 1 až 9 súčasťou postupov riadenia rizík stanovených podľa uvedeného práva alebo kombinované s týmito postupmi.
10. Para os prestadores de sistemas de IA de risco elevado sujeitos a requisitos relativos aos processos internos de gestão de riscos nos termos da legislação setorial aplicável da União, os aspetos descritos nos n.os 1 a 9 podem fazer parte dos procedimentos de gestão de riscos estabelecidos nos termos dessa legislação ou ser combinados com esses procedimentos.
Článok 10
Artigo 10.o
Údaje a správa údajov
Dados e governação de dados
1. Vysokorizikové systémy AI, ktoré využívajú techniky zahŕňajúce trénovanie modelov AI s údajmi, sa musia vyvíjať na základe súborov trénovacích, validačných a testovacích údajov, ktoré spĺňajú kritériá kvality uvedené v odsekoch 2 až 5, a to vždy, keď sa takéto súbory údajov používajú.
1. Os sistemas de IA de risco elevado que utilizem técnicas que envolvam o treino de modelos com dados devem ser desenvolvidos com base em conjuntos de dados de treino, validação e teste que cumpram os critérios de qualidade a que se referem os n.os 2 a 5, sempre que esses conjuntos de dados sejam utilizados.
2. Na súbory trénovacích, validačných a testovacích údajov sa vzťahujú postupy správy a riadenia údajov vhodné na zamýšľaný účel vysokorizikového systému AI. Tieto postupy sa týkajú najmä:
2. Os conjuntos de dados de treino, validação e teste devem estar sujeitos a práticas de governação e gestão de dados adequadas à finalidade prevista do sistema de IA. Essas práticas dizem nomeadamente respeito:
a)
príslušných dizajnových rozhodnutí;
a)
Às escolhas de conceção pertinentes;
b)
procesov zberu údajov a pôvodu údajov a v prípade osobných údajov pôvodného účelu zberu údajov;
b)
A processos de recolha de dados e à origem dos dados e, no caso dos dados pessoais, à finalidade original da recolha desses dados;
c)
príslušných spracovateľských operácií prípravy údajov, ako je anotácia, označovanie, čistenie, aktualizácia, obohacovanie a agregácia;
c)
Às operações de tratamento necessárias para a preparação dos dados, tais como anotação, rotulagem, limpeza, atualização, enriquecimento e agregação;
d)
formulovania predpokladov, najmä pokiaľ ide o informácie, ktoré majú údaje merať a reprezentovať;
d)
À formulação dos pressupostos, nomeadamente no que diz respeito às informações que os dados devem medir e representar;
e)
posúdenia dostupnosti, množstva a vhodnosti potrebných súborov údajov;
e)
À avaliação da disponibilidade, quantidade e adequação dos conjuntos de dados que são necessários;
f)
preskúmania z hľadiska možnej zaujatosti, ktorá môže mať vplyv na zdravie a bezpečnosť osôb, negatívny vplyv na základné práva alebo môže viesť k diskriminácii zakázanej právom Únie, najmä ak výstupy údajov ovplyvňujú vstupy pre budúce operácie;
f)
Ao exame para detetar eventuais enviesamentos suscetíveis de afetar a saúde e a segurança das pessoas, de ter repercussões negativas nos direitos fundamentais ou de resultar em discriminações proibidas pelo direito da União, especialmente quando os resultados obtidos a partir dos dados influenciam os dados de entrada para operações futuras;
g)
vhodných opatrení na odhaľovanie, prevenciu a zmierňovanie možnej zaujatosti identifikovanej podľa písmena f);
g)
Às medidas adequadas para detetar, prevenir e atenuar eventuais enviesamentos identificados nos termos da alínea f);
h)
identifikácie relevantných medzier alebo nedostatkov v údajoch, ktoré bránia súladu s týmto nariadením, a spôsobu, akým možno tieto medzery a nedostatky odstrániť.
h)
À identificação de lacunas ou deficiências pertinentes dos dados que impeçam o cumprimento do presente regulamento e de possíveis soluções para as mesmas.
3. Súbory trénovacích, validačných a testovacích údajov musia byť relevantné, dostatočne reprezentatívne a v čo najväčšej možnej miere bez chýb a úplné vzhľadom na zamýšľaný účel. Musia mať primerané štatistické vlastnosti, a to prípadne aj pokiaľ ide o osoby alebo skupiny osôb, vo vzťahu ku ktorým sa má vysokorizikový systém AI používať. Uvedené charakteristiky súborov údajov sa môžu splniť na úrovni jednotlivých súborov údajov alebo na úrovni ich kombinácie.
3. Os conjuntos de dados de treino, validação e teste devem ser pertinentes, suficientemente representativos e, tanto quanto possível, isentos de erros e completos, tendo em conta a finalidade prevista. Devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em relação às quais se destina a utilização do sistema de IA de risco elevado. Essas características dos conjuntos de dados podem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos.
4. Súbory údajov musia, pokiaľ si to vyžaduje zamýšľaný účel, zohľadňovať charakteristiky alebo prvky, ktoré sú špecifické pre konkrétne geografické, kontextuálne, behaviorálne alebo funkčné podmienky, v ktorých sa má vysokorizikový systém AI používať.
4. Os conjuntos de dados devem ter em conta, na medida do necessário para a finalidade prevista, as características ou os elementos que são idiossincráticos do enquadramento geográfico, contextual, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado.
5. Pokiaľ je to nevyhnutne potrebné na účel zabezpečenia odhaľovania a nápravy zaujatosti v súvislosti s vysokorizikovými systémami AI v súlade s odsekom 2 písm. f) a g) tohto článku, poskytovatelia takýchto systémov môžu výnimočne spracúvať osobitné kategórie osobných údajov pod podmienkou primeraných záruk pre základné práva a slobody fyzických osôb. Okrem ustanovení uvedených v nariadeniach (EÚ) 2016/679 a (EÚ) 2018/1725 a v smernici (EÚ) 2016/680 na to, aby došlo k takémuto spracúvaniu, musia byť splnené všetky tieto podmienky:
5. Na medida do estritamente necessário para assegurar a deteção e a correção de enviesamentos em relação aos sistemas de IA de risco elevado em conformidade com o n.o 2, alíneas f) e g), do presente artigo, os prestadores desses sistemas podem, excecionalmente, tratar categorias especiais de dados pessoais, sob reserva de garantias adequadas dos direitos e liberdades fundamentais das pessoas singulares. Para além das disposições estabelecidas nos Regulamentos (UE) 2016/679 e (UE) 2018/1725 e na Diretiva (UE) 2016/680, todas as seguintes condições para que esse tratamento ocorra devem ser cumpridas:
a)
odhalenie a nápravu zaujatosti nemožno účinne dosiahnuť spracúvaním iných údajov vrátane syntetických alebo anonymizovaných údajov;
a)
A deteção e a correção de enviesamentos não podem ser eficazmente efetuadas através do tratamento de outros dados, nomeadamente dados sintéticos ou anonimizados;
b)
osobitné kategórie osobných údajov podliehajú technickým obmedzeniam opakovaného použitia osobných údajov a najmodernejším bezpečnostným opatreniam a opatreniam na zachovanie súkromia vrátane pseudonymizácie;
b)
As categorias especiais de dados pessoais estão sujeitas a limitações técnicas em matéria de reutilização dos dados pessoais e às mais avançadas medidas de segurança e preservação da privacidade, incluindo a pseudonimização;
c)
osobitné kategórie osobných údajov podliehajú opatreniam na zabezpečenie toho, aby spracúvané osobné údaje boli zabezpečené, chránené, podliehali primeraným zárukám vrátane prísnych kontrol a dokumentácie prístupu, aby sa zabránilo zneužitiu a zabezpečilo, aby k týmto osobným údajom mali prístup len oprávnené osoby s primeranými povinnosťami zachovávania dôvernosti;
c)
As categorias especiais de dados pessoais estão sujeitas a medidas destinadas a assegurar que os dados pessoais tratados estejam seguros, protegidos e sujeitos a garantias adequadas, incluindo controlos rigorosos e uma documentação criteriosa do acesso a esses dados, a fim de evitar uma utilização abusiva e assegurar que apenas tenham acesso a esses dados as pessoas autorizadas e com as devidas obrigações de confidencialidade;
d)
osobitné kategórie osobných údajov sa nesmú zasielať, prenášať ani inak sprístupňovať iným stranám;
d)
As categorias especiais de dados pessoais não são transmitidos nem transferidos para terceiros, nem de outra forma consultados por esses terceiros;
e)
osobitné kategórie osobných údajov sa vymažú po náprave zaujatosti alebo uplynutí obdobia uchovávania osobných údajov, podľa toho, čo nastane skôr;
e)
As categorias especiais de dados pessoais são eliminadas assim que o enviesamento tenha sido corrigido ou que os dados pessoais atinjam o fim do respetivo período de conservação, consoante o que ocorrer primeiro;
f)
záznamy o spracovateľských činnostiach podľa nariadení (EÚ) 2016/679 a (EÚ) 2018/1725 a smernice (EÚ) 2016/680 obsahujú dôvody, prečo bolo spracúvanie osobitných kategórií osobných údajov nevyhnutne potrebné na odhaľovanie a nápravu zaujatosti a prečo uvedený cieľ nebolo možné dosiahnuť spracúvaním iných údajov.
f)
Os registos das atividades de tratamento nos termos do Regulamento (UE) 2016/679, do Regulamento (UE) 2018/1725 e da Diretiva (UE) 2016/680 incluem os motivos pelos quais o tratamento de categorias especiais de dados pessoais foi estritamente necessário para detetar e corrigir enviesamentos e os motivos pelos quais não foi possível alcançar esse objetivo através do tratamento de outros dados.
6. Pri vývoji vysokorizikových systémov AI, pri ktorých sa nevyužívajú techniky zahŕňajúce trénovanie modelov AI, sa odseky 2 až 5 vzťahujú len na testovacie súbory údajov.
6. Para o desenvolvimento de sistemas de IA de risco elevado que não utilizam técnicas que envolvem o treino de modelos de IA, os n.os 2 a 5 aplicam-se apenas aos conjuntos de dados de teste.
Článok 11
Artigo 11.o
Technická dokumentácia
Documentação técnica
1. Pred uvedením vysokorizikového systému AI na trh alebo do prevádzky sa vypracuje technická dokumentácia tohto systému, ktorá sa aktualizuje.
1. A documentação técnica de um sistema de IA de risco elevado deve ser elaborada antes da colocação no mercado ou colocação em serviço desse sistema e deve ser mantida atualizada.
Technická dokumentácia sa vypracuje tak, aby sa v nej preukazovalo, že vysokorizikový systém AI spĺňa požiadavky stanovené v tomto oddiele, a aby sa vnútroštátnym príslušným orgánom a notifikovaným osobám poskytli v jasnej a komplexnej podobe všetky informácie potrebné na posúdenie súladu systému AI s uvedenými požiadavkami. Musí obsahovať aspoň prvky stanovené v prílohe IV. MSP vrátane startupov môžu poskytovať prvky technickej dokumentácie uvedené v prílohe IV zjednodušeným spôsobom. Na tento účel vytvorí Komisia zjednodušený formulár technickej dokumentácie zameraný na potreby malých podnikov a mikropodnikov. Ak sa MSP vrátane startupov rozhodnú poskytovať informácie požadované v prílohe IV zjednodušeným spôsobom, použijú formulár uvedený v tomto odseku. Notifikované osoby akceptujú formulár na účely posudzovania zhody.
A documentação técnica deve ser elaborada de maneira que demonstre que o sistema de IA de risco elevado cumpre os requisitos estabelecidos na presente secção e deve facultar às autoridades nacionais competentes e aos organismos notificados, de forma clara e completa, as informações necessárias para aferir a conformidade do sistema de IA com esses requisitos. A documentação técnica deve conter, no mínimo, os elementos previstos no anexo IV. As PME, incluindo as empresas em fase de arranque, podem facultar os elementos da documentação técnica especificados no anexo IV de forma simplificada. Para o efeito, a Comissão deve criar um formulário de documentação técnica simplificado destinado às necessidades das pequenas e microempresas. Caso uma PME, nomeadamente uma empresa em fase de arranque, opte por prestar as informações exigidas no anexo IV de forma simplificada, deve utilizar o formulário a que se refere o presente número. Os organismos notificados devem aceitar o formulário para efeitos de avaliação da conformidade.
2. Ak sa na trh alebo do prevádzky uvádza vysokorizikový systém AI súvisiaci s výrobkom, na ktorý sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I oddiele A, vypracuje sa jeden súbor technickej dokumentácie obsahujúci všetky informácie stanovené v odseku 1, ako aj informácie požadované podľa uvedených právnych aktov.
2. Aquando da colocação no mercado ou da colocação em serviço de um sistema de IA de risco elevado relacionado com um produto abrangido pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção A, deve ser elaborada uma documentação técnica única que contenha todas as informações previstas no n.o 1, bem como as informações exigidas nos termos desses atos jurídicos.
3. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 s cieľom zmeniť v prípade potreby prílohu IV, aby sa zabezpečilo, že technická dokumentácia bude vzhľadom na technický pokrok poskytovať všetky informácie potrebné na posúdenie súladu systému s požiadavkami stanovenými v tomto oddiele.
3. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar o anexo IV, se for caso disso, com vista a assegurar que, tendo em conta a evolução técnica, a documentação técnica faculte todas as informações necessárias para aferir a conformidade do sistema com os requisitos estabelecidos na presente secção.
Článok 12
Artigo 12.o
Vedenie záznamov
Manutenção de registos
1. Vysokorizikové systémy AI musia technicky umožňovať automatické zaznamenávanie udalostí (ďalej len „logy“) počas životnosti systému.
1. Os sistemas de IA de risco elevado devem permitir tecnicamente o registo automático de eventos («registos») durante a vida útil do sistema.
2. S cieľom zabezpečiť úroveň vysledovateľnosti fungovania vysokorizikového systému AI, ktorá je primeraná zamýšľanému účelu systému, spôsobilosti logovania umožňujú zaznamenávanie udalostí relevantných pre:
2. A fim de assegurar um nível de rastreabilidade do funcionamento de um sistema de IA de risco elevado adequado à finalidade prevista do sistema, as capacidades de registo devem permitir o registo de eventos pertinentes para:
a)
identifikáciu situácií, ktoré môžu viesť k tomu, že systém AI začne predstavovať riziko v zmysle článku 79 ods. 1, alebo k podstatnej zmene;
a)
A identificação de situações que possam dar azo a que o sistema de IA de risco elevado apresente um risco na aceção do artigo 79.o, n.o 1, ou dar origem a uma modificação substancial;
b)
uľahčenie monitorovania po uvedení na trh, ako sa uvádza v článku 72, a
b)
A facilitação do acompanhamento pós-comercialização a que se refere o artigo 72.o; e
c)
monitorovanie prevádzky vysokorizikových systémov AI uvedené v článku 26 ods. 5.
c)
O controlo do funcionamento dos sistemas de IA de risco elevado a que se refere o artigo 26.o, n.o 5.
3. V prípade vysokorizikových systémov AI uvedených v prílohe III bode 1 písm. a) sa v rámci spôsobilostí logovania musí zabezpečiť aspoň:
3. Em relação aos sistemas de IA de risco elevado a que se refere o anexo III, ponto 1, alínea a), as capacidades de registo devem incluir, no mínimo:
a)
záznam každého časového úseku používania systému (dátum a čas začiatku a dátum a čas ukončenia každého použitia);
a)
O registo do período de cada utilização do sistema (data e hora de início e data e hora de fim de cada utilização);
b)
referenčná databáza, podľa ktorej systém skontroloval vstupné údaje;
b)
A base de dados de referência relativamente à qual os dados de entrada foram verificados pelo sistema;
c)
vstupné údaje, pri ktorých vyhľadávanie viedlo k zhode;
c)
Os dados de entrada cuja pesquisa conduziu a uma correspondência;
d)
identifikácia fyzických osôb zapojených podľa článku 14 ods. 5 do overovania výsledkov.
d)
A identificação das pessoas singulares envolvidas na verificação dos resultados a que se refere o artigo 14.o, n.o 5.
Článok 13
Artigo 13.o
Transparentnosť a poskytovanie informácií nasadzujúcim subjektom
Transparência e prestação de informações aos responsáveis pela implantação
1. Vysokorizikové systémy AI musia byť dizajnované a vyvinuté tak, aby sa zabezpečilo, že ich prevádzka je dostatočne transparentná na to, aby nasadzujúcim subjektom umožnila interpretovať výstupy systému a vhodne ich používať. Zabezpečí sa primeraný druh a stupeň transparentnosti, aby poskytovatelia a nasadzujúce subjekty mohli dodržiavať príslušné povinnosti stanovené v oddiele 3.
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira a assegurar que o seu funcionamento seja suficientemente transparente para permitir aos responsáveis pela implantação interpretar os resultados do sistema e utilizá-los de forma adequada. Deve ser garantido um tipo e um grau adequado de transparência com vista a garantir o cumprimento das obrigações pertinentes que incumbem ao prestador e ao responsável pela implantação por força da secção 3.
2. K vysokorizikovým systémom AI sa vo vhodnom digitálnom formáte alebo inak prikladá návod na použitie obsahujúci stručné, úplné, správne a jasné informácie, ktoré sú pre nasadzujúce subjekty relevantné, prístupné a zrozumiteľné.
2. Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização, num formato digital adequado, ou outro, que incluam informações concisas, completas, corretas e claras que sejam pertinentes, acessíveis e compreensíveis para os responsáveis pela implantação.
3. Návod na použitie obsahuje aspoň tieto informácie:
3. As instruções de utilização devem incluir, pelo menos, as seguintes informações:
a)
totožnosť a kontaktné údaje poskytovateľa a v príslušných prípadoch jeho splnomocneného zástupcu;
a)
A identidade e os dados de contacto do prestador e, se for caso disso, do seu mandatário;
b)
charakteristiky, spôsobilosti a obmedzenia výkonu vysokorizikového systému AI vrátane:
b)
As características, capacidades e limitações de desempenho do sistema de IA de risco elevado, incluindo:
i)
jeho zamýšľaného účelu;
i)
a sua finalidade prevista,
ii)
úrovne presnosti vrátane jej metriky, spoľahlivosti a kybernetickej bezpečnosti podľa článku 15, na základe ktorej bol vysokorizikový systém AI testovaný a validovaný a ktorú možno očakávať, ako aj všetky známe a predvídateľné okolnosti, ktoré môžu mať vplyv na túto očakávanú úroveň presnosti, spoľahlivosti a kybernetickej bezpečnosti;
ii)
o nível de exatidão — incluindo os seus parâmetros —, de solidez e de cibersegurança a que se refere o artigo 15.o usado como referência para testar e validar o sistema de IA de risco elevado e que pode ser esperado, bem como quaisquer circunstâncias conhecidas e previsíveis que possam ter um impacto nesse nível esperado de exatidão, solidez e cibersegurança,
iii)
všetkých známych alebo predvídateľných okolností súvisiacich s používaním vysokorizikového systému AI v súlade s jeho zamýšľaným účelom alebo za podmienok odôvodnene predvídateľného nesprávneho používania, ktoré môžu viesť k rizikám pre zdravie a bezpečnosť alebo pre základné práva, ako sa uvádza v článku 9 ods. 2;
iii)
qualquer circunstância conhecida ou previsível, relacionada com a utilização do sistema de IA de risco elevado de acordo com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsível, que possa causar os riscos a que se refere o artigo 9.o, n.o 2, para a saúde e a segurança ou para os direitos fundamentais,
iv)
v relevantných prípadoch, technických spôsobilostí a charakteristík vysokorizikového systému AI poskytovať informácie, ktoré sú relevantné na vysvetlenie jeho výstupu;
iv)
se for caso disso, as capacidades técnicas e as características do sistema de IA de risco elevado que sejam pertinentes para explicar os seus resultados,
v)
v príslušných prípadoch, jeho výkonu, pokiaľ ide o konkrétne osoby alebo skupiny osôb, v prípade ktorých sa má systém používať;
v)
quando oportuno, o seu desempenho em relação a determinadas pessoas ou grupos de pessoas específicos em que o sistema se destina a ser utilizado,
vi)
v príslušných prípadoch, špecifikácií vstupných údajov alebo akýchkoľvek iných relevantných informácií z hľadiska použitých súborov trénovacích, validačných a testovacích údajov, pričom sa zohľadní zamýšľaný účel vysokorizikového systému AI;
vi)
quando oportuno, especificações para os dados de entrada, ou quaisquer outras informações importantes em termos dos conjuntos de dados de treino, validação e teste utilizados, tendo em conta a finalidade prevista do sistema de IA de risco elevado,
vii)
v relevantných prípadoch, informácií umožňujúcich nasadzujúcim subjektom interpretovať výstup vysokorizikového systému AI a vhodne ho používať;
vii)
se for caso disso, informações que permitam aos responsáveis pela implantação interpretar os resultados do sistema de IA de risco elevado e utilizá-los adequadamente;
c)
prípadné zmeny vysokorizikového systému AI a jeho výkonu, ktoré v čase počiatočného posúdenia zhody vopred určil poskytovateľ;
c)
As alterações do sistema de IA de risco elevado e do seu desempenho que tenham sido predeterminadas pelo prestador aquando da avaliação da conformidade inicial, se for caso disso;
d)
opatrenia na zabezpečenie ľudského dohľadu uvedené v článku 14 vrátane technických opatrení zavedených na uľahčenie výkladu výstupov vysokorizikových systémov AI nasadzujúcimi subjektmi;
d)
As medidas de supervisão humana a que se refere o artigo 14.o, incluindo as soluções técnicas adotadas para facilitar a interpretação dos resultados dos sistemas de IA de risco elevado pelos responsáveis pela implantação;
e)
potrebné výpočtové a hardvérové zdroje, očakávaná životnosť vysokorizikového systému AI a všetky potrebné opatrenia údržby a starostlivosti vrátane frekvencie ich vykonávania, ktorými sa má zabezpečiť riadne fungovanie tohto systému AI, a to aj pokiaľ ide o aktualizácie softvéru;
e)
Os recursos computacionais e de hardware necessários, a vida útil esperada do sistema de IA de risco elevado e quaisquer medidas de manutenção e assistência necessárias, incluindo a sua frequência, para assegurar o correto funcionamento desse sistema de IA, inclusive no tocante a atualizações do software;
f)
v relevantnom prípade, opis mechanizmov zahrnutých do vysokorizikového systému AI, ktoré umožňujú nasadzujúcim subjektom riadne zhromažďovať, uchovávať a interpretovať logy v súlade s článkom 12 ods. 1.
f)
Sempre que pertinente, uma descrição dos mecanismos incluídos no sistema de IA de risco elevado que permita aos responsáveis pela implantação recolher, armazenar e interpretar corretamente os registos, em conformidade com o artigo 12.o.
Článok 14
Artigo 14.o
Ľudský dohľad
Supervisão humana
1. Vysokorizikové systémy AI musia byť dizajnované a vyvinuté tak, aby nad nimi počas obdobia ich používania mohli fyzické osoby vykonávať účinný dohľad, a to aj pomocou vhodných nástrojov rozhrania človek – stroj.
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de modo a poderem, nomeadamente por meio de ferramentas de interface homem-máquina apropriadas, ser eficazmente supervisionados por pessoas singulares durante o período em que estão em utilização.
2. Ľudský dohľad sa zameriava na prevenciu alebo minimalizáciu rizík pre zdravie, bezpečnosť alebo základné práva, ktoré môžu vzniknúť pri používaní vysokorizikového systému AI v súlade so zamýšľaným účelom alebo za podmienok odôvodnene predvídateľného nesprávneho použitia, najmä ak takéto riziká pretrvávajú napriek uplatňovaniu iných požiadaviek stanovených v tomto oddiele.
2. A supervisão humana deve procurar prevenir ou minimizar os riscos para a saúde, a segurança ou os direitos fundamentais que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsível, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos na presente secção.
3. Opatrenia dohľadu musia byť primerané rizikám, úrovni autonómnosti a kontextu používania vysokorizikového systému AI a zabezpečia sa jedným alebo oboma z týchto druhov opatrení:
3. As medidas de supervisão humana devem ser consentâneas com os riscos, ao nível de autonomia e ao contexto de utilização do sistema de IA de risco elevado e a supervisão deve ser assegurada por meio de um ou de todos os seguintes tipos de medidas:
a)
opatrenia, ktoré identifikuje poskytovateľ, a ak je to technicky uskutočniteľné, začlení ich do vysokorizikového systému AI pred jeho uvedením na trh alebo do prevádzky;
a)
Medidas identificadas e integradas, quando tecnicamente viável, pelo prestador no sistema de IA de risco elevado antes de este ser colocado no mercado ou colocado em serviço;
b)
opatrenia, ktoré identifikuje poskytovateľ pred uvedením vysokorizikového systému AI na trh alebo do prevádzky a ktoré môže zaviesť nasadzujúci subjekt.
b)
Medidas identificadas pelo prestador antes de o sistema de IA de risco elevado ser colocado no mercado ou colocado em serviço e que se prestem a serem postas em prática pelo responsável pela implantação.
4. Na účely vykonávania odsekov 1, 2 a 3 sa vysokorizikový systém AI poskytuje nasadzujúcemu subjektu takým spôsobom, aby fyzickým osobám, ktorým je zverený ľudský dohľad, umožňoval podľa potreby a primerane:
4. Para efeitos da aplicação dos n.os 1, 2 e 3, o sistema de IA de risco elevado deve ser disponibilizado ao responsável pela implantação de modo a que seja possível às pessoas singulares responsáveis pela supervisão humana, conforme adequado e de forma proporcionada:
a)
riadne pochopiť príslušné kapacity a obmedzenia vysokorizikového systému AI a byť schopný riadne monitorovať jeho prevádzku, a to aj s cieľom odhaľovať a riešiť anomálie, poruchy a neočakávaný výkon;
a)
Compreender adequadamente as capacidades e limitações pertinentes do sistema de IA de risco elevado e conseguir controlar devidamente o seu funcionamento, nomeadamente a fim de detetar e corrigir anomalias, disfuncionalidades e desempenhos inesperados;
b)
byť si neustále vedomý možnej tendencie automatického spoliehania sa alebo nadmerného spoliehania sa na výstupy vytvorené vysokorizikovým systémom AI (ďalej len „náchylnosť k automatizácii“), a to najmä v prípade vysokorizikových systémov AI používaných na poskytovanie informácií alebo odporúčaní pre rozhodnutia, ktoré majú prijať fyzické osoby;
b)
Estar conscientes da possível tendência para confiar automaticamente ou confiar excessivamente nos resultados produzidos pelo sistema de IA de risco elevado (enviesamento da automatização), em especial no que toca a sistemas de IA de risco elevado utilizados para prestar informações ou recomendações com vista à tomada de decisões por pessoas singulares;
c)
správne interpretovať výstupy vysokorizikového systému AI, s prihliadnutím napríklad na dostupné interpretačné nástroje a metódy;
c)
Interpretar corretamente os resultados do sistema de IA de risco elevado, tendo em conta, por exemplo, as ferramentas e os métodos de interpretação disponíveis;
d)
v akejkoľvek konkrétnej situácii rozhodnúť, že sa vysokorizikový systém AI nepoužije alebo sa výstup vysokorizikového systému AI inak nezohľadní, potlačí alebo zvráti;
d)
Decidir, em qualquer situação específica, não usar o sistema de IA de risco elevado ou ignorar, anular ou reverter os resultados do sistema de IA de risco elevado;
e)
zasiahnuť do prevádzky vysokorizikového systému AI alebo prerušiť systém pomocou tlačidla „stop“ alebo podobným postupom, ktorý umožňuje zastaviť systém v bezpečnom stave.
e)
Intervir no funcionamento do sistema de IA de risco elevado ou interromper o sistema por meio de um botão de «paragem» ou de um procedimento similar que permita parar o sistema de modo seguro.
5. V prípade vysokorizikových systémov AI uvedených v prílohe III bode 1 písm. a) musia byť opatrenia podľa odseku 3 tohto článku také, aby sa navyše zabezpečilo, že nasadzujúci subjekt na základe identifikácie vyplývajúcej zo systému nekoná ani neprijme žiadne rozhodnutie, pokiaľ takáto identifikácia nebola zvlášť overená a potvrdená aspoň dvoma fyzickými osobami, ktoré majú potrebnú spôsobilosť, odbornú prípravu a právomoc.
5. Em relação aos sistemas de IA de risco elevado a que se refere o anexo III, ponto 1, alínea a), as medidas referidas no n.o 3 do presente artigo devem, além disso, permitir assegurar que nenhuma ação ou decisão seja tomada pelo responsável pela implantação com base na identificação resultante do sistema, salvo se a mesma tiver sido verificada e confirmada separadamente por, pelo menos, duas pessoas singulares com a competência, formação e autoridade necessárias.
Požiadavka na samostatné overenie aspoň dvoma fyzickými osobami sa nevzťahuje na vysokorizikové systémy AI používané na účely presadzovania práva, migrácie, kontroly hraníc alebo azylu, keď sa podľa práva Únie alebo vnútroštátneho práva uplatňovanie tejto požiadavky považuje za neprimerané.
O requisito de verificação separada por, pelo menos, duas pessoas singulares não se aplica aos sistemas de IA de risco elevado utilizados para efeitos de aplicação da lei, de migração, de controlo das fronteiras ou de asilo, em que o direito da União ou o direito nacional considere que a aplicação deste requisito é desproporcionada.
Článok 15
Artigo 15.o
Presnosť, spoľahlivosť a kybernetická bezpečnosť
Exatidão, solidez e cibersegurança
1. Vysokorizikové systémy AI musia byť dizajnované a vyvinuté tak, aby dosahovali primeranú úroveň presnosti, spoľahlivosti a kybernetickej bezpečnosti a aby v týchto ohľadoch fungovali konzistentne počas celého svojho životného cyklu.
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que alcancem um nível apropriado de exatidão, solidez e cibersegurança e apresentem um desempenho coerente em relação a tais aspetos durante o seu ciclo de vida.
2. S cieľom riešiť technické aspekty spôsobu merania primeraných úrovní presnosti a spoľahlivosti stanovených v odseku 1 a akékoľvek iné relevantné metriky výkonu Komisia v spolupráci s príslušnými zainteresovanými stranami a organizáciami, ako sú orgány v oblasti metrológie a referenčného porovnávania, podľa potreby podporuje vypracovanie referenčných hodnôt a metodík merania.
2. A fim de abordar os aspetos técnicos relativos à forma de medir os níveis adequados de exatidão e solidez estabelecidos no n.o 1, bem como quaisquer outros parâmetros de desempenho pertinentes, a Comissão, em cooperação com as partes interessadas e as organizações pertinentes, tais como as autoridades responsáveis pela metrologia e pela avaliação comparativa, incentiva, conforme adequado, o desenvolvimento de parâmetros de referência e metodologias de medição.
3. Úrovne presnosti a príslušné metriky na meranie presnosti vysokorizikových systémov AI sa uvádzajú v priloženom návode na použitie.
3. As instruções de utilização que acompanham os sistemas de IA de risco elevado devem declarar os níveis de exatidão e os parâmetros de exatidão aplicáveis.
4. Vysokorizikové systémy AI musia byť čo najodolnejšie, pokiaľ ide o chyby, poruchy alebo nezrovnalosti, ktoré sa môžu vyskytnúť v rámci systému alebo prostredia, v ktorom sa systém prevádzkuje, a to najmä z dôvodu ich interakcie s fyzickými osobami alebo inými systémami. V tejto súvislosti sa prijmú technické a organizačné opatrenia.
4. Os sistemas de IA de risco elevado devem ser tão resistentes quanto possível a erros, falhas ou incoerências que possam ocorrer no sistema ou no ambiente em que aquele opera, em especial devido à interação com pessoas singulares ou outros sistemas. A este respeito, devem ser tomadas medidas técnicas e organizativas.
Spoľahlivosť vysokorizikových systémov AI možno dosiahnuť technickými riešeniami na vytvorenie redundancie, ktoré môžu zahŕňať plány zálohovania alebo núdzového režimu.
A solidez dos sistemas de IA de risco elevado pode ser alcançada por via de soluções de redundância técnica, que podem incluir planos de reserva ou planos de segurança à prova de falhas.
Vysokorizikové systémy AI, ktoré sa po uvedení na trh alebo do prevádzky ďalej učia, sa vyvíjajú tak, aby sa odstránilo alebo v čo najväčšej miere znížilo riziko, že prípadné skreslené výstupy budú mať vplyv na vstup pre budúce operácie (ďalej len „slučky spätnej väzby“), a aby sa zaistilo, že akékoľvek takéto slučky spätnej väzby sa budú náležite riešiť vhodnými zmierňujúcimi opatreniami.
Os sistemas de IA de risco elevado que continuam a aprender após serem colocados no mercado ou colocados em serviço são desenvolvidos de forma a eliminar ou reduzir, tanto quanto possível, o risco de resultados possivelmente enviesados que influenciem os dados de entrada de futuras operações (circuitos de realimentação), bem como a assegurar que esses resultados possivelmente enviesados sejam objeto de medidas de atenuação adequadas.
5. Vysokorizikové systémy AI musia byť odolné voči pokusom neoprávnených tretích strán o zmenu ich používania, výstupov alebo výkonu využívaním zraniteľností systému.
5. Os sistemas de IA de risco elevado devem ser resistentes a tentativas de terceiros não autorizados de alterar a sua utilização, os seus resultados ou seu desempenho explorando as vulnerabilidades do sistema.
Technické riešenia zamerané na zabezpečenie kybernetickej bezpečnosti vysokorizikových systémov AI musia byť primerané príslušným okolnostiam a rizikám.
As soluções técnicas destinadas a assegurar a cibersegurança dos sistemas de IA de risco elevado devem ser adequadas às circunstâncias e aos riscos de cada caso.
Technické riešenia zamerané na zraniteľnosti špecifické pre AI v prípade potreby zahŕňajú opatrenia na prevenciu, detekciu, reakciu, riešenie a kontrolu v prípade útokov, ktoré sa pokúšajú manipulovať súbor trénovacích údajov (ďalej len „otrávenie údajov“) alebo vopred natrénované komponenty používané pri tréningu (ďalej len „otrávenie modelov“), vstupov koncipovaných tak, aby model AI urobil chybu (ďalej len „odporujúce si príklady“ alebo „oklamanie modelov“), útokov na dôvernosť alebo nedostatkov modelu.
As soluções técnicas para resolver vulnerabilidades específicas da IA devem incluir, se for caso disso, medidas para prevenir, detetar, resolver e controlar, bem como dar resposta a ataques que visem manipular o conjunto de dados de treino (contaminação de dados) ou componentes pré-treinados utilizados no treino (contaminação de modelos), dados de entrada concebidos para fazer com que o modelo de IA cometa um erro (exemplos antagónicos ou evasão de modelos), ataques de confidencialidade ou falhas do modelo.
ODDIEL 3
SECÇÃO 3
Povinnosti vzťahujúce sa na poskytovateľov a nasadzujúce subjekty vysokorizikových systémov AI a iné strany
Obrigações dos prestadores e dos responsáveis pela implantação de sistemas de IA de risco elevado e de outras partes
Článok 16
Artigo 16.o
Povinnosti poskytovateľov vysokorizikových systémov AI
Obrigações dos prestadores de sistemas de inteligência artificial de risco elevado
Poskytovatelia vysokorizikových systémov AI:
Os prestadores de sistemas de IA de risco elevado devem:
a)
zabezpečujú, aby ich vysokorizikové systémy AI boli v súlade s požiadavkami stanovenými v oddiele 2;
a)
Assegurar que os seus sistemas de IA de risco elevado cumpram os requisitos estabelecidos na secção 2;
b)
na vysokorizikovom systéme AI, alebo ak to nie je možné, na jeho obale alebo prípadne v sprievodnej dokumentácii uvedú svoje meno, registrované obchodné meno alebo registrovanú ochrannú známku, adresu, na ktorej ich možno kontaktovať;
b)
Indicar no sistema de IA de risco elevado ou, se tal não for possível, na embalagem ou na documentação que o acompanha, consoante o caso, o seu nome, o nome comercial registado ou a marca registada e o endereço no qual podem ser contactados;
c)
majú zavedený systém riadenia kvality, ktorý je v súlade s článkom 17;
c)
Dispor de um sistema de gestão da qualidade que cumpra o disposto no artigo 17.o;
d)
uchovávajú dokumentáciu podľa článku 18;
d)
Conservar a documentação nos termos do artigo 18.o;
e)
uchovávajú logy automaticky generované ich vysokorizikovými systémami AI podľa článku 19, ak ich majú pod kontrolou;
e)
Quando tal esteja sob o seu controlo, manter os registos gerados automaticamente pelos sistemas de IA de risco elevado que disponibilizam, conforme previsto no artigo 19.o;
f)
zabezpečia, aby sa vysokorizikový systém AI pred uvedením na trh alebo do prevádzky podrobil príslušnému postupu posudzovania zhody, ako sa uvádza v článku 43;
f)
Assegurar que o sistema de IA de risco elevado seja sujeito ao procedimento de avaliação da conformidade aplicável, tal como previsto no artigo 43.o, antes da colocação no mercado ou da colocação em serviço;
g)
vypracujú EÚ vyhlásenie o zhode v súlade s článkom 47;
g)
Elaborar uma declaração UE de conformidade, nos termos do artigo 47.o;
h)
umiestnia označenie CE na vysokorizikový systém AI, alebo ak to nie je možné, na jeho obal alebo prípadne do sprievodnej dokumentácie s cieľom označiť zhodu s týmto nariadením podľa článku 48;
h)
Apor a marcação CE no sistema de IA de risco elevado ou, se tal não for possível, na embalagem ou na documentação que o acompanha, para indicar a conformidade com o presente regulamento, nos termos do artigo 48.o;
i)
splnia registračné povinnosti uvedené v článku 49 ods. 1;
i)
Respeitar as obrigações de registo a que se refere o artigo 49.o, n.o 1;
j)
prijmú potrebné nápravné opatrenia a poskytnú informácie, ako sa požaduje v článku 20;
j)
Adotar as medidas corretivas necessárias e prestar as informações, tal como estabelecido no artigo 20.o;
k)
na základe odôvodnenej žiadosti vnútroštátneho príslušného orgánu preukážu zhodu vysokorizikového systému AI s požiadavkami stanovenými v oddiele 2;
k)
Mediante pedido fundamentado de uma autoridade nacional competente, demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos na secção 2;
l)
zabezpečia, aby vysokorizikový systém AI spĺňal požiadavky na prístupnosť v súlade so smernicami (EÚ) 2016/2102 a (EÚ) 2019/882.
l)
Assegurar que o sistema de IA de risco elevado cumpra os requisitos de acessibilidade em conformidade com as Diretivas (UE) 2016/2102 e (UE) 2019/882.
Článok 17
Artigo 17.o
Systém riadenia kvality
Sistema de gestão da qualidade
1. Poskytovatelia vysokorizikových systémov AI zavedú systém riadenia kvality, ktorým sa zabezpečí súlad s týmto nariadením. Tento systém sa systematicky a usporiadane zdokumentuje vo forme písomných zásad, postupov a pokynov a zahŕňa aspoň tieto aspekty:
1. Os prestadores de sistemas de IA de risco elevado devem criar um sistema de gestão da qualidade que assegure a conformidade com o presente regulamento. Esse sistema deve estar documentado de maneira sistemática e ordenada, sob a forma de políticas, procedimentos e instruções escritos, e incluir, no mínimo, os seguintes aspetos:
a)
stratégiu dodržiavania regulačných požiadaviek vrátane dodržiavania postupov posudzovania zhody a postupov riadenia zmien vysokorizikového systému AI;
a)
Uma estratégia para o cumprimento da regulamentação, incluindo a observância de procedimentos de avaliação da conformidade e de procedimentos de gestão de modificações do sistema de IA de risco elevado;
b)
techniky, postupy a systematické opatrenia, ktoré sa majú použiť pri dizajnovaní vysokorizikového systému AI, kontrole jeho dizajnu a overovaní jeho dizajnu;
b)
Técnicas, procedimentos e ações sistemáticas a utilizar para a conceção, controlo da conceção e verificação da conceção do sistema de IA de risco elevado;
c)
techniky, postupy a systematické opatrenia, ktoré sa majú použiť pri vývoji vysokorizikového systému AI a pri kontrole a zabezpečení jeho kvality;
c)
Técnicas, procedimentos e ações sistemáticas a utilizar para o desenvolvimento, controlo da qualidade e garantia da qualidade do sistema de IA de risco elevado;
d)
postupy preskúmania, testovania a validácie, ktoré sa majú vykonávať pred vývojom vysokorizikového systému AI, počas neho a po ňom, a frekvencia, s akou sa musia vykonávať;
d)
Procedimentos de exame, teste e validação a realizar antes, durante e após o desenvolvimento do sistema de IA de risco elevado e a frequência com a qual têm de ser realizados;
e)
technické špecifikácie vrátane noriem, ktoré sa majú uplatňovať, a v prípade, že sa príslušné harmonizované normy neuplatňujú v plnom rozsahu alebo sa nevzťahujú na všetky príslušné požiadavky stanovené v oddiele 2, prostriedky, ktoré sa majú použiť na zabezpečenie toho, aby vysokorizikový systém AI spĺňal tieto požiadavky;
e)
Especificações técnicas, incluindo normas, a aplicar e, se as normas harmonizadas em causa não forem aplicadas na íntegra, ou não abrangerem todos os requisitos pertinentes estabelecidos na secção 2, os meios a usar para assegurar que o sistema de IA de risco elevado cumpra esses requisitos;
f)
systémy a postupy správy údajov vrátane získavania údajov, zberu údajov, ich analýzy, označovania, ukladania, filtrovania, hĺbkovej analýzy, agregácie, uchovávania a všetkých ďalších operácií týkajúcich sa údajov, ktoré sa vykonávajú pred uvedením vysokorizikových systémov AI na trh alebo do prevádzky a na účely ich uvedenia na trh alebo do prevádzky;
f)
Sistemas e procedimentos de gestão de dados, incluindo aquisição de dados, recolha de dados, análise de dados, rotulagem de dados, armazenamento de dados, filtragem de dados, prospeção de dados, agregação de dados, conservação de dados e qualquer outra operação relativa aos dados que seja realizada antes e para efeitos da colocação no mercado ou colocação em serviço de sistemas de IA de risco elevado;
g)
systém riadenia rizík uvedený v článku 9;
g)
O sistema de gestão de riscos a que se refere o artigo 9.o;
h)
vytvorenie, zavedenie a vedenie systému monitorovania po uvedení na trh v súlade s článkom 72;
h)
O estabelecimento, aplicação e manutenção de um sistema de acompanhamento pós-comercialização, nos termos do artigo 72.o;
i)
postupy týkajúce sa oznamovania závažných incidentov v súlade s článkom 73;
i)
Procedimentos de comunicação de um incidente grave em conformidade com o artigo 73.o;
j)
vybavovanie komunikácie s vnútroštátnymi príslušnými orgánmi, inými relevantnými orgánmi vrátane tých, ktoré poskytujú alebo podporujú prístup k údajom, s notifikovanými osobami, inými prevádzkovateľmi, zákazníkmi alebo inými zainteresovanými stranami;
j)
A gestão da comunicação com autoridades nacionais competentes, outras autoridades pertinentes, incluindo as que disponibilizam ou apoiam o acesso a dados, organismos notificados, outros operadores, clientes ou outras partes interessadas;
k)
systémy a postupy vedenia záznamov o všetkých príslušných dokumentoch a informáciách;
k)
Sistemas e procedimentos de manutenção de registos de toda a documentação e informação pertinente;
l)
riadenie zdrojov vrátane opatrení týkajúcich sa bezpečnosti dodávok;
l)
Gestão de recursos, incluindo medidas relacionadas com a segurança do aprovisionamento;
m)
rámec zodpovednosti, v ktorom sa stanovia povinnosti manažmentu a ostatných zamestnancov, pokiaľ ide o všetky aspekty uvedené v tomto odseku.
m)
Um regime que defina as responsabilidades do pessoal com funções de gestão e do restante pessoal no atinente a todos os aspetos elencados no presente número.
2. Implementácia aspektov uvedených v odseku 1 musí byť primeraná veľkosti organizácie poskytovateľa. Poskytovatelia musia v každom prípade dodržiavať mieru prísnosti a úroveň ochrany, ktoré sa vyžadujú na zabezpečenie súladu ich vysokorizikových systémov AI s týmto nariadením.
2. A aplicação dos aspetos referidos no n.o 1 deve ser proporcionada à dimensão da organização do prestador. Os prestadores devem, em qualquer caso, respeitar o grau de rigor e o nível de proteção necessários para garantir a conformidade dos seus sistemas de IA de risco elevado com o presente regulamento.
3. Poskytovatelia vysokorizikových systémov AI, na ktorých sa vzťahujú povinnosti týkajúce sa systémov riadenia kvality alebo rovnocennej funkcie podľa príslušného odvetvového práva Únie, môžu zahŕňať aspekty uvedené v odseku 1 ako súčasť systémov riadenia kvality stanovených podľa uvedeného práva.
3. Os prestadores de sistemas de IA de risco elevado sujeitos a obrigações relativas aos sistemas de gestão da qualidade ou a uma função equivalente nos termos da legislação setorial aplicável da União podem incluir os aspetos enumerados no n.o 1 como parte dos sistemas de gestão da qualidade estabelecidos nos termos dessa legislação.
4. V prípade poskytovateľov, ktorí sú finančnými inštitúciami, na ktoré sa vzťahujú požiadavky týkajúce sa ich vnútornej správy a riadenia, dojednaní alebo postupov podľa práva Únie v oblasti finančných služieb, sa povinnosť zaviesť systém riadenia kvality s výnimkou odseku 1 písm. g), h) a i) tohto článku považuje za splnenú dodržiavaním pravidiel týkajúcich sa vnútornej správy a riadenia, dojednaní alebo postupov podľa príslušného práva Únie v oblasti finančných služieb. Na tento účel sa zohľadnia všetky harmonizované normy uvedené v článku 40.
4. Para os prestadores que sejam instituições financeiras sujeitas a requisitos em matéria de governação, mecanismos ou processos internos nos termos do direito da União no domínio dos serviços financeiros, considera-se que a obrigação de criar um sistema de gestão da qualidade, com exceção do n.o 1, alíneas g), h) e i) do presente artigo, é satisfeita mediante o cumprimento das regras em matéria de governação, mecanismos ou processos internos nos termos do direito da União aplicável no domínio dos serviços financeiros. Para o efeito, devem ser tidas em conta as eventuais normas harmonizadas a que se refere o artigo 40.o.
Článok 18
Artigo 18.o
Uchovávanie dokumentácie
Manutenção de documentação
1. Počas obdobia končiaceho sa 10 rokov po uvedení vysokorizikového systému AI na trh alebo do prevádzky uchováva poskytovateľ pre potreby vnútroštátnych príslušných orgánov:
1. O prestador deve manter à disposição das autoridades nacionais competentes, durante os 10 anos subsequentes à data de colocação no mercado ou de colocação em serviço do sistema de IA de risco elevado:
a)
technickú dokumentáciu uvedenú v článku 11;
a)
A documentação técnica a que se refere o artigo 11.o;
b)
dokumentáciu týkajúcu sa systému riadenia kvality uvedenú v článku 17,
b)
A documentação relativa ao sistema de gestão da qualidade a que se refere o artigo 17.o;
c)
dokumentáciu týkajúcu sa prípadných zmien schválených notifikovanými osobami;
c)
A documentação relativa às alterações aprovadas pelos organismos notificados, se for caso disso;
d)
prípadné rozhodnutia a iné dokumenty vydané notifikovanými osobami;
d)
As decisões e outros documentos emitidos pelos organismos notificados, se for caso disso;
e)
EÚ vyhlásenie o zhode uvedené v článku 47.
e)
A declaração UE de conformidade a que se refere o artigo 47.o.
2. Každý členský štát určí podmienky, za ktorých ostáva dokumentácia uvedená v odseku 1 k dispozícii vnútroštátnym príslušným orgánom počas obdobia stanoveného v uvedenom odseku pre prípady, keď je poskytovateľ alebo jeho splnomocnený zástupca usadený na jeho území v konkurze alebo ukončí svoju činnosť pred koncom tohto obdobia.
2. Cada Estado-Membro determina as condições em que a documentação a que se refere o n.o 1 permanece à disposição das autoridades nacionais competentes durante o período indicado nesse número, nos casos em que um prestador ou o seu mandatário estabelecido no seu território falir ou cessar a sua atividade antes do termo desse período.
3. Poskytovatelia, ktorí sú finančnými inštitúciami, na ktoré sa vzťahujú požiadavky týkajúce sa ich vnútornej správy a riadenia, dojednaní alebo postupov podľa práva Únie v oblasti finančných služieb, uchovávajú technickú dokumentáciu ako súčasť dokumentácie uchovávanej podľa príslušného práva Únie v oblasti finančných služieb.
3. Os prestadores que sejam instituições financeiras sujeitas a requisitos em matéria de governação, mecanismos ou processos internos nos termos do direito da União no domínio dos serviços financeiros devem manter a documentação técnica como parte da documentação conservada nos termos do direito da União aplicável no domínio dos serviços financeiros.
Článok 19
Artigo 19.o
Automaticky generované logy
Registos gerados automaticamente
1. Poskytovatelia vysokorizikových systémov AI uchovávajú logy uvedené v článku 12 ods. 1 automaticky generované ich vysokorizikovými systémami AI, pokiaľ sú tieto logy pod ich kontrolou. Bez toho, aby bolo dotknuté uplatniteľné právo Únie alebo vnútroštátne právo, sa logy uchovávajú počas obdobia primeraného zamýšľanému účelu vysokorizikového systému AI, a to najmenej šesť mesiacov, pokiaľ sa v uplatniteľnom práve Únie alebo vo vnútroštátnom práve, najmä v práve Únie o ochrane osobných údajov, nestanovuje inak.
1. Os prestadores de sistemas de IA de risco elevado devem manter os registos, a que se refere o artigo 12.o, n.o 1, gerados automaticamente pelos seus sistemas de IA de risco elevado, desde que esses registos estejam sob o seu controlo. Sem prejuízo do direito da União ou do direito nacional aplicável, os registos devem ser conservados por um período adequado à finalidade prevista do sistema de IA de risco elevado, de pelo menos seis meses, salvo disposição em contrário no direito da União ou do direito nacional aplicável, em especial no direito da União em matéria de proteção de dados pessoais.
2. Poskytovatelia, ktorí sú finančnými inštitúciami, na ktoré sa vzťahujú požiadavky týkajúce sa ich vnútornej správy a riadenia, dojednaní alebo postupov podľa práva Únie v oblasti finančných služieb, uchovávajú logy automaticky generované ich vysokorizikovými systémami AI ako súčasť dokumentácie uchovávanej podľa príslušného práva v oblasti finančných služieb.
2. Os prestadores que sejam instituições financeiras sujeitas a requisitos em matéria de governação, mecanismos ou processos internos nos termos do direito da União no domínio dos serviços financeiros devem manter os registos gerados automaticamente pelos sistemas de IA de risco elevado que disponibilizam como parte da documentação conservada nos termos da legislação aplicável no domínio dos serviços financeiros.
Článok 20
Artigo 20.o
Nápravné opatrenia a informačná povinnosť
Medidas corretivas e dever de informação
1. Poskytovatelia vysokorizikových systémov AI, ktorí sa domnievajú alebo majú dôvod domnievať sa, že vysokorizikový systém AI, ktorý uviedli na trh alebo do prevádzky, nie je v zhode s týmto nariadením, bezodkladne prijmú potrebné nápravné opatrenia s cieľom dosiahnuť podľa potreby zhodu tohto systému, stiahnuť ho z trhu, deaktivovať ho alebo stiahnuť od používateľa. Informujú o tom distribútorov dotknutého vysokorizikového systému AI a v relevantných prípadoch nasadzujúce subjekty, splnomocneného zástupcu a dovozcov.
1. Os prestadores de sistemas de IA de risco elevado que considerem ou tenham motivos para crer que um sistema de IA de risco elevado que colocaram no mercado ou colocaram em serviço não está em conformidade com o presente regulamento devem imediatamente tomar as medidas corretivas necessárias para repor a conformidade do sistema em questão, proceder à sua retirada, desativação ou à recolha do mesmo, consoante o caso. Devem informar do facto os distribuidores do sistema de IA de risco elevado em questão e, se for caso disso, os responsáveis pela implantação, o mandatário e os importadores.
2. Ak vysokorizikový systém AI predstavuje riziko v zmysle článku 79 ods. 1 a poskytovateľ sa o tomto riziku dozvie, bezodkladne, prípadne v spolupráci s nahlasujúcim nasadzujúcim subjektom, vyšetrí príčiny a informuje orgány dohľadu nad trhom príslušné pre dotknutý vysokorizikový systém AI a v relevantnom prípade notifikovanú osobu, ktorá vydala pre uvedený vysokorizikový systém AI certifikát v súlade s článkom 44, a to najmä o povahe nesúladu a o všetkých relevantných nápravných opatreniach, ktoré boli prijaté.
2. Se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 79.o, n.o 1, e o prestador tomar conhecimento desse risco, o prestador deve imediatamente investigar as causas, em colaboração com o responsável pela implantação que tenha comunicado informações a esse respeito, se for o caso, e informar as autoridades de fiscalização do mercado competentes para o sistema de IA de elevado risco em causa e, se for o caso, o organismo notificado que emitiu um certificado para o sistema de IA de risco elevado em conformidade com o artigo 44.o, em especial sobre a natureza da não conformidade e as medidas corretivas tomadas.
Článok 21
Artigo 21.o
Spolupráca s príslušnými orgánmi
Cooperação com as autoridades competentes
1. Poskytovatelia vysokorizikových systémov AI na odôvodnenú žiadosť príslušného orgánu poskytnú tomuto orgánu všetky informácie a dokumentáciu potrebnú na preukázanie zhody vysokorizikového systému AI s požiadavkami stanovenými v oddiele 2, a to v jednom z úradných jazykov inštitúcií Únie určenom dotknutým členským štátom, ktorému orgán bez problémov rozumie.
1. Os prestadores de sistemas de IA de risco elevado devem, mediante pedido fundamentado de uma autoridade competente, prestar a essa autoridade todas as informações e documentação necessárias para demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos na secção 2, numa língua que possa ser facilmente compreendida pela autoridade numa das línguas oficiais das instituições da União indicada pelo Estado-Membro em questão.
2. Na základe odôvodnenej žiadosti príslušného orgánu poskytnú poskytovatelia žiadajúcemu príslušnému orgánu v prípade potreby aj prístup k automaticky generovaným logom vysokorizikového systému AI uvedeným v článku 12 ods. 1, pokiaľ sú tieto logy pod ich kontrolou.
2. Mediante pedido fundamentado de uma autoridade competente, os prestadores devem igualmente conceder a essa autoridade, consoante o caso, o acesso aos registos gerados automaticamente do sistema de IA de risco elevado a que se refere o artigo 12.o, n.o 1, desde que esses registos estejam sob o seu controlo.
3. So všetkými informáciami, ktoré príslušný orgán získal podľa tohto článku, sa zaobchádza v súlade s povinnosťami zachovávania dôvernosti podľa článku 78.
3. Todas as informações que uma autoridade competente obtenha nos termos do presente artigo devem ser tratadas nos termos das obrigações de confidencialidade estabelecidas no artigo 78.o.
Článok 22
Artigo 22.o
Splnomocnení zástupcovia poskytovateľov vysokorizikových systémov AI
Mandatários dos prestadores de sistemas de IA de risco elevado
1. Poskytovatelia usadení v tretích krajinách pred sprístupnením svojich vysokorizikových systémov AI na trhu Únie písomným splnomocnením vymenujú splnomocneného zástupcu usadeného v Únii.
1. Antes de disponibilizarem os seus sistemas de IA de risco elevado no mercado da União, os prestadores estabelecidos em países terceiros devem, através de mandato escrito, designar um mandatário estabelecido na União.
2. Poskytovateľ umožní svojmu splnomocnenému zástupcovi vykonávať úlohy uvedené v splnomocnení, ktoré mu udelil poskytovateľ.
2. O prestador deve habilitar o seu mandatário a desempenhar as funções especificadas no mandato conferido pelo prestador.
3. Splnomocnený zástupca vykonáva úlohy uvedené v splnomocnení, ktoré mu udelil poskytovateľ. Na požiadanie poskytne orgánom dohľadu nad trhom kópiu splnomocnenia v jednom z úradných jazykov inštitúcií Únie, ktorý určí príslušný orgán. Na účely tohto nariadenia sa splnomocnený zástupca splnomocnením poveruje, aby vykonával tieto úlohy:
3. O mandatário deve desempenhar as funções especificadas no mandato conferido pelo prestador. Mediante pedido, o mandatário deve apresentar uma cópia do mandato às autoridades de fiscalização do mercado, numa das línguas oficiais das instituições da União indicada pela autoridade competente. Para efeitos do presente regulamento, o mandato habilita o mandatário a desempenhar as seguintes funções:
a)
overiť, či sa vypracovalo EÚ vyhlásenie o zhode uvedené v článku 47 a technická dokumentácia uvedená v článku 11 a či poskytovateľ vykonal príslušný postup posudzovania zhody;
a)
Verificar se a declaração UE de conformidade referida no artigo 47.o e a documentação técnica a que se refere o artigo 11.o foram elaboradas e se o prestador efetuou um procedimento de avaliação da conformidade adequado;
b)
uchovávať pre príslušné orgány a vnútroštátne orgány alebo subjekty uvedené v článku 74 ods. 10 počas obdobia 10 rokov po uvedení vysokorizikového systému AI na trh alebo do prevádzky, kontaktné údaje poskytovateľa, ktorý splnomocneného zástupcu vymenoval, kópiu EÚ vyhlásenia o zhode uvedeného v článku 47, technickú dokumentáciu a v relevantnom prípade certifikát vydaný notifikovanou osobou;
b)
Manter à disposição das autoridades competentes e das autoridades ou organismos nacionais a que se refere o artigo 74.o, n.o 10, durante os 10 anos subsequentes à data de colocação no mercado ou colocação em serviço do sistema de IA de risco elevado, os dados de contacto do prestador que designou o mandatário, uma cópia da declaração UE de conformidade referida no artigo 47.o, a documentação técnica e, se aplicável, o certificado emitido pelo organismo notificado;
c)
poskytnúť príslušnému orgánu na základe odôvodnenej žiadosti všetky informácie a dokumentáciu vrátane dokumentácie uvedenej v písmene b) tohto pododseku potrebné na preukázanie súladu vysokorizikového systému AI s požiadavkami stanovenými v oddiele 2 vrátane prístupu k logom, ako sa uvádza v článku 12 ods. 1, automaticky generovaným vysokorizikovým systémom AI, pokiaľ sú tieto logy pod kontrolou poskytovateľa;
c)
Prestar a uma autoridade competente, mediante pedido fundamentado, todas as informações e documentação, inclusive aquelas a que se refere a alínea b) do presente parágrafo, necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos na secção 2 do presente título, incluindo o acesso aos registos, conforme referido no artigo 12.o, n.o 1, gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos estejam sob o controlo do prestador;
d)
spolupracovať s príslušnými orgánmi na základe odôvodnenej žiadosti pri každom opatrení, ktoré takýto orgán prijme v súvislosti s vysokorizikovým systémom AI, najmä s cieľom znížiť a zmierniť riziká, ktoré vysokorizikový systém AI predstavuje;
d)
Cooperar com as autoridades competentes, mediante pedido fundamentado, em qualquer ação que estas empreendam em relação ao sistema de IA de risco elevado, nomeadamente para reduzir e atenuar os riscos colocados pelo mesmo;
e)
v relevantných prípadoch plniť registračné povinnosti uvedené v článku 49 ods. 1, alebo ak registráciu vykonáva sám poskytovateľ, zabezpečiť správnosť informácií uvedených v prílohe VIII oddiele A bode 3.
e)
Se for o caso, cumprir as obrigações de registo a que se refere o artigo 49.o, n.o 1, ou, se o registo for efetuado pelo próprio prestador, assegurar que as informações a que se refere o ponto 3 da secção A do anexo VIII, estejam corretas.
Splnomocnením sa splnomocnený zástupca oprávňuje, aby sa okrem poskytovateľa alebo namiesto neho naň obracali príslušné orgány vo všetkých otázkach týkajúcich sa zabezpečenia súladu s týmto nariadením.
O mandato habilita o mandatário a ser contactado, em complemento ou em alternativa ao prestador, pelas autoridades competentes, sobre todas as questões relacionadas com a garantia do cumprimento do presente regulamento.
4. Splnomocnený zástupca splnomocnenie vypovie, ak sa domnieva alebo má dôvod domnievať sa, že poskytovateľ koná v rozpore so svojimi povinnosťami podľa tohto nariadenia. V takom prípade bezodkladne informuje príslušný orgán dohľadu nad trhom a v relevantnom prípade aj príslušnú notifikovanú osobu o výpovedi splnomocnenia a jej dôvodoch.
4. O mandatário põe termo ao mandato se considerar ou tiver razões para considerar que o prestador age de forma contrária às obrigações que lhe incumbem por força do presente regulamento. Nesse caso, informa de imediato a pertinente autoridade de fiscalização do mercado, bem como, se for caso disso, o organismo notificado pertinente, da cessação do mandato e da respetiva justificação.
Článok 23
Artigo 23.o
Povinnosti dovozcov
Obrigações dos importadores
1. Pred uvedením vysokorizikového systému AI na trh jeho dovozcovia zabezpečia, aby bol tento systém v zhode s týmto nariadením, a to overením, že:
1. Antes de colocarem um sistema de IA de risco elevado no mercado, os importadores devem assegurar-se de que o sistema está em conformidade com o presente regulamento, verificando se:
a)
poskytovateľ vysokorizikového systému AI vykonal príslušný postup posudzovania zhody uvedený v článku 43;
a)
O prestador do sistema de IA de risco elevado realizou o procedimento de avaliação da conformidade pertinente a que se refere o artigo 43.o;
b)
poskytovateľ vypracoval technickú dokumentáciu v súlade s článkom 11 a prílohou IV;
b)
O prestador elaborou a documentação técnica em conformidade com o artigo 11.o e o anexo IV;
c)
systém bol označený požadovaným označením CE a bolo k nemu priložené EÚ vyhlásenie o zhode uvedené v článku 47 a návod na použitie;
c)
O sistema ostenta a marcação CE exigida e está acompanhado da declaração UE de conformidade referida no artigo 47.o e das instruções de utilização;
d)
poskytovateľ vymenoval splnomocneného zástupcu v súlade s článkom 22 ods. 1.
d)
O prestador designou um mandatário em conformidade com o artigo 22.o, n.o 1.
2. Ak má dovozca dostatočné dôvody domnievať sa, že vysokorizikový systém AI nie je v zhode s týmto nariadením, alebo je sfalšovaný, alebo že ho sprevádza sfalšovaná dokumentácia, neuvedie tento systém na trh, kým sa tento systém neuvedie do súladu. Ak vysokorizikový systém AI predstavuje riziko v zmysle článku 79 ods. 1, dovozca o tom informuje poskytovateľa tohto systému, splnomocneného zástupcu a orgány dohľadu nad trhom.
2. Se um importador tiver motivos suficientes para crer que um sistema de IA de risco elevado não está em conformidade com o presente regulamento, ou é falsificado ou acompanhado de documentação falsificada, não pode colocar o sistema no mercado enquanto não for reposta a conformidade. Se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 79.o, n.o 1, o importador deve informar desse facto o prestador do sistema, os mandatários e as autoridades de fiscalização do mercado.
3. Dovozcovia uvedú svoje meno, registrované obchodné meno alebo registrovanú ochrannú známku a adresu, na ktorej ich možno kontaktovať, na vysokorizikovom systéme AI, na obale tohto systému, alebo v relevantnom prípade v jeho sprievodnej dokumentácii.
3. Os importadores devem indicar o seu nome, nome comercial registado ou marca registada e endereço no qual podem ser contactados no sistema de IA de risco elevado e na respetiva embalagem ou na documentação que o acompanha, quando aplicável.
4. Dovozcovia zabezpečia, aby v čase, keď nesú za vysokorizikový systém AI zodpovednosť, podmienky jeho uskladnenia alebo prepravy v relevantných prípadoch neohrozovali jeho súlad s požiadavkami stanovenými v oddiele 2.
4. Enquanto um sistema de IA de risco elevado estiver sob a responsabilidade dos importadores, estes devem assegurar que as condições de armazenamento ou de transporte, se for caso disso, não prejudicam a conformidade do sistema com os requisitos enunciados na secção 2.
5. Dovozcovia uchovávajú kópiu prípadného certifikátu vydaného notifikovanou osobou, návodu na použitie a EÚ vyhlásenia o zhode uvedeného v článku 47 počas obdobia 10 rokov po uvedení vysokorizikového systému AI na trh alebo do prevádzky.
5. Os importadores devem conservar, durante os 10 anos subsequentes à data de colocação no mercado ou colocação em serviço do sistema de IA de risco elevado, uma cópia do certificado emitido pelo organismo notificado, quando aplicável, das instruções de utilização e da declaração UE de conformidade referida no artigo 47.o.
6. Dovozcovia poskytnú relevantným príslušným orgánom na základe odôvodnenej žiadosti všetky potrebné informácie a dokumentáciu vrátane tej, ktorá je uvedená v odseku 5, na preukázanie zhody vysokorizikového systému AI s požiadavkami stanovenými v oddiele 2 v jazyku, ktorému tieto orgány bez problémov rozumejú. Na tento účel takisto zabezpečia, aby sa týmto orgánom mohla sprístupniť technická dokumentácia.
6. Os importadores devem prestar às pertinentes autoridades competentes, mediante pedido fundamentado, todas as informações e documentação necessárias, inclusive as referidas no n.o 5, para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos na secção 2, numa língua que possa ser facilmente compreendida pelas autoridades. Para o efeito, asseguram igualmente que a documentação técnica possa ser disponibilizada a essas autoridades.
7. Dovozcovia spolupracujú s relevantnými príslušnými orgánmi pri každom opatrení, ktoré tieto orgány prijmú v súvislosti s vysokorizikovým systémom AI, ktorý dovozcovia uviedli na trh, najmä s cieľom znížiť a zmierniť riziká, ktoré takýto systém predstavuje.
7. Os importadores devem cooperar com as pertinentes autoridades competentes em todas as medidas que essas autoridades tomarem em relação a um sistema de IA de risco elevado colocados no mercado pelos importadores, nomeadamente para reduzir ou atenuar o risco colocado pelo sistema.
Článok 24
Artigo 24.o
Povinnosti distribútorov
Obrigações dos distribuidores
1. Pred sprístupnením vysokorizikového systému AI na trhu distribútori overia, či je tento systém označený požadovaným označením CE, či je k nemu pripojená kópia EÚ vyhlásenia o zhode uvedeného v článku 47 a návod na použitie a či si poskytovateľ tohto systému splnil svoje povinnosti stanovené v článku 16 písm. b) a c) a dovozca tohto systému svoje povinnosti stanovené v článku 23 ods. 3.
1. Antes de disponibilizarem um sistema de IA de risco elevado no mercado, os distribuidores devem verificar se o sistema de IA de risco elevado ostenta a marcação CE exigida, se está acompanhado de uma cópia da declaração UE de conformidade referida no artigo 47.o e das instruções de utilização e se o prestador e o importador desse sistema, consoante o caso, cumpriram as suas obrigações estabelecidas no artigo 16.o, alíneas b) e c) e no artigo 23.o, n.o 3.
2. Ak sa distribútor na základe informácií, ktoré má k dispozícii, domnieva alebo má dôvod domnievať sa, že vysokorizikový systém AI nie je v zhode s požiadavkami stanovenými v oddiele 2, tento vysokorizikový systém AI nesprístupní na trhu, kým sa tento systém neuvedie do súladu s uvedenými požiadavkami. Ak vysokorizikový systém AI navyše predstavuje riziko v zmysle článku 79 ods. 1, distribútor o tom informuje poskytovateľa alebo v relevantnom prípade dovozcu systému.
2. Se um distribuidor considerar ou tiver motivos para crer, com base nas informações que possui, que um sistema de IA de risco elevado não está em conformidade com os requisitos estabelecidos na secção 2, não pode disponibilizar esse sistema de IA de risco elevado no mercado enquanto não for reposta a conformidade com os referidos requisitos. Além disso, se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 79.o, n.o 1, o distribuidor deve informar desse facto o prestador ou o importador do sistema, conforme o caso.
3. Distribútori zabezpečia, aby v čase, keď nesú za vysokorizikový systém AI zodpovednosť, podmienky jeho uskladnenia alebo prepravy v relevantných prípadoch neohrozovali súlad systému s požiadavkami stanovenými v oddiele 2.
3. Enquanto um sistema de IA de risco elevado estiver sob a responsabilidade dos distribuidores, estes devem assegurar que as condições de armazenamento ou de transporte, se for caso disso, não prejudiquem a conformidade do sistema com os requisitos enunciados na secção 2.
4. Distribútor, ktorý sa na základe informácií, ktoré má k dispozícii, domnieva alebo má dôvod domnievať sa, že vysokorizikový systém AI, ktorý sprístupnil na trhu, nie je v zhode s požiadavkami stanovenými v oddiele 2, prijme nápravné opatrenia potrebné na dosiahnutie zhody tohto systému s uvedenými požiadavkami, na jeho stiahnutie z trhu alebo stiahnutie od používateľa, alebo zabezpečí, aby uvedené nápravné opatrenia prijal poskytovateľ, dovozca alebo v relevantnom prípade akýkoľvek relevantný prevádzkovateľ. Ak vysokorizikový systém AI predstavuje riziko v zmysle článku 79 ods. 1, distribútor o tom bezodkladne informuje poskytovateľa alebo dovozcu systému a orgány príslušné pre dotknutý vysokorizikový systém AI, pričom uvedie podrobnosti najmä o nedodržaní požiadaviek a o všetkých prijatých nápravných opatreniach.
4. Um distribuidor que considere ou tenha motivos para crer, com base nas informações que possui, que um sistema de IA de risco elevado que disponibilizou no mercado não está em conformidade com os requisitos estabelecidos na secção 2 deve tomar as medidas corretivas necessárias para repor a conformidade desse sistema com os referidos requisitos, proceder à retirada ou recolha do mesmo ou assegurar que o prestador, o importador ou qualquer operador envolvido, consoante o caso, tome essas medidas corretivas. Se um sistema de IA de risco elevado apresentar um risco na aceção do artigo 79.o, n.o 1, o distribuidor deve informar imediatamente desse facto o prestador ou o importador do sistema e as autoridades competentes para o sistema de IA de risco elevado em causa, apresentando dados, sobretudo no que se refere à não conformidade e às medidas corretivas tomadas.
5. Na základe odôvodnenej žiadosti relevantného príslušného orgánu distribútori vysokorizikového systému AI poskytnú tomuto orgánu všetky informácie a dokumentáciu o svojej činnosti podľa odsekov 1 až 4 potrebné na preukázanie zhody tohto systému s požiadavkami stanovenými v oddiele 2.
5. Mediante pedido fundamentado de uma pertinente autoridade competente, os distribuidores de um sistema de IA de risco elevado prestam a essa autoridade todas as informações e documentação relativas às suas atividades previstas nos n.os 1 a 4 que sejam necessárias para demonstrar a conformidade desse sistema com os requisitos estabelecidos na secção 2.
6. Distribútori spolupracujú s relevantnými príslušnými orgánmi pri každom opatrení, ktoré tieto orgány prijmú v súvislosti s vysokorizikovým systémom AI, ktorý distribútori sprístupnili na trhu, najmä s cieľom znížiť alebo zmierniť riziká, ktoré tento systém predstavuje.
6. Os distribuidores devem cooperar com as pertinentes autoridades competentes em todas as medidas que essas autoridades tomarem em relação a um sistema de IA de risco elevado disponibilizado no mercado pelos distribuidores, nomeadamente para reduzir ou atenuar o risco colocado pelo sistema.
Článok 25
Artigo 25.o
Povinnosti v celom hodnotovom reťazci AI
Responsabilidades ao longo da cadeia de valor da IA
1. Každý distribútor, dovozca, nasadzujúci subjekt alebo iná tretia strana sa na účely tohto nariadenia považuje za poskytovateľa vysokorizikového systému AI a vzťahujú sa na neho povinnosti poskytovateľa podľa článku 16 za ktorejkoľvek z týchto okolností:
1. Qualquer distribuidor, importador, responsável pela implantação ou outro terceiro é considerado um prestador de um sistema de IA de risco elevado para efeitos do presente regulamento e fica sujeito às obrigações dos prestadores estabelecidas no artigo 16.o em qualquer uma das seguintes circunstâncias:
a)
umiestnia svoje meno alebo ochrannú známku na vysokorizikový systém AI, ktorý už bol uvedený na trh alebo do prevádzky, bez toho, aby boli dotknuté zmluvné dojednania, v ktorých sa stanovuje, že povinnosti sú rozdelené inak;
a)
Se colocar o seu nome ou marca num sistema de IA de risco elevado já colocado no mercado ou colocado em serviço, sem prejuízo de disposições contratuais que estipulem uma atribuição diferente das obrigações;
b)
vykonajú podstatnú zmenu vysokorizikového systému AI, ktorý už bol uvedený na trh alebo už bol uvedený do prevádzky takým spôsobom, že zostáva vysokorizikovým systémom AI podľa článku 6;
b)
Se introduzir uma modificação substancial num sistema de IA de risco elevado que já tenha sido colocado no mercado ou colocado em serviço, de forma que o mesmo continue a ser um sistema de IA de risco elevado nos termos do artigo 6.o;
c)
menia zamýšľaný účel systému AI vrátane systému AI na všeobecné účely, ktorý nebol klasifikovaný ako vysokorizikový a už bol uvedený na trh alebo do prevádzky takým spôsobom, že sa z dotknutého systému AI stane vysokorizikový systém AI v súlade s článkom 6.
c)
Se modificar a finalidade prevista de um sistema de IA, incluindo um sistema de IA de finalidade geral, que não tenha sido classificado como sendo de risco elevado e que já tenha sido colocado no mercado ou colocado em serviço, de forma que o sistema de IA em causa se torne um sistema de IA de risco elevado nos termos do artigo 6.o.
2. Ak nastanú okolnosti uvedené v odseku 1, poskytovateľ, ktorý pôvodne uviedol systém AI na trh alebo do prevádzky, sa už na účely tohto nariadenia nepovažuje za poskytovateľa tohto konkrétneho systému AI. Tento pôvodný poskytovateľ úzko spolupracuje s novými poskytovateľmi a sprístupňuje potrebné informácie a poskytuje odôvodnene očakávaný technický prístup a inú pomoc, ktoré sú potrebné na plnenie povinností stanovených v tomto nariadení, najmä pokiaľ ide o súlad s posudzovaním zhody vysokorizikových systémov AI. Tento odsek sa neuplatňuje v prípadoch, keď pôvodný poskytovateľ jasne uviedol, že jeho systém AI sa nemá zmeniť na vysokorizikový systém AI, a preto sa naň nevzťahuje povinnosť odovzdať dokumentáciu.
2. Sempre que se verificarem as circunstâncias a que se refere o n.o 1, o prestador que inicialmente colocou no mercado ou colocou em serviço o sistema de IA deixa de ser considerado um prestador desse sistema de IA específico para efeitos do presente regulamento. Esse prestador inicial deve cooperar estreitamente com novos prestadores, disponibilizar as informações necessárias e facultar o acesso técnico e a assistência razoavelmente esperados e necessários para o cumprimento das obrigações estabelecidas no presente regulamento, em especial no que diz respeito ao cumprimento da avaliação da conformidade dos sistemas de IA de risco elevado. O presente número não se aplica nos casos em que o prestador inicial tenha especificado claramente que o seu sistema de IA não deve ser alterado para um sistema de IA de risco elevado, não estando assim sujeito à obrigação de entregar a documentação.
3. V prípade vysokorizikových systémov AI, ktoré sú bezpečnostnými komponentmi výrobkov, na ktoré sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I oddiele A, sa výrobca týchto výrobkov považuje za poskytovateľa vysokorizikového systému AI a podlieha povinnostiam podľa článku 16 za ktorejkoľvek z týchto okolností:
3. No caso dos sistemas de IA de risco elevado que sejam componentes de segurança de produtos abrangidos pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção A, o fabricante desses produtos é considerado o prestador do sistema de IA de risco elevado e fica sujeito às obrigações estabelecidas no artigo 16.o, caso se verifique uma das seguintes circunstâncias:
a)
vysokorizikový systém AI sa uvádza na trh spolu s výrobkom pod menom alebo ochrannou známkou výrobcu výrobku;
a)
O sistema de IA de risco elevado é colocado no mercado juntamente com o produto sob o nome ou marca do fabricante do produto;
b)
vysokorizikový systém AI sa po uvedení výrobku na trh uvedie do prevádzky pod menom alebo ochrannou známkou výrobcu výrobku.
b)
O sistema de IA de risco elevado é colocado em serviço sob o nome ou marca do fabricante do produto, depois de o produto ter sido colocado no mercado.
4. Poskytovateľ vysokorizikového systému AI a tretia strana, ktorá dodáva systém AI, nástroje, služby, komponenty alebo procesy AI, ktoré sa používajú alebo sú integrované vo vysokorizikovom systéme AI, prostredníctvom písomnej dohody spresnia potrebné informácie, spôsobilosti, technický prístup a inú pomoc na základe všeobecne uznávaného aktuálneho stavu vývoja, aby poskytovateľ vysokorizikového systému AI mohol v plnej miere plniť povinnosti stanovené v tomto nariadení. Tento odsek sa nevzťahuje na tretie strany, ktoré sprístupňujú verejnosti nástroje, služby, procesy alebo komponenty, ktoré nie sú modelmi AI na všeobecné účely, na základe bezplatnej licencie s otvoreným zdrojovým kódom.
4. O prestador de um sistema de IA de risco elevado e o terceiro que disponibilize um sistema de IA, ferramentas, serviços, componentes ou processos que sejam utilizados ou integrados num sistema de IA de risco elevado devem, mediante acordo escrito, especificar as informações necessárias, as capacidades, o acesso técnico e demais assistência, com base no estado da arte geralmente reconhecido, a fim de permitir que o prestador do sistema de IA de risco elevado cumpra plenamente as obrigações estabelecidas no presente regulamento. O presente número não se aplica a terceiros que disponibilizem ao público ferramentas, serviços, processos ou componentes que não sejam modelos de IA de finalidade geral, ao abrigo de uma licença gratuita e aberta.
Úrad pre AI môže vypracovať a odporučiť nezáväzné vzorové podmienky zmlúv medzi poskytovateľmi vysokorizikových systémov AI a tretími stranami, ktoré dodávajú nástroje, služby, komponenty alebo procesy, ktoré sa používajú alebo sú integrované vo vysokorizikových systémoch AI. Úrad pre AI by mal pri vypracúvaní týchto nezáväzných vzorových podmienok zohľadniť možné zmluvné požiadavky uplatniteľné v konkrétnych odvetviach alebo obchodných prípadoch. Nezáväzné vzorové podmienky sa uverejnia a bezplatne sprístupnia v ľahko použiteľnom elektronickom formáte.
O Serviço para a IA pode desenvolver e recomendar modelos de cláusulas contratuais voluntários entre prestadores de sistemas de IA de risco elevado e terceiros que disponibilizem ferramentas, serviços, componentes ou processos utilizados ou integrados em sistemas de IA de risco elevado. Ao elaborar esses modelos de cláusulas voluntários, o Serviço para a IA deve ter em conta eventuais requisitos contratuais aplicáveis em setores ou casos comerciais específicos. Os modelos de cláusulas voluntários devem ser publicados e disponibilizados gratuitamente num formato eletrónico facilmente utilizável.
5. Odsekmi 2 a 3 nie je dotknutá potreba dodržiavať a chrániť práva duševného vlastníctva, dôverné obchodné informácie a obchodné tajomstvo v súlade s právom Únie a vnútroštátnym právom.
5. Os n.os 2 e 3 não prejudicam a necessidade de respeitar e proteger os direitos de propriedade intelectual, as informações comerciais de caráter confidencial e os segredos comerciais, em conformidade com o direito da União e o direito nacional.
Článok 26
Artigo 26.o
Povinnosti subjektov nasadzujúcich vysokorizikové systémy AI
Obrigações dos responsáveis pela implantação de sistemas de IA de risco elevado
1. Subjekty nasadzujúce vysokorizikové systémy AI prijmú vhodné technické a organizačné opatrenia s cieľom zabezpečiť, aby používali takéto systémy v súlade s návodom na použitie, ktorý je k nim priložený, a to podľa odsekov 3 a 6.
1. Os responsáveis pela implantação de sistemas de IA de risco elevado devem tomar medidas técnicas e organizativas adequadas para garantir que utilizam esses sistemas de acordo com as instruções de utilização que os acompanham, nos termos dos n.os 3 e 6.
2. Nasadzujúce subjekty pridelia ľudský dohľad fyzickým osobám, ktoré majú potrebnú spôsobilosť, odbornú prípravu a právomoci, ako aj nevyhnutnú podporu.
2. Os responsáveis pela implantação devem atribuir a supervisão humana a pessoas singulares que possuam as competências, a formação e a autoridade necessárias, bem como o apoio necessário.
3. Povinnosťami uvedenými v odsekoch 1 a 2 nie sú dotknuté iné povinnosti nasadzujúceho subjektu vyplývajúce z práva Únie alebo vnútroštátneho práva ani slobodné rozhodovanie nasadzujúceho subjektu pri organizovaní svojich vlastných zdrojov a činností na účely vykonávania opatrení na zabezpečenie ľudského dohľadu, ako ich uviedol poskytovateľ.
3. As obrigações estabelecidas nos n.os 1 e 2 não excluem outras obrigações do responsável pela implantação previstas no direito da União ou no direito nacional nem prejudicam a liberdade do responsável pela implantação para organizar os seus próprios recursos e atividades para efeitos de aplicação das medidas de supervisão humana indicadas pelo prestador.
4. Bez toho, aby boli dotknuté odseky 1 a 2, a pokiaľ má nasadzujúci subjekt kontrolu nad vstupnými údajmi, tento nasadzujúci subjekt zabezpečí, aby vstupné údaje boli relevantné a dostatočne reprezentatívne z hľadiska zamýšľaného účelu vysokorizikového systému AI.
4. Sem prejuízo do disposto nos n.os 1 e 2, na medida em que o responsável pela implantação exercer controlo sobre os dados de entrada, deve assegurar que os dados de entrada sejam pertinentes e suficientemente representativos tendo em vista a finalidade prevista do sistema de IA de risco elevado.
5. Nasadzujúce subjekty monitorujú prevádzku vysokorizikového systému AI na základe návodu na použitie, a ak je to relevantné, informujú poskytovateľov v súlade s článkom 72. Ak majú nasadzujúce subjekty dôvod domnievať sa, že používanie vysokorizikového systému AI v súlade s návodom môže viesť k tomu, že uvedený systém AI predstavuje riziko v zmysle článku 79 ods. 1, bez zbytočného odkladu informujú poskytovateľa alebo distribútora a relevantný orgán dohľadu nad trhom a používanie tohto systému pozastavia. Ak nasadzujúce subjekty zistia závažný incident, bezodkladne o tom najprv informujú poskytovateľa a potom dovozcu alebo distribútora a príslušné orgány dohľadu nad trhom. V prípade, že nasadzujúci subjekt nedokáže poskytovateľa kontaktovať, uplatňuje sa mutatis mutandis článok 73. Táto povinnosť sa nevzťahuje na citlivé operačné údaje subjektov nasadzujúcich systémy AI, ktoré sú orgánmi presadzovania práva.
5. Os responsáveis pela implantação devem controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização e, se for caso disso, informam os prestadores em conformidade com o artigo 72.o. Se os responsáveis pela implantação tiverem motivos para considerar que a utilização do sistema de IA de risco elevado de acordo com as instruções pode conduzir a que aquele sistema de IA represente um risco na aceção do artigo 79.o, n.o 1, devem informar, sem demora injustificada, o prestador ou distribuidor e a autoridade de fiscalização do mercado competente e suspender a utilização do sistema. Sempre que os responsáveis pela implantação tenham identificado um incidente grave, devem também informar imediatamente desse incidente, em primeiro lugar, o prestador e, em seguida, o importador ou distribuidor e as autoridades de fiscalização do mercado competentes. Se o responsável pela implantação não conseguir entrar em contacto com o prestador, aplica-se, mutatis mutandis, o artigo 73.o. Esta obrigação não abrange os dados operacionais sensíveis dos responsáveis pela implantação de sistemas de IA que sejam autoridades responsáveis pela aplicação da lei.
V prípade nasadzujúcich subjektov, ktoré sú finančnými inštitúciami, na ktoré sa vzťahujú požiadavky týkajúce sa ich vnútornej správy a riadenia, dojednaní alebo postupov podľa práva Únie v oblasti finančných služieb, sa monitorovacia povinnosť stanovená v prvom pododseku považuje za splnenú, ak sú dodržané pravidlá týkajúce sa vnútornej správy a riadenia, postupov a mechanizmov podľa príslušného práva v oblasti finančných služieb.
Para os responsáveis pela implantação que sejam instituições financeiras sujeitas a requisitos em matéria de governação, mecanismos ou processos internos nos termos do direito da União no domínio dos serviços financeiros, considera-se que a obrigação de controlo estabelecida no primeiro parágrafo é satisfeita mediante o cumprimento das regras em matéria de governação, mecanismos ou processos internos nos termos da legislação aplicável no domínio dos serviços financeiros.
6. Subjekty nasadzujúce vysokorizikové systémy AI uchovávajú logy automaticky generované týmto vysokorizikovým systémom AI, pokiaľ sú takéto logy pod ich kontrolou, počas obdobia primeraného zamýšľanému účelu vysokorizikového systému AI, a to najmenej šesť mesiacov, ak sa v uplatniteľnom práve Únie alebo vo vnútroštátnom práve, najmä v práve Únie o ochrane osobných údajov nestanovuje inak.
6. Os responsáveis pela implantação de sistemas de IA de risco elevado devem manter os registos gerados automaticamente por esse sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo, por um período adequado à finalidade prevista do sistema de IA de risco elevado, de pelo menos seis meses, salvo disposição em contrário no direito da União ou no direito nacional aplicável, em especial no direito da União em matéria de proteção de dados pessoais.
Nasadzujúce subjekty, ktoré sú finančnými inštitúciami, a na ktoré sa vzťahujú požiadavky týkajúce sa ich vnútornej správy a riadenia, dojednaní alebo postupov podľa práva Únie v oblasti finančných služieb, uchovávajú logy ako súčasť dokumentácie uchovávanej v súlade s príslušným právom Únie v oblasti finančných služieb.
Os responsáveis pela implantação que sejam instituições financeiras sujeitas a requisitos em matéria de governação, mecanismos ou processos internos nos termos do direito da União no domínio dos serviços financeiros devem manter os registos como parte da documentação conservada nos termos do direito da União aplicável no domínio dos serviços financeiros.
7. Pred uvedením vysokorizikového systému AI do prevádzky alebo používaním na pracovisku nasadzujúce subjekty, ktoré sú zamestnávateľmi, informujú zástupcov pracovníkov a dotknutých pracovníkov o tom, že budú vystavení používaniu vysokorizikového systému AI. Tieto informácie sa v uplatniteľných prípadoch poskytujú v súlade s pravidlami a postupmi stanovenými v práve Únie a vo vnútroštátnom práve a praxi v oblasti informovania pracovníkov a ich zástupcov.
7. Antes da colocação em serviço ou da utilização de um sistema de IA de risco elevado no local de trabalho, os responsáveis pela implantação que sejam empregadores devem informar os representantes dos trabalhadores e os trabalhadores afetados de que estarão sujeitos à utilização do sistema de IA de risco elevado. Essas informações devem ser prestadas, se for o caso, em conformidade com as regras e os procedimentos estabelecidos na legislação e nas práticas da União e nacionais em matéria de informação dos trabalhadores e dos seus representantes.
8. Subjekty nasadzujúce vysokorizikové systémy AI, ktoré sú orgánmi verejnej moci alebo inštitúciami, orgánmi, úradmi alebo agentúrami Únie, plnia povinnosti týkajúce sa registrácie uvedené v článku 49. Ak nasadzujúce subjekty zistia, že vysokorizikový systém AI, ktorý plánujú používať, nebol zaregistrovaný v databáze Únie uvedenej v článku 71, nepoužívajú tento systém a informujú o tom poskytovateľa alebo distribútora.
8. Os responsáveis pela implantação de sistemas de IA de risco elevado que sejam autoridades públicas ou instituições, órgãos ou organismos da União devem cumprir as obrigações de registo referidas no artigo 49.o. Se esses responsáveis pela implantação verificarem que o sistema de IA de risco elevado que tencionam utilizar não foi registado na base de dados da UE a que se refere o artigo 71.o, não podem utilizar esse sistema e devem informar o prestador ou o distribuidor.
9. Na splnenie svojej povinnosti vykonať posúdenie vplyvu na ochranu údajov podľa článku 35 nariadenia (EÚ) 2016/679 alebo článku 27 smernice (EÚ) 2016/680 subjekty nasadzujúce vysokorizikové systémy AI podľa okolností využijú informácie poskytnuté podľa článku 13 tohto nariadenia.
9. Se for o caso, os responsáveis pela implantação de sistemas de IA de risco elevado devem usar as informações recebidas nos termos do artigo 13.o do presente regulamento para cumprirem a sua obrigação de realizar uma avaliação de impacto sobre a proteção de dados nos termos do artigo 35.o do Regulamento (UE) 2016/679 ou do artigo 27.o da Diretiva (UE) 2016/680.
10. Bez toho, aby bola dotknutá smernica (EÚ) 2016/680, subjekt nasadzujúci vysokorizikový systém AI na účely následnej diaľkovej biometrickej identifikácie v rámci vyšetrovania v prípade cieleného pátrania po osobe podozrivej zo spáchania trestného činu alebo z tohto dôvodu odsúdenej požiada ex ante alebo bez zbytočného odkladu a najneskôr do 48 hodín o povolenie justičného orgánu alebo správneho orgánu, ktorého rozhodnutie je záväzné a podlieha súdnemu preskúmaniu, o použitie tohto systému, s výnimkou prípadov, keď sa systém používa na počiatočnú identifikáciu potenciálnej podozrivej osoby na základe objektívnych a overiteľných skutočností priamo súvisiacich s trestným činom. Každé použitie sa obmedzuje na to, čo je nevyhnutne potrebné na vyšetrovanie konkrétneho trestného činu.
10. Sem prejuízo da Diretiva (UE) 2016/680, no âmbito de uma investigação seletiva de uma pessoa suspeita ou condenada por ter cometido uma infração penal, o responsável pela implantação de um sistema de IA de risco elevado destinado à identificação biométrica à distância em diferido deve solicitar uma autorização, prévia ou sem demora injustificada e no prazo máximo de 48 horas, a uma autoridade judiciária ou uma autoridade administrativa cuja decisão seja vinculativa e esteja sujeita a controlo jurisdicional, para a utilização desse sistema, exceto quando este seja utilizado para a identificação inicial de um potencial suspeito com base em factos objetivos e verificáveis diretamente relacionados com a infração. Cada utilização deve limitar-se ao estritamente necessário para a investigação de uma infração penal específica.
Ak sa povolenie požadované podľa prvého pododseku zamietne, používanie systému následnej diaľkovej biometrickej identifikácie súvisiace s týmto požadovaným povolením sa s okamžitou účinnosťou zastaví a osobné údaje súvisiace s používaním vysokorizikového systému AI, pre ktoré sa povolenie žiadalo, sa vymažú.
Se a autorização solicitada nos termos do primeiro parágrafo for rejeitada, a utilização do sistema de identificação biométrica à distância em diferido associado a essa autorização solicitada deve ser interrompida com efeitos imediatos e os dados pessoais relacionados com a utilização do sistema de IA de risco elevado para o qual a autorização foi solicitada devem ser apagados.
Takýto vysokorizikový systém AI na následnú diaľkovú biometrickú identifikáciu sa v žiadnom prípade nepoužíva na účely presadzovania práva necieleným spôsobom, bez akejkoľvek súvislosti s trestným činom, trestným konaním, skutočnou a existujúcou alebo skutočnou a predvídateľnou hrozbou trestného činu alebo pátraním po konkrétnej nezvestnej osobe. Zabezpečí sa, aby orgány presadzovania práva nemohli prijať žiadne rozhodnutie, ktoré má nepriaznivé právne účinky na danú osobu, a to výlučne na základe výstupu takýchto systémov následnej diaľkovej biometrickej identifikácie.
Em nenhuma circunstância esse sistema de IA de risco elevado destinado à identificação biométrica à distância em diferido pode ser utilizado para fins de aplicação da lei de forma não seletiva, sem qualquer ligação a uma infração penal, a um processo penal, a uma ameaça real e presente ou real e previsível de uma infração penal ou à busca de uma determinada pessoa desaparecida. Deve garantir-se que nenhuma decisão que produza efeitos jurídicos prejudiciais a uma pessoa possa ser tomada pelas autoridades responsáveis pela aplicação da lei exclusivamente com base nos resultados destes sistemas de identificação biométrica à distância em diferido.
Týmto odsekom nie je dotknutý článok 9 nariadenia (EÚ) 2016/679 a článok 10 smernice (EÚ) 2016/680 týkajúce sa spracúvania biometrických údajov.
O presente número não prejudica o artigo 9.o do Regulamento (UE) 2016/679 nem o artigo 10.o da Diretiva (UE) 2016/680 no que diz respeito ao tratamento de dados biométricos.
Bez ohľadu na účel alebo nasadzujúci subjekt sa každé použitie týchto vysokorizikových systémov AI zdokumentuje v príslušnom policajnom spise a na požiadanie sa sprístupní relevantnému orgánu dohľadu nad trhom a vnútroštátnemu orgánu pre ochranu údajov, s výnimkou zverejnenia citlivých operačných údajov týkajúcich sa presadzovania práva. Týmto pododsekom nie sú dotknuté právomoci, ktoré sa smernicou (EÚ) 2016/680 udeľujú orgánom dohľadu.
Independentemente da finalidade ou do responsável pela implantação, cada utilização destes sistemas de IA de risco elevado deve ser registada na documentação policial pertinente e disponibilizada à autoridade de fiscalização do mercado competente e à autoridade nacional de proteção de dados, mediante pedido, excluindo a divulgação de dados operacionais sensíveis relacionados com a aplicação da lei. O presente parágrafo não prejudica os poderes conferidos pela Diretiva (UE) 2016/680 às autoridades de controlo.
Nasadzujúce subjekty predkladajú relevantným orgánom dohľadu nad trhom a vnútroštátnym orgánom pre ochranu údajov výročné správy o ich používaní systémov následnej diaľkovej biometrickej identifikácie s výnimkou zverejňovania citlivých operačných údajov týkajúcich sa presadzovania práva. Správy možno agregovať tak, aby zahŕňali viac ako len jedno nasadenie.
Os responsáveis pela implantação devem apresentar relatórios anuais às autoridades nacionais de fiscalização do mercado e às autoridades nacionais de proteção de dados competentes sobre a utilização que dão dos sistemas de identificação biométrica à distância em diferido, excluindo a divulgação de dados operacionais sensíveis relacionados com a aplicação da lei. Os relatórios podem ser agregados para abranger mais do que uma implantação.
Členské štáty môžu v súlade s právom Únie zaviesť prísnejšie právne predpisy pre používanie systémov následnej diaľkovej biometrickej identifikácie.
Os Estados-Membros podem introduzir, em conformidade com o direito da União, legislação mais restritiva sobre a utilização de sistemas de identificação biométrica à distância em diferido.
11. Bez toho, aby bol dotknutý článok 50 tohto nariadenia, subjekty nasadzujúce vysokorizikové systémy AI uvedené v prílohe III, ktoré prijímajú rozhodnutia alebo pomáhajú pri prijímaní rozhodnutí týkajúcich sa fyzických osôb, informujú tieto fyzické osoby o tom, že sa na ne vzťahuje používanie vysokorizikového systému AI. Na vysokorizikové systémy AI používané na účely presadzovania práva sa uplatňuje článok 13 smernice (EÚ) 2016/680.
11. Sem prejuízo do artigo 50.o do presente regulamento, os responsáveis pela implantação de sistemas de IA de risco elevado referidos no anexo III, que tomam decisões ou ajudam a tomar decisões relacionadas com pessoas singulares, devem informar as pessoas singulares de que estão sujeitas à utilização do sistema de IA de risco elevado. Para os sistemas de IA de risco elevado utilizados para fins de aplicação da lei, aplica-se o artigo 13.o da Diretiva (UE) 2016/680.
12. Nasadzujúce subjekty spolupracujú s relevantnými príslušnými orgánmi na každom opatrení, ktoré tieto orgány prijmú v súvislosti s vysokorizikovým systémom AI s cieľom vykonávať toto nariadenie.
12. Os responsáveis pela implantação devem cooperar com as autoridades competentes em todas as medidas que essas autoridades tomarem em relação a um sistema de IA de risco elevado, a fim de aplicar o presente regulamento.
Článok 27
Artigo 27.o
Posúdenie vplyvu na základné práva v prípade vysokorizikových systémov AI
Avaliação de impacto dos sistemas de IA de risco elevado sobre os direitos fundamentais
1. Pred nasadením vysokorizikového systému AI uvedeného v článku 6 ods. 2, s výnimkou vysokorizikových systémov AI určených na používanie v oblasti uvedenej v prílohe III bode 2, nasadzujúce subjekty, ktoré sú verejnoprávnymi orgánmi alebo súkromnými subjektmi poskytujúcimi verejné služby, a subjekty nasadzujúce vysokorizikové systémy AI uvedené v prílohe III bode 5 písm. b) a c) vykonajú posúdenie vplyvu na základné práva, ktorý môže mať použitie takéhoto systému. Na tento účel vykonajú nasadzujúce subjekty posúdenie, ktoré zahŕňa:
1. Antes de implementarem um sistema de IA de risco elevado a que se refere o artigo 6.o, n.o 2, à exceção dos sistemas de IA de risco elevado destinados a ser utilizados nos domínios enumerados no anexo III, ponto 2, os responsáveis pela implantação que sejam organismos de direito público, ou entidades privadas que prestam serviços públicos e responsáveis pela implantação de sistemas de IA de risco elevado a que se refere o anexo III, ponto 5, alíneas b) e c), devem executar uma avaliação do impacto que a utilização desse sistema possa ter nos direitos fundamentais. Para o efeito, os responsáveis pela implantação executam uma avaliação que inclua:
a)
opis procesov nasadzujúceho subjektu, v ktorých sa bude vysokorizikový systém AI používať v súlade s jeho zamýšľaným účelom;
a)
Uma descrição dos processos do responsável pela implantação em que o sistema de IA de risco elevado seja utilizado de acordo com a sua finalidade prevista;
b)
opis časového úseku a frekvencie, v ktorých sa má každý vysokorizikový systém AI používať;
b)
Uma descrição do período em que o sistema de IA de risco elevado se destina a ser utilizado e com que frequência;
c)
kategórie fyzických osôb a skupín, ktoré pravdepodobne budú ovplyvnené jeho používaním v konkrétnom kontexte;
c)
As categorias de pessoas singulares e grupos suscetíveis de serem afetados no contexto específico de utilização do sistema;
d)
konkrétne riziká ujmy, ktoré pravdepodobne ovplyvnia kategórie fyzických osôb alebo skupín osôb identifikovaných podľa písmena c) tohto odseku s prihliadnutím na informácie od poskytovateľa podľa článku 13;
d)
Os riscos específicos de danos suscetíveis de terem impacto nas categorias de pessoas singulares ou grupos de pessoas identificadas nos termos da alínea c) do presente número, tendo em conta as informações facultadas pelo prestador nos termos do artigo 13.o;
e)
opis vykonávania opatrení v oblasti ľudského dohľadu podľa návodu na použitie;
e)
Uma descrição da aplicação das medidas de supervisão humana de acordo com as instruções de utilização;
f)
opatrenia, ktoré sa majú prijať v prípade naplnenia týchto rizík, vrátane opatrení zameraných na vnútorné správu a riadenie a mechanizmy riešenia sťažností.
f)
As medidas a tomar caso esses riscos se materializem, incluindo as disposições relativas à governação interna e aos mecanismos de apresentação de queixas.
2. Povinnosť uvedená v odseku 1 sa vzťahuje na prvé použitie vysokorizikového systému AI. Nasadzujúci subjekt sa môže v podobných prípadoch odvolávať na predtým vykonané posúdenie vplyvu na základné práva alebo na existujúce posúdenie vplyvu, ktoré vykonal poskytovateľ. Ak sa počas používania vysokorizikového systému AI nasadzujúci subjekt domnieva, že sa ktorýkoľvek z prvkov uvedených v odseku 1 zmenil alebo už nie je aktuálny, podnikne kroky potrebné na aktualizáciu informácií.
2. A obrigação estabelecida no n.o 1 aplica-se à primeira utilização do sistema de IA de risco elevado. O responsável pela implantação pode, em casos semelhantes, basear-se em avaliações de impacto sobre os direitos fundamentais efetuadas anteriormente ou em avaliações de impacto existentes realizadas pelo prestador. Se, durante a utilização do sistema de IA de risco elevado, o responsável pela implantação considerar que algum dos elementos enumerados no n.o 1 se alterou ou deixou de estar atualizado, deve tomar as medidas necessárias para atualizar as informações.
3. Po vykonaní posúdenia vplyvu uvedeného v odseku 1 tohto článku nasadzujúci subjekt notifikuje orgán dohľadu nad trhom o výsledkoch, pričom ako súčasť notifikácie predloží vyplnený vzor uvedený v odseku 5 tohto článku. V prípade uvedenom v článku 46 ods. 1 môžu byť nasadzujúce subjekty oslobodené od notifikačnej povinnosti.
3. Uma vez realizada a avaliação de impacto a que se refere o n.o 1 do presente artigo, o responsável pela implantação deve notificar a autoridade de fiscalização do mercado dos resultados da avaliação, apresentando o modelo preenchido a que se refere o n.o 5 do presente artigo como parte da notificação. No caso referido no artigo 46.o, n.o 1, os responsáveis pela implantação podem ser dispensados desta obrigação de notificação.
4. Ak je ktorákoľvek z povinností stanovených v tomto článku už splnená prostredníctvom posúdenia vplyvu na ochranu údajov vykonaného podľa článku 35 nariadenia (EÚ) 2016/679 alebo článku 27 smernice (EÚ) 2016/680, posúdenie vplyvu na základné práva uvedené v odseku 1 tohto článku doplní toto posúdenie vplyvu na ochranu údajov.
4. Se alguma das obrigações previstas no presente artigo já tiver sido cumprida através da avaliação de impacto sobre a proteção de dados realizada nos termos do artigo 35.o do Regulamento (UE) 2016/679 ou do artigo 27.o da Diretiva (UE) 2016/680, a avaliação de impacto sobre os direitos fundamentais a que se refere o n.o 1 do presente artigo deve complementar essa avaliação de impacto sobre a proteção de dados.
5. Úrad pre AI vypracuje vzor dotazníka, a to aj prostredníctvom automatizovaného nástroja, s cieľom uľahčiť nasadzujúcim subjektom plnenie ich povinností podľa tohto článku zjednodušeným spôsobom.
5. O Serviço para a IA deve desenvolver um modelo para um questionário, nomeadamente através de um sistema automatizado, a fim de facilitar aos responsáveis pela implantação o cumprimento simplificado das obrigações do presente artigo.
ODDIEL 4
SECÇÃO 4
Notifikujúce orgány a notifikované osoby
Autoridades notificadoras e organismos notificados
Článok 28
Artigo 28.o
Notifikujúce orgány
Autoridades notificadoras
1. Každý členský štát určí alebo zriadi aspoň jeden notifikujúci orgán, ktorý je zodpovedný za stanovenie a vykonávanie potrebných postupov na hodnotenie, určovanie a notifikáciu orgánov posudzovania zhody a ich monitorovanie. Tieto postupy sa vypracujú v rámci spolupráce medzi notifikujúcimi orgánmi všetkých členských štátov.
1. Cada Estado-Membro deve designar ou criar pelo menos uma autoridade notificadora responsável por estabelecer e executar os procedimentos necessários para a avaliação, a designação e a notificação de organismos de avaliação da conformidade e por fiscalizar esses organismos. Esses procedimentos devem ser desenvolvidos através da cooperação entre as autoridades notificadoras de todos os Estados-Membros.
2. Členské štáty môžu rozhodnúť, že posudzovanie a monitorovanie uvedené v odseku 1 má vykonať vnútroštátny akreditačný orgán v zmysle nariadenia (ES) č. 765/2008 a v súlade s ním.
2. Os Estados-Membros podem decidir que a avaliação e a fiscalização a que se refere o n.o 1 sejam efetuados por um organismo nacional de acreditação, na aceção e nos termos do Regulamento (CE) n.o 765/2008.
3. Notifikujúce orgány sa zriaďujú, organizujú a prevádzkujú takým spôsobom, aby nevznikol konflikt záujmov s orgánmi posudzovania zhody a aby bola zaručená objektívnosť a nestrannosť ich činnosti.
3. As autoridades notificadoras devem ser criadas, estar organizadas e funcionar de modo a garantir a ausência de conflitos de interesses com os organismos de avaliação da conformidade e a objetividade e imparcialidade das suas atividades.
4. Notifikujúce orgány majú takú organizačnú štruktúru, aby rozhodnutia týkajúce sa notifikácie orgánov posudzovania zhody prijímali iné odborne spôsobilé osoby ako osoby, ktoré vykonali posudzovanie týchto orgánov.
4. As autoridades notificadoras devem estar organizadas de maneira que as decisões relativas à notificação dos organismos de avaliação da conformidade sejam tomadas por pessoas competentes diferentes daquelas que realizaram a avaliação desses organismos.
5. Notifikujúce orgány neponúkajú ani neposkytujú žiadne činnosti, ktoré vykonávajú orgány posudzovania zhody, ani žiadne poradenské služby na komerčnom alebo konkurenčnom základe.
5. As autoridades notificadoras não podem propor ou exercer qualquer atividade que seja da competência dos organismos de avaliação da conformidade, nem propor ou prestar quaisquer serviços de consultoria com caráter comercial ou em regime de concorrência.
6. Notifikujúce orgány zabezpečia v súlade s článkom 78 dôvernosť informácií, ktoré získajú.
6. As autoridades notificadoras devem proteger a confidencialidade das informações que obtêm, em conformidade com o artigo 78.o.
7. Notifikujúce orgány musia mať na riadne vykonávanie svojich úloh k dispozícii primeraný počet odborne spôsobilých zamestnancov. Odborne spôsobilí zamestnanci musia mať v relevantných prípadoch na svoju funkciu potrebné odborné znalosti v oblastiach, ako sú informačné technológie, AI a právo vrátane dohľadu nad základnými právami.
7. As autoridades notificadoras devem dispor de recursos humanos com competência técnica em número adequado para o correto desempenho das suas funções. O pessoal com competência técnica deve dispor dos conhecimentos especializados necessários, consoante o caso, para o exercício das suas funções, em domínios como as tecnologias da informação, a IA e o direito, incluindo a supervisão dos direitos fundamentais.
Článok 29
Artigo 29.o
Žiadosť orgánu posudzovania zhody o notifikáciu
Apresentação de pedido de notificação por um organismo de avaliação da conformidade
1. Žiadosť o notifikáciu predkladajú orgány posudzovania zhody notifikujúcemu orgánu členského štátu, v ktorom sú usadené.
1. Os organismos de avaliação da conformidade devem apresentar um pedido de notificação à autoridade notificadora do Estado-Membro onde se encontram estabelecidos.
2. K žiadosti o notifikáciu sa prikladá opis činností posudzovania zhody, modulu alebo modulov posudzovania zhody a typov systémov AI, vo vzťahu ku ktorým orgán posudzovania zhody tvrdí, že je odborne spôsobilý, ako aj osvedčenie o akreditácii, ak existuje, vydané vnútroštátnym akreditačným orgánom, ktorým sa potvrdzuje, že orgán posudzovania zhody spĺňa požiadavky stanovené v článku 31.
2. O pedido de notificação deve ser acompanhado de uma descrição das atividades de avaliação da conformidade, do módulo ou dos módulos de avaliação da conformidade e dos tipos de sistemas de IA em relação aos quais o organismo de avaliação da conformidade se considera competente, bem como de um certificado de acreditação, se existir, emitido por um organismo nacional de acreditação, que ateste que o organismo de avaliação da conformidade cumpre os requisitos estabelecidos no artigo 31.o.
Priložia sa všetky platné dokumenty týkajúce sa existujúcich prípadov, v ktorých bola žiadajúca notifikovaná osoba určená podľa iných harmonizačných právnych predpisov Únie.
Deve ser igualmente anexado qualquer documento válido relacionado com designações vigentes do organismo notificado requerente ao abrigo de qualquer outra legislação de harmonização da União.
3. Ak dotknutý orgán posudzovania zhody nemôže poskytnúť osvedčenie o akreditácii, poskytne notifikujúcemu orgánu všetky písomné doklady, ktoré sú potrebné na overenie, uznanie a pravidelné monitorovanie plnenia požiadaviek stanovených v článku 31 z jeho strany.
3. Se não lhe for possível apresentar o certificado de acreditação, o organismo de avaliação da conformidade deve apresentar à autoridade notificadora todas as provas documentais necessárias à verificação, ao reconhecimento e ao controlo regular da sua conformidade com os requisitos estabelecidos no artigo 31.o.
4. V prípade notifikovaných osôb, ktoré boli určené podľa iných harmonizačných právnych predpisov Únie, sa ako podklady pre postup ich určenia podľa tohto nariadenia môžu podľa potreby použiť všetky dokumenty a osvedčenia súvisiace s týmito určeniami. Notifikovaná osoba aktualizuje dokumentáciu uvedenú v odsekoch 2 a 3 tohto článku vždy, keď dôjde k relevantným zmenám, aby orgán zodpovedný za notifikované osoby mohol monitorovať a overovať priebežné dodržiavanie všetkých požiadaviek stanovených v článku 31.
4. Em relação aos organismos notificados designados ao abrigo de qualquer outra legislação de harmonização da União, todos os documentos e certificados associados a essas designações podem ser usados para fundamentar o seu processo de designação nos termos do presente regulamento, consoante adequado. O organismo notificado deve atualizar a documentação a que se referem os n.os 2 e 3 do presente artigo sempre que ocorram alterações pertinentes, a fim de permitir que a autoridade responsável pelos organismos notificados controle e verifique o cumprimento permanente de todos os requisitos estabelecidos no artigo 31.o.
Článok 30
Artigo 30.o
Notifikačný postup
Procedimento de notificação
1. Notifikujúce orgány môžu notifikovať iba orgány posudzovania zhody, ktoré splnili požiadavky stanovené v článku 31.
1. As autoridades notificadoras apenas podem notificar os organismos de avaliação da conformidade que cumpram os requisitos previstos no artigo 31.o.
2. Notifikujúce orgány prostredníctvom elektronického notifikačného nástroja vyvinutého a spravovaného Komisiou oznamujú Komisii a ostatným členským štátom každý orgán posudzovania zhody uvedený v odseku 1.
2. As autoridades notificadoras devem notificar a Comissão e os restantes Estados-Membros sobre cada organismo de avaliação da conformidade a que se refere o n.o 1 utilizando o instrumento de notificação eletrónica criado e gerido pela Comissão.
3. Notifikácia uvedená v odseku 2 tohto článku obsahuje všetky podrobnosti o činnostiach posudzovania zhody, module alebo moduloch posudzovania zhody, typoch dotknutých systémov AI a príslušné potvrdenie odbornej spôsobilosti. Ak sa notifikácia nezakladá na osvedčení o akreditácii uvedenom v článku 29 ods. 2, notifikujúci orgán poskytne Komisii a ostatným členským štátom písomné doklady potvrdzujúce odbornú spôsobilosť orgánu posudzovania zhody a zavedené opatrenia s cieľom zabezpečiť, aby bol tento orgán pravidelne monitorovaný a naďalej spĺňal požiadavky stanovené v článku 31.
3. A notificação a que se refere o n.o 2 do presente artigo deve incluir informações pormenorizadas sobre as atividades de avaliação da conformidade, o módulo ou módulos de avaliação da conformidade, os tipos de sistemas de IA em causa, e a declaração de competência pertinente. Caso a notificação não se baseie no certificado de acreditação a que se refere o artigo 29.o, n.o 2, a autoridade notificadora deve apresentar à Comissão e aos outros Estados-Membros provas documentais que atestem a competência do organismo de avaliação da conformidade e as disposições introduzidas para assegurar que o organismo seja acompanhado periodicamente e continue a cumprir os requisitos estabelecidos no artigo 31.o.
4. Dotknutý orgán posudzovania zhody môže vykonávať činnosti notifikovanej osoby len vtedy, ak Komisia ani ostatné členské štáty nevznesú námietky do dvoch týždňov od notifikácie notifikujúcim orgánom, ak táto notifikácia zahŕňa osvedčenie o akreditácii uvedené v článku 29 ods. 2, alebo do dvoch mesiacov od notifikácie notifikujúceho orgánu, ak táto notifikácia zahŕňa písomné doklady uvedené v článku 29 ods. 3.
4. O organismo de avaliação da conformidade em causa apenas pode executar as atividades reservadas a organismos notificados se nem a Comissão nem os outros Estados-Membros tiverem formulado objeções nas duas semanas seguintes a uma notificação por uma autoridade notificadora, se esta incluir um certificado de acreditação a que se refere o artigo 29.o, n.o 2, ou nos dois meses seguintes a uma notificação por uma autoridade notificadora, se esta incluir as provas documentais a que se refere o artigo 29.o, n.o 3.
5. V prípade vznesenia námietok Komisia bezodkladne začne konzultácie s dotknutými členskými štátmi a orgánom posudzovania zhody. Komisia so zreteľom na tieto konzultácie rozhodne, či je povolenie opodstatnené. Komisia svoje rozhodnutie oznámi dotknutému členskému štátu a príslušnému orgánu posudzovania zhody.
5. Caso sejam formuladas objeções, a Comissão deve proceder, sem demora, a consultas com os Estados-Membros pertinentes e o organismo de avaliação da conformidade. Tendo em conta essas consultas, a Comissão decide se a autorização se justifica. A Comissão designa o Estado-Membro em causa e o organismo de avaliação da conformidade pertinente como destinatários da decisão.
Článok 31
Artigo 31.o
Požiadavky týkajúce sa notifikovaných osôb
Requisitos aplicáveis aos organismos notificados
1. Notifikovaná osoba je zriadená podľa vnútroštátneho práva členského štátu a má právnu subjektivitu.
1. Os organismos notificados devem ser constituídos nos termos da lei nacional de um Estado-Membro e ser dotados de personalidade jurídica.
2. Notifikované osoby musia spĺňať požiadavky týkajúce sa organizácie, riadenia kvality, zdrojov a postupov, ktoré sú potrebné na plnenie ich úloh, ako aj náležité požiadavky na kybernetickú bezpečnosť.
2. Os organismos notificados devem satisfazer os requisitos em termos de organização, gestão da qualidade, recursos e processos que sejam necessários para o desempenho das suas funções, bem como requisitos de cibersegurança adequados.
3. Organizačná štruktúra, rozdelenie zodpovedností, hierarchické vzťahy a fungovanie notifikovaných osôb musia zabezpečiť dôveru v ich konanie a vo výsledky činností posudzovania zhody, ktoré notifikované osoby vykonávajú.
3. A estrutura organizacional, a atribuição de responsabilidades, a cadeia hierárquica e o funcionamento dos organismos notificados devem assegurar a confiança no seu desempenho e nos resultados das atividades de avaliação da conformidade que os organismos notificados realizam.
4. Notifikované osoby musia byť nezávislé od poskytovateľa vysokorizikového systému AI, v súvislosti s ktorým vykonávajú činnosti posudzovania zhody. Notifikované osoby musia byť takisto nezávislé od akéhokoľvek iného prevádzkovateľa, ktorý má na posudzovaných vysokorizikových systémoch AI hospodársky záujem, ako aj od akýchkoľvek konkurentov poskytovateľa. Týmto sa nevylučuje používanie posudzovaných vysokorizikových systémov AI, ktoré sú potrebné na výkon činností orgánu posudzovania zhody, alebo používanie takýchto vysokorizikových systémov AI na osobné účely.
4. Os organismos notificados devem ser independentes do prestador de um sistema de IA de risco elevado relativamente ao qual realizam atividades de avaliação da conformidade. Os organismos notificados devem também ser independentes de outros operadores que tenham um interesse económico nos sistemas de IA de risco elevado que são avaliados, bem como nos dos concorrentes do prestador. Esta exigência não impede a utilização de sistemas de IA de risco elevado avaliados que sejam necessários para a atividade do organismo de avaliação da conformidade, nem a sua utilização para fins pessoais.
5. Orgán posudzovania zhody, jeho vrcholový manažment ani zamestnanci zodpovední za vykonávanie jeho úloh posudzovania zhody nesmú byť priamo zapojení do dizajnovania, vývoja, uvádzania na trh alebo používania vysokorizikových systémov AI, ani nesmú zastupovať strany zapojené do týchto činností. Nesmú sa podieľať na žiadnej činnosti, ktorá by mohla ovplyvniť nezávislosť ich úsudku alebo bezúhonnosť vo vzťahu k činnostiam posudzovania zhody, na ktorých vykonávanie sú notifikované. Platí to najmä pre poradenské služby.
5. Os organismos de avaliação da conformidade, os seus quadros superiores e o pessoal encarregado de desempenhar as suas funções de avaliação da conformidade não podem intervir diretamente na conceção, no desenvolvimento, na comercialização ou na utilização de sistemas de IA de risco elevado, nem ser mandatários das pessoas envolvidas nessas atividades. Não podem igualmente exercer qualquer atividade que possa comprometer a independência da sua apreciação ou a sua integridade no desempenho das atividades de avaliação da conformidade para as quais são notificados. Esta disposição aplica-se, nomeadamente, aos serviços de consultoria.
6. Notifikované osoby musia mať takú organizačnú štruktúru a fungovať tak, aby sa zaručila nezávislosť, objektivita a nestrannosť ich činností. Notifikované osoby zdokumentujú a zavedú štruktúru a postupy, ktorými sa zaručí nestrannosť a ktorými sa presadzujú a uplatňujú zásady nestrannosti v celej ich organizačnej štruktúre, u všetkých zamestnancov a pri všetkých činnostiach posudzovania.
6. Os organismos notificados devem estar organizados e funcionar de maneira que garanta a independência, a objetividade e a imparcialidade das suas atividades. Os organismos notificados devem documentar e estabelecer uma estrutura e procedimentos suscetíveis de salvaguardar essa imparcialidade e de promover e aplicar os princípios da imparcialidade em toda a sua organização, a todo o seu pessoal e em todas as suas atividades de avaliação.
7. Notifikované osoby zavedú zdokumentované postupy, ktorými sa zabezpečí, aby ich zamestnanci, výbory, dcérske spoločnosti, subdodávatelia a akýkoľvek pridružený subjekt alebo zamestnanci externých subjektov zachovávali v súlade s článkom 78 dôvernosť informácií, ktoré získajú počas vykonávania činností posudzovania zhody, s výnimkou prípadov, keď sa zverejnenie týchto informácií vyžaduje podľa zákona. Zamestnanci notifikovaných osôb sú povinní zachovávať služobné tajomstvo vo vzťahu k všetkým informáciám, ktoré získali pri vykonávaní svojich úloh podľa tohto nariadenia; táto povinnosť sa neuplatňuje vo vzťahu k notifikujúcim orgánom členského štátu, v ktorom sa ich činnosti vykonávajú.
7. Os organismos notificados devem dispor de procedimentos documentados que garantam que o seu pessoal, comités, filiais, subcontratantes e qualquer outro organismo associado ou pessoal de organismos externos respeitam, nos termos do artigo 78.o, a confidencialidade das informações de que tenham conhecimento durante a realização das atividades de avaliação da conformidade, salvo se a divulgação dessas informações for exigida por lei. O pessoal dos organismos notificados deve estar sujeito ao sigilo profissional no que se refere a todas as informações que obtiver no desempenho das suas funções no âmbito do presente regulamento, exceto em relação às autoridades notificadoras do Estado-Membro em que exerce as suas atividades.
8. Na vykonávanie činností majú notifikované osoby postupy, pri ktorých sa náležite zohľadňuje veľkosť poskytovateľa, odvetvie, v ktorom podnik pôsobí, jeho štruktúra a stupeň zložitosti dotknutého systému AI
8. Os organismos notificados devem dispor de procedimentos relativos ao exercício de atividades que tenham em devida conta a dimensão de um prestador, o setor em que opera, a sua estrutura e o grau de complexidade do sistema de IA em causa.
9. Notifikované osoby v súvislosti so svojimi činnosťami posudzovania zhody uzavrú primerané poistenie zodpovednosti, ak na seba v súlade s vnútroštátnym právom neprevzal zodpovednosť členský štát, v ktorom sú usadené, alebo ak za posudzovanie zhody nezodpovedá priamo tento samotný členský štát.
9. Os organismos notificados devem subscrever um seguro de responsabilidade civil adequado para as suas atividades de avaliação da conformidade, a menos que essa responsabilidade seja assumida pelo Estado-Membro onde se encontram estabelecidos nos termos da legislação nacional ou que o próprio Estado-Membro seja diretamente responsável pela avaliação da conformidade.
10. Všetky úlohy, ktoré im prináležia podľa tohto nariadenia, musia byť notifikované osoby spôsobilé vykonávať na najvyššej úrovni profesijnej bezúhonnosti a s náležitou odbornou spôsobilosťou v danej oblasti bez ohľadu na to, či tieto úlohy vykonávajú samotné notifikované osoby alebo sa vykonávajú v ich mene a na ich zodpovednosť.
10. Os organismos notificados devem ser capazes de desempenhar todas as funções que lhes incumbem nos termos do presente regulamento com a maior integridade profissional e a competência exigida no domínio específico, quer essas funções sejam desempenhadas pelos próprios, quer em seu nome e sob a sua responsabilidade.
11. Notifikované osoby musia byť na internej úrovni dostatočne spôsobilé, aby boli schopné hodnotiť úlohy, ktoré v ich mene vykonávajú externé subjekty. Notifikovaná osoba musí mať trvale k dispozícii dostatočný počet administratívnych, technických, právnických a vedeckých pracovníkov, ktorí majú skúsenosti a vedomosti týkajúce sa relevantných typov systémov AI, údajov a výpočtov údajov, ako aj požiadaviek stanovených v oddiele 2.
11. Os organismos notificados devem dispor de competências internas suficientes para poderem avaliar eficazmente as funções desempenhadas em seu nome por partes externas. Os organismos notificados devem dispor permanentemente de suficiente pessoal do domínio administrativo, técnico, jurídico e científico com experiência e conhecimentos relativos aos tipos de sistemas de IA em apreço, aos dados e à computação de dados e aos requisitos estabelecidos na secção 2.
12. Notifikované osoby sa zúčastňujú na koordinačných činnostiach uvedených v článku 38. Takisto sa priamo zúčastňujú na činnosti európskych normalizačných organizácií alebo sú v nich zastúpené, alebo zabezpečia, aby boli nepretržite informované o aktuálnom stave príslušných noriem.
12. Os organismos notificados devem participar em atividades de coordenação nos termos do artigo 38.o. Além disso, devem participar, diretamente ou por meio de representantes, em organizações europeias de normalização, ou assegurar que conhecem as normas aplicáveis e mantêm atualizado esse conhecimento.
Článok 32
Artigo 32.o
Predpoklad súladu s požiadavkami týkajúcimi sa notifikovaných osôb
Presunção da conformidade com os requisitos aplicáveis aos organismos notificados
Ak orgán posudzovania zhody preukáže splnenie kritérií stanovených v príslušných harmonizovaných normách alebo ich častiach, na ktoré boli uverejnené odkazy v Úradnom vestníku Európskej únie, predpokladá sa, že daný orgán spĺňa požiadavky stanovené v článku 31 v rozsahu, v akom sa na uvedené požiadavky uplatňujú harmonizované normy.
Presume-se que os organismos de avaliação da conformidade que provem a sua conformidade com os critérios estabelecidos nas normas harmonizadas aplicáveis, ou em partes destas, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia cumprem os requisitos previstos no artigo 31.o, contanto que as referidas normas harmonizadas contemplem esses requisitos.
Článok 33
Artigo 33.o
Dcérske spoločnosti notifikovaných osôb a subdodávatelia
Filiais dos organismos notificados e subcontratação
1. Ak notifikovaná osoba zadáva osobitné úlohy spojené s posudzovaním zhody subdodávateľovi alebo ich prenesie na dcérsku spoločnosť, zabezpečí, aby tento subdodávateľ alebo táto dcérska spoločnosť spĺňali požiadavky stanovené v článku 31, a náležite o tom informuje notifikujúci orgán.
1. Sempre que um organismo notificado subcontratar funções específicas relacionadas com a avaliação da conformidade ou recorrer a uma filial, deve assegurar que o subcontratante ou a filial cumpra os requisitos previstos no artigo 31.o e informar desse facto a autoridade notificadora.
2. Notifikované osoby nesú plnú zodpovednosť za úlohy vykonávané akýmikoľvek subdodávateľmi alebo dcérskymi spoločnosťami.
2. Os organismos notificados assumem plena responsabilidade pelas funções que lhes incumbem que sejam desempenhadas por quaisquer subcontratantes ou filiais.
3. Vykonávanie činností sa môže zadať subdodávateľovi alebo preniesť na dcérsku spoločnosť iba so súhlasom poskytovateľa. Notifikované osoby zverejnia zoznam svojich dcérskych spoločností.
3. As atividades só podem ser exercidas por um subcontratante ou por uma filial mediante acordo do prestador. Os organismos notificados devem disponibilizar ao público uma lista das suas filiais.
4. Príslušná dokumentácia týkajúca sa posúdenia kvalifikácie subdodávateľa alebo dcérskej spoločnosti a práce, ktorú vykonali podľa tohto nariadenia, sa uchováva k dispozícii notifikujúcemu orgánu počas obdobia piatich rokov od dátumu ukončenia subdodávok.
4. Os documentos pertinentes respeitantes à avaliação das qualificações do subcontratante ou da filial e ao trabalho efetuado por estes nos termos do presente regulamento devem ser mantidos à disposição da autoridade notificadora durante um período de cinco anos a contar da data de termo da subcontratação.
Článok 34
Artigo 34.o
Operačné povinnosti notifikovaných osôb
Obrigações operacionais dos organismos notificados
1. Notifikované osoby overujú zhodu vysokorizikových systémov AI v súlade s postupmi posudzovania zhody uvedenými v článku 43.
1. Os organismos notificados devem verificar a conformidade dos sistemas de IA de risco elevado de acordo com os procedimentos de avaliação da conformidade estabelecidos no artigo 43.o.
2. Notifikované osoby sa vyhýbajú zbytočnému zaťaženiu poskytovateľov pri vykonávaní ich činností a náležite zohľadňujú veľkosť poskytovateľa, odvetvie, v ktorom pôsobí, jeho štruktúru a stupeň zložitosti dotknutého vysokorizikového systému AI, najmä v záujme minimalizácie administratívneho zaťaženia a nákladov na dodržiavanie predpisov pre mikropodniky a malé podniky v zmysle odporúčania 2003/361/ES. Notifikovaná osoba však dodržiava mieru prísnosti a úroveň ochrany, ktoré sú potrebné na zabezpečenie súladu vysokorizikového systému AI s požiadavkami stanovenými v tomto nariadení.
2. Os organismos notificados devem, no exercício das suas atividades, evitar encargos desnecessários para os prestadores e ter em devida conta a dimensão do prestador, o setor em que opera, a sua estrutura e o grau de complexidade do sistema de IA de risco elevado em causa, em especial com vista a minimizar os encargos administrativos e os custos de conformidade para as micro e pequenas empresas na aceção da Recomendação 2003/361/CE. Os organismos notificados devem, contudo, respeitar o grau de rigor e o nível de proteção exigidos para que o sistema de IA de risco elevado cumpra os requisitos do presente regulamento.
3. Notifikované osoby sprístupnia a na požiadanie predložia všetky príslušné dokumenty vrátane dokumentácie poskytovateľa notifikujúcemu orgánu uvedenému v článku 28, aby mohol vykonávať svoje činnosti posudzovania, určovania, notifikácie a monitorovania a aby sa uľahčilo posudzovanie podľa tohto oddielu.
3. Os organismos notificados devem disponibilizar e, mediante pedido, apresentar toda a documentação importante, incluindo a documentação elaborada pelos prestadores, à autoridade notificadora a que se refere o artigo 28.o para que essa autoridade possa exercer as suas atividades de avaliação, designação, notificação e controlo e ainda para facilitar a avaliação descrita na presente secção.
Článok 35
Artigo 35.o
Identifikačné čísla a zoznamy notifikovaných osôb
Números de identificação e listas de organismos notificados
1. Komisia pridelí každej notifikovanej osobe jedno identifikačné číslo, a to aj v prípade, že je osoba notifikovaná podľa viac ako jedného aktu Únie.
1. A Comissão atribui um número de identificação único a cada organismo notificado, mesmo que um organismo seja notificado ao abrigo de mais do que um ato da União.
2. Komisia zverejní zoznam osôb notifikovaných podľa tohto nariadenia vrátane ich identifikačných čísiel a činností, v súvislosti s ktorými boli notifikované. Komisia tento zoznam aktualizuje.
2. A Comissão publica a lista de organismos notificados ao abrigo do presente regulamento, incluindo os seus números de identificação e as atividades em relação às quais foram notificados. A Comissão deve assegurar que essa lista se mantém atualizada.
Článok 36
Artigo 36.o
Zmeny notifikácií
Alterações das notificações
1. Notifikujúci orgán oznamuje Komisii a ostatným členským štátom všetky relevantné zmeny týkajúce sa notifikácie notifikovanej osoby prostredníctvom elektronického nástroja notifikácie uvedeného v článku 30 ods. 2.
1. A autoridade notificadora deve notificar a Comissão e os outros Estados-Membros de todas as alterações pertinentes da notificação de um organismo notificado através do instrumento de notificação eletrónica a que se refere o artigo 30.o, n.o 2.
2. Postupy stanovené v článkoch 29 a 30 sa uplatňujú na rozširovanie rozsahu notifikácie.
2. Os procedimentos estabelecidos nos artigos 29.o e 30.o aplicam-se ao alargamento do âmbito da notificação.
V prípade iných zmien notifikácie, ako je rozšírenie jej rozsahu, sa uplatňujú postupy stanovené v odsekoch 3 až 9.
No que respeita às alterações da notificação que não digam respeito ao alargamento do seu âmbito de aplicação, são aplicáveis os procedimentos estabelecidos nos n.os 3 a 9.
3. Ak sa notifikovaná osoba rozhodne ukončiť svoje činnosti posudzovania zhody, čo najskôr to oznámi notifikujúcemu orgánu a dotknutým poskytovateľom a v prípade plánovaného ukončenia svojich činností aspoň jeden rok pred ich ukončením. Certifikáty notifikovanej osoby môžu zostať v platnosti na obdobie deviatich mesiacov po ukončení činností notifikovanej osoby pod podmienkou, že ďalšia notifikovaná osoba písomne potvrdí, že prevezme zodpovednosť za vysokorizikové systémy AI, na ktoré sa tieto certifikáty vzťahujú. Notifikovaná osoba, ktorá prevzala zodpovednosť za vysokorizikové systémy AI, dokončí úplné posúdenie dotknutých vysokorizikových systémov AI do konca uvedenej deväťmesačnej lehoty pred vydaním nového certifikátu pre tieto systémy. Ak notifikovaná osoba ukončila svoju činnosť, notifikujúci orgán určenie zruší.
3. Caso um organismo notificado decida cessar as suas atividades de avaliação da conformidade, informa a autoridade notificadora e os prestadores em causa o mais rapidamente possível e, em caso de cessação planeada, pelo menos um ano antes de cessar as atividades. Os certificados do organismo notificado podem manter-se válidos durante um período de nove meses após a cessação das atividades do organismo notificado, desde que outro organismo notificado confirme por escrito que assumirá a responsabilidade pelos sistemas de IA de risco elevado abrangidos por esses certificados. Esse outro organismo notificado efetua uma avaliação completa dos sistemas de IA de risco elevado em causa até ao final do período de nove meses, antes de emitir novos certificados para esses sistemas. Se o organismo notificado tiver cessado a sua atividade, a autoridade notificadora deve retirar a designação.
4. Ak má notifikujúci orgán dostatočný dôvod domnievať sa, že notifikovaná osoba už nespĺňa požiadavky stanovené v článku 31 alebo že si neplní svoje povinnosti, notifikujúci orgán túto záležitosť bezodkladne čo najdôkladnejšie prešetrí. V tejto súvislosti informuje dotknutú notifikovanú osobu o vznesených námietkach a poskytne jej možnosť na vyjadrenie stanoviska. Ak notifikujúci orgán dospeje k záveru, že notifikovaná osoba už nespĺňa požiadavky stanovené v článku 31 alebo že si neplní svoje povinnosti, podľa potreby obmedzí, pozastaví alebo zruší určenie v závislosti od závažnosti neplnenia týchto požiadaviek alebo povinností. Okamžite o tom informuje Komisiu a ostatné členské štáty.
4. Caso uma autoridade notificadora tenha motivos suficientes para considerar que um organismo notificado deixou de cumprir os requisitos estabelecidos no artigo 31.o, ou que não cumpre as suas obrigações, deve imediatamente investigar a matéria com a máxima diligência. Nesse contexto, a autoridade notificadora deve informar o organismo notificado em causa sobre as objeções formuladas e dar-lhe a possibilidade de apresentar as suas observações. Caso a autoridade notificadora conclua que o organismo notificado deixou de cumprir os requisitos estabelecidos no artigo 31.o, ou que não cumpre as suas obrigações, deve restringir, suspender ou retirar a designação, consoante o caso, em função da gravidade do incumprimento desses requisitos ou dessas obrigações. A autoridade notificadora deve informar imediatamente a Comissão e os restantes Estados-Membros deste facto.
5. Ak je určenie notifikovanej osoby pozastavené, obmedzené alebo úplne či čiastočne zrušené, notifikovaná osoba o tom do 10 dní informuje dotknutých poskytovateľov.
5. Caso a sua designação tenha sido suspendida, restringida ou revogada, na totalidade ou em parte, o organismo notificado informa os prestadores em causa o mais tardar no prazo de 10 dias.
6. V prípade obmedzenia, pozastavenia alebo zrušenia určenia notifikujúci orgán prijme vhodné opatrenia, ktorými zabezpečí, aby sa dokumentácia príslušnej notifikovanej osoby uchovávala, a na požiadanie ju sprístupní notifikujúcim orgánom v iných členských štátoch a orgánom dohľadu nad trhom.
6. Em caso de restrição, suspensão ou retirada de uma designação, a autoridade notificadora deve tomar as medidas necessárias para assegurar que os processos do organismo notificado são conservados e para os disponibilizar às autoridades notificadoras noutros Estados-Membros e às autoridades de fiscalização do mercado, se estas o solicitarem.
7. V prípade obmedzenia, pozastavenia alebo zrušenia určenia notifikujúci orgán:
7. Em caso de restrição, suspensão ou retirada de uma designação, a autoridade notificadora:
a)
posudzuje vplyv na certifikáty vydané notifikovanou osobou;
a)
Avalia o impacto nos certificados emitidos pelo organismo notificado;
b)
predkladá Komisii a ostatným členským štátom správu o svojich zisteniach do troch mesiacov po oznámení zmien určenia;
b)
Apresenta à Comissão e aos outros Estados-Membros um relatório sobre as suas conclusões no prazo de três meses após ter notificado das alterações à designação;
c)
požaduje od notifikovanej osoby, aby v primeranej lehote, ktorú tento orgán stanoví, pozastavila alebo stiahla všetky certifikáty, ktoré boli vydané neoprávnene, s cieľom zaistiť pokračujúcu zhodu vysokorizikových systémov AI na trhu;
c)
Determina que o organismo notificado suspenda ou retire, num prazo razoável por ela determinado, os certificados indevidamente emitidos, a fim de garantir a conformidade contínua dos sistemas de IA de risco elevado no mercado;
d)
informuje Komisiu a členské štáty o certifikátoch, ktorých pozastavenie alebo stiahnutie požaduje;
d)
Informa a Comissão e os Estados-Membros dos certificados para os quais exigiu a suspensão ou retirada;
e)
poskytne vnútroštátnym príslušným orgánom členského štátu, v ktorom má poskytovateľ registrované miesto podnikania, všetky relevantné informácie o certifikátoch, v prípade ktorých požiadal o pozastavenie alebo stiahnutie; ak je to potrebné na zabránenie potenciálnemu riziku pre zdravie, bezpečnosť alebo základné práva, uvedený orgán prijme primerané opatrenia.
e)
Presta às autoridades nacionais competentes do Estado-Membro em que o prestador tem a sua sede social todas as informações pertinentes sobre os certificados para os quais exigiu a suspensão ou retirada; essas autoridades devem tomar as medidas adequadas que se revelem necessárias para evitar potenciais riscos para a saúde, a segurança ou os direitos fundamentais.
8. S výnimkou certifikátov, ktoré boli vydané neoprávnene, a prípadov, keď bolo určenie pozastavené alebo obmedzené, zostávajú certifikáty platné za jednej z týchto okolností:
8. Com exceção dos certificados indevidamente emitidos, e caso uma designação tenha sido suspendida ou restringida, os certificados permanecem válidos nas seguintes circunstâncias:
a)
notifikujúci orgán do jedného mesiaca od pozastavenia alebo obmedzenia potvrdil, že vo vzťahu k certifikátom, na ktoré sa pozastavenie alebo obmedzenie vzťahuje, neexistuje riziko pre zdravie, bezpečnosť ani základné práva, a navrhol harmonogram opatrení, ktoré povedú k zrušeniu pozastavenia alebo obmedzenia, alebo
a)
Quando a autoridade notificadora tiver confirmado, no prazo de um mês a contar da suspensão ou restrição, que, no que respeita aos certificados afetados pela suspensão ou restrição, não existem riscos para a saúde, a segurança ou os direitos fundamentais, e tiver estabelecido um prazo para as ações previstas para corrigir a suspensão ou restrição; ou
b)
notifikujúci orgán potvrdil, že sa počas pozastavenia alebo obmedzenia nebudú vydávať, meniť ani opätovne vydávať žiadne certifikáty, a uvedie, či je notifikovaná osoba spôsobilá naďalej monitorovať existujúce certifikáty vydané na obdobie pozastavenia alebo obmedzenia a zodpovedať za ne; ak notifikujúci orgán zistí, že notifikovaná osoba nie je spôsobilá podporovať existujúce vydané certifikáty, poskytovateľ systému, na ktorý sa certifikát vzťahuje, písomne potvrdí vnútroštátnym príslušným orgánom členského štátu, v ktorom má registrované miesto podnikania, do troch mesiacov od pozastavenia alebo obmedzenia, že iná kvalifikovaná notifikovaná osoba dočasne preberá funkcie notifikovanej osoby v oblasti monitorovania certifikátov a zostáva za ne zodpovedná počas obdobia pozastavenia alebo obmedzenia.
b)
Quando a autoridade notificadora tiver confirmado que, durante o período de suspensão ou restrição, não serão emitidos, alterados nem reemitidos certificados relevantes para a suspensão, e indicar se o organismo notificado tem capacidade para continuar a assumir, durante o período de suspensão ou restrição, o controlo e a responsabilidade pelos certificados já emitidos; caso a autoridade notificadora determine que o organismo notificado não tem capacidade para apoiar os certificados já emitidos, o prestador do sistema abrangido pelo certificado deve confirmar por escrito às autoridades nacionais competentes do Estado-Membro em que tem a sua sede social, no prazo de três meses a contar da suspensão ou restrição, que outro organismo notificado qualificado exerce temporariamente as funções do organismo notificado de assunção do controlo e da responsabilidade pelos certificados durante o período de suspensão ou restrição.
9. S výnimkou certifikátov, ktoré boli vydané neoprávnene, a zrušenia určenia zostávajú certifikáty platné počas obdobia deviatich mesiacov za týchto okolností:
9. Com exceção dos certificados emitidos indevidamente, e sempre que a designação tenha sido retirada, os certificados permanecem válidos por um período de nove meses nas seguintes circunstâncias:
a)
vnútroštátny príslušný orgán členského štátu, v ktorom má poskytovateľ vysokorizikového systému AI, na ktorý sa vzťahuje certifikát, registrované miesto podnikania, potvrdil, že v súvislosti s dotknutými vysokorizikovými systémami AI neexistuje žiadne riziko pre zdravie, bezpečnosť alebo základné práva, a
a)
Se a autoridade nacional competente do Estado-Membro em que o prestador do sistema de IA de risco elevado abrangido pelo certificado tem a sua sede social tiver confirmado que não existem riscos associados aos sistemas de IA de risco elevado em causa para a saúde, a segurança ou os direitos fundamentais; e
b)
iná notifikovaná osoba písomne potvrdila, že okamžite prevezme zodpovednosť za uvedené systémy AI a dokončí svoje posúdenie do 12 mesiacov od zrušenia určenia.
b)
Se um outro organismo notificado tiver confirmado por escrito que assumirá de imediato a responsabilidade por esses sistemas de IA e concluir a respetiva avaliação no prazo de doze meses a contar da retirada da designação.
Za okolností uvedených v prvom pododseku môže vnútroštátny príslušný orgán členského štátu, v ktorom má poskytovateľ systému, na ktorý sa certifikát vzťahuje, svoje miesto podnikania, predĺžiť obdobie prechodnej platnosti certifikátov na ďalšie obdobia troch mesiacov, ktoré celkovo neprekročia obdobie 12 mesiacov.
Nas circunstâncias referidas no primeiro parágrafo, a autoridade nacional competente do Estado-Membro em que o prestador do sistema abrangido pelo certificado tem a sua sede social pode prorrogar a validade provisória dos certificados por novos períodos de três meses, até um máximo de 12 meses no total.
Vnútroštátny príslušný orgán alebo notifikovaná osoba preberajúca úlohy notifikovanej osoby, ktorej sa týka zmena určenia, o tom bezodkladne informuje Komisiu, ostatné členské štáty a ostatné notifikované osoby.
A autoridade nacional competente ou o organismo notificado que assumir as funções do organismo notificado ao qual se aplica a alteração da designação informa imediatamente desse facto a Comissão, os outros Estados-Membros e os demais organismos notificados.
Článok 37
Artigo 37.o
Napadnutie odbornej spôsobilosti notifikovaných osôb
Contestação da competência dos organismos notificados
1. Komisia v prípade potreby vyšetrí všetky prípady, v ktorých existujú dôvody pochybovať o odbornej spôsobilosti notifikovanej osoby alebo o pokračujúcom plnení požiadaviek stanovených v článku 31 a uplatniteľných povinností zo strany notifikovanej osoby.
1. A Comissão investiga, sempre que necessário, todos os casos em que haja motivos para duvidar da competência de um organismo notificado ou do cumprimento continuado dos requisitos estabelecidos no artigo 31.o e das responsabilidades aplicáveis por parte de um organismo notificado.
2. Notifikujúci orgán poskytne na požiadanie Komisii všetky relevantné informácie týkajúce sa notifikácie alebo zachovania odbornej spôsobilosti dotknutej notifikovanej osoby.
2. A autoridade notificadora deve facultar à Comissão, mediante pedido, todas as informações pertinentes relacionadas com a notificação ou a manutenção da competência do organismo notificado em causa.
3. Komisia zabezpečí dôverné zaobchádzanie v súlade s článkom 78 so všetkými citlivými informáciami získanými počas svojich vyšetrovaní podľa tohto článku.
3. A Comissão garante que todas as informações sensíveis obtidas no decurso das suas investigações nos termos do presente artigo sejam tratadas de forma confidencial em conformidade com o artigo 78.o.
4. Keď Komisia zistí, že notifikovaná osoba nespĺňa alebo prestala spĺňať požiadavky na jej notifikáciu, informuje o tom notifikujúci členský štát a požiada ho, aby prijal potrebné nápravné opatrenia vrátane prípadného pozastavenia alebo zrušenia určenia. Ak daný členský štát neprijme potrebné nápravné opatrenia, Komisia môže prostredníctvom vykonávacieho aktu pozastaviť, obmedziť alebo zrušiť určenie. Uvedený vykonávací akt sa prijme v súlade s postupom preskúmania uvedeným v článku 98 ods. 2.
4. Caso verifique que um organismo notificado não cumpre ou deixou de cumprir os requisitos aplicáveis à sua notificação, a Comissão informa o Estado-Membro notificador do facto e solicita-lhe que tome as medidas corretivas necessárias, incluindo, se for caso disso, a suspensão ou retirada da notificação. Se o Estado-Membro não tomar as medidas corretivas necessárias, a Comissão pode, por meio de um ato de execução, suspender, restringir ou retirar a designação. O referido ato de execução é adotado de acordo com o procedimento de exame a que se refere o artigo 98.o, n.o 2.
Článok 38
Artigo 38.o
Koordinácia notifikovaných osôb
Coordenação dos organismos notificados
1. Komisia zabezpečí, aby sa so zreteľom na vysokorizikové systémy AI, na ktoré sa vzťahuje toto nariadenie, medzi notifikovanými osobami pôsobiacimi v oblasti postupov posudzovania zhody podľa tohto nariadenia zaviedla a riadne vykonávala primeraná koordinácia a spolupráca v podobe odvetvovej skupiny notifikovaných osôb.
1. A Comissão assegura que, no respeitante aos sistemas de IA de risco elevado, são instituídas modalidades de coordenação e cooperação adequadas entre organismos notificados ativos nos procedimentos de avaliação da conformidade nos termos do presente regulamento e que as mesmas decorrem devidamente sob a forma de um grupo setorial de organismos notificados.
2. Každý notifikujúci orgán zabezpečí, aby sa ním notifikované osoby zúčastňovali na práci skupiny uvedenej v odseku 1, a to priamo alebo prostredníctvom určených zástupcov.
2. Cada autoridade notificadora deve assegurar que os organismos por si notificados participem, diretamente ou por meio de representantes designados, nos trabalhos de um grupo a que se refere o n.o 1.
3. Komisia zabezpečí výmenu poznatkov a najlepších postupov medzi notifikujúcimi orgánmi.
3. A Comissão deve proporcionar o intercâmbio de conhecimentos especializados e de boas práticas entre as autoridades notificadoras.
Článok 39
Artigo 39.o
Orgány posudzovania zhody tretích krajín
Organismos de avaliação da conformidade de países terceiros
Orgány posudzovania zhody zriadené podľa práva tretej krajiny, s ktorou Únia uzavrela dohodu, môžu byť oprávnené vykonávať činnosti notifikovaných osôb podľa tohto nariadenia za predpokladu, že spĺňajú požiadavky stanovené v článku 31 alebo zabezpečujú rovnocennú úroveň súladu.
Os organismos de avaliação da conformidade criados ao abrigo da legislação de um país terceiro com o qual a União tenha celebrado um acordo podem ser autorizados a executar as atividades de organismos notificados nos termos do presente regulamento, desde que cumpram os requisitos previstos no artigo 31.o ou garantam um nível de cumprimento equivalente.
ODDIEL 5
SECÇÃO 5
Normy, posudzovanie zhody, certifikáty, registrácia
Normas, avaliação da conformidade, certificados, registo
Článok 40
Artigo 40.o
Harmonizované normy a normalizačné produkty
Normas harmonizadas e produtos de normalização
1. Vysokorizikové systémy AI alebo modely AI na všeobecné účely, ktoré sú v zhode s harmonizovanými normami alebo ich časťami, na ktoré boli uverejnené odkazy v Úradnom vestníku Európskej únie v súlade s nariadením (EÚ) č. 1025/2012, sa považujú za systémy alebo modely, ktoré sú v zhode s požiadavkami stanovenými v oddiele 2 tejto kapitoly alebo, v relevantnom prípade, s povinnosťami stanovenými v oddieloch 2 a 3 kapitoly V tohto nariadenia, a to v rozsahu, v akom sa tieto normy vzťahujú na uvedené požiadavky alebo povinnosti.
1. Presume-se que os sistemas de IA de risco elevado ou os modelos de IA de finalidade geral que estão em conformidade com normas harmonizadas, ou com partes destas, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia nos termos do Regulamento (UE) n.o 1025/2012, são conformes com os requisitos estabelecidos na secção 2 do presente capítulo, ou, consoante o caso, com as obrigações estabelecidas nas secções 2 e 3 do capítulo V do presente regulamento, desde que tais normas abranjam esses requisitos ou obrigações.
2. Komisia v súlade s článkom 10 nariadenia (EÚ) č. 1025/2012 bez zbytočného odkladu vydá žiadosti o normalizáciu týkajúce sa všetkých požiadaviek stanovených v oddiele 2 tejto kapitoly a v relevantnom prípade žiadosti o normalizáciu týkajúce sa povinností stanovených v oddieloch 2 a 3 kapitoly V tohto nariadenia. V žiadosti o normalizáciu sa žiada aj o produkty týkajúce sa procesov podávania správ a dokumentácie s cieľom zlepšiť výkon systémov AI z hľadiska spotreby zdrojov, ako je zníženie spotreby energie a iných zdrojov vysokorizikového systému AI počas jeho životného cyklu, ako aj produkty týkajúce sa energeticky efektívneho vývoja modelov AI na všeobecné účely. Pri príprave žiadosti o normalizáciu Komisia konzultuje s radou pre AI a relevantnými zainteresovanými stranami vrátane poradného fóra.
2. Nos termos do artigo 10.o do Regulamento (UE) n.o 1025/2012, a Comissão emite, sem demora injustificada, pedidos de normalização que abranjam todos os requisitos estabelecidos na secção 2 do presente capítulo e, conforme aplicável, pedidos de normalização que abranjam as obrigações estabelecidas nas secções 2 e 3 do capítulo V do presente regulamento. Os pedidos de normalização devem também solicitar produtos respeitantes aos processos de comunicação e documentação para melhorar o desempenho dos sistemas de IA em termos de recursos, como a redução do consumo de energia e de outros recursos do sistema de IA de risco elevado durante o seu ciclo de vida, e respeitantes ao desenvolvimento eficiente do ponto de vista energético de modelos de IA de finalidade geral. Ao preparar um pedido de normalização, a Comissão deve consultar o Comité e as partes interessadas pertinentes, incluindo o fórum consultivo.
Pri vydávaní žiadosti o normalizáciu určenej európskym normalizačným organizáciám Komisia špecifikuje, že normy musia byť jasné, konzistentné, a to aj s normami vypracovanými v rôznych odvetviach pre výrobky, na ktoré sa vzťahujú existujúce harmonizačné právne predpisy Únie uvedené v prílohe I, a s cieľom zabezpečiť, aby vysokorizikové systémy AI alebo modely AI na všeobecné účely uvedené na trh alebo do prevádzky v Únii spĺňali príslušné požiadavky alebo povinnosti stanovené v tomto nariadení.
Ao enviar um pedido de normalização a uma organização europeia de normalização, a Comissão deve especificar que as normas têm de ser claras, coerentes, nomeadamente com as normas desenvolvidas nos vários setores para os produtos abrangidos pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, e que se destinam a assegurar que os sistemas de IA de risco elevado ou modelos de IA de finalidade geral colocados no mercado ou colocados em serviço na União cumprem os requisitos ou obrigações pertinentes estabelecidos no presente regulamento.
Komisia požiada európske normalizačné organizácie, aby poskytli dôkazy o svojom najlepšom úsilí pri plnení cieľov uvedených v prvom a druhom pododseku tohto odseku v súlade s článkom 24 nariadenia (EÚ) č. 1025/2012.
A Comissão deve solicitar às organizações europeias de normalização que apresentem provas dos seus melhores esforços para cumprir os objetivos referidos no primeiro e segundo parágrafos do presente número, em conformidade com o artigo 24.o do Regulamento (UE) n.o 1025/2012.
3. Účastníci procesu normalizácie sa snažia podporovať investície a inovácie v oblasti AI, okrem iného aj zvyšovaním právnej istoty, ako aj konkurencieschopnosť a rast trhu Únie, prispievať k posilňovaniu globálnej spolupráce v oblasti normalizácie, pričom zohľadňujú existujúce medzinárodné normy v oblasti AI, ktoré sú v súlade s hodnotami, základnými právami a záujmami Únie, a posilňovať správu a riadenie, ktoré vykonáva viacero zainteresovaných strán, čím sa zabezpečuje vyvážené zastúpenie záujmov a efektívna účasť všetkých relevantných zainteresovaných strán v súlade s článkami 5, 6 a 7 nariadenia (EÚ) č. 1025/2012.
3. Os participantes no processo de normalização devem procurar promover o investimento e a inovação no domínio da IA, nomeadamente através do aumento da segurança jurídica, bem como a competitividade e o crescimento do mercado da União, contribuir para o reforço da cooperação mundial em matéria de normalização, tendo em conta as normas internacionais existentes no domínio da IA que sejam compatíveis com os valores, os direitos fundamentais e os interesses da União, e reforçar a governação multilateral, assegurando uma representação equilibrada dos interesses e a participação efetiva de todas as partes interessadas pertinentes, em conformidade com os artigos 5.o, 6.o e 7.o do Regulamento (UE) n.o 1025/2012.
Článok 41
Artigo 41.o
Spoločné špecifikácie
Especificações comuns
1. Komisia môže prijať vykonávacie akty, v ktorých stanoví spoločné špecifikácie pre požiadavky stanovené v oddiele 2 tejto kapitoly alebo v relevantnom prípade pre povinnosti stanovené v oddieloch 2 a 3 kapitoly V, ak sú splnené tieto podmienky:
1. A Comissão pode adotar atos de execução que estabeleçam especificações comuns para os requisitos estabelecidos na secção 2 do presente capítulo, ou, se for caso disso, para as obrigações estabelecidas nas secções 2 e 3 do capítulo V, se estiverem preenchidas as seguintes condições:
a)
Komisia podľa článku 10 ods. 1 nariadenia (EÚ) č. 1025/2012 požiadala jednu alebo viacero európskych normalizačných organizácií, aby vypracovali harmonizovanú normu pre požiadavky stanovené v oddiele 2 tejto kapitoly alebo v relevantnom prípade pre povinnosti stanovené v oddieloch 2 a 3 kapitoly V, a:
a)
A Comissão pediu, nos termos do artigo 10.o, n.o 1, do Regulamento (UE) n.o 1025/2012, a uma ou mais organizações europeias de normalização que elaborassem uma norma harmonizada para os requisitos estabelecidos na secção 2 do presente capítulo, ou, conforme aplicável, para as obrigações estabelecidas nas secções 2 e 3 do capítulo V, e:
i)
žiadosť neprijala ani jedna z európskych normalizačných organizácií, alebo
i)
o pedido não foi aceite por nenhuma das organizações europeias de normalização, ou
ii)
harmonizované normy na riešenie tejto žiadosti neboli doručené v lehote stanovenej v súlade s článkom 10 ods. 1 nariadenia (EÚ) č. 1025/2012, alebo
ii)
as normas harmonizadas relativas a esse pedido não foram entregues no prazo fixado em conformidade com o artigo 10.o, n.o 1, do Regulamento (UE) n.o 1025/2012, ou
iii)
príslušné harmonizované normy nedostatočne riešia obavy týkajúce sa základných práv, alebo
iii)
as normas harmonizadas pertinentes não dão resposta suficiente às preocupações em matéria de direitos fundamentais, ou
iv)
harmonizované normy nie sú v súlade so žiadosťou a
iv)
as normas harmonizadas não cumprem o pedido; e
b)
v Úradnom vestníku Európskej únie nie je v súlade s nariadením (EÚ) č. 1025/2012 uverejnený odkaz na harmonizované normy týkajúce sa požiadaviek stanovených v oddiele 2 tejto kapitoly alebo v relevantnom prípade povinností stanovených v oddieloch 2 a 3 kapitoly V a neočakáva sa, že v primeranej lehote bude takýto odkaz uverejnený.
b)
Não se encontra publicada no Jornal Oficial da União Europeia qualquer referência a normas harmonizadas que abranjam os requisitos referidos na secção 2 do presente capítulo ou, conforme aplicável, para as obrigações referidas nas secções 2 e 3 do capítulo V, em conformidade com o Regulamento (UE) n.o 1025/2012, e não se prevê a publicação de tal referência dentro de um prazo razoável.
Komisia pri vypracúvaní spoločných špecifikácií vedie konzultácie s poradným fórom uvedeným v článku 67.
Quando elaborar as especificações comuns, a Comissão deverá consultar o fórum consultivo a que se refere o artigo 67.o.
Vykonávacie akty uvedené v prvom pododseku tohto odseku sa prijmú v súlade s postupom preskúmania uvedeným v článku 98 ods. 2.
Os atos de execução a que se refere o primeiro parágrafo do presente número são adotados de acordo com o procedimento de exame a que se refere o artigo 98.o, n.o 2.
2. Pred vypracovaním návrhu vykonávacieho aktu Komisia informuje výbor uvedený v článku 22 nariadenia (EÚ) č. 1025/2012 o tom, že sa domnieva, že podmienky uvedené v odseku 1 tohto článku sú splnené.
2. Antes de elaborar um projeto de ato de execução, a Comissão informa o comité a que se refere o artigo 22.o do Regulamento (UE) n.o 1025/2012 de que considera que estão preenchidas as condições estabelecidas no n.o 1 do presente artigo.
3. Vysokorizikové systémy AI alebo modely AI na všeobecné účely, ktoré sú v zhode so spoločnými špecifikáciami uvedenými v odseku 1 alebo ich časťami, sa považujú za systémy alebo modely, ktoré sú v zhode s požiadavkami stanovenými v oddiele 2 tejto kapitoly, alebo ktoré v relevantnom prípade spĺňajú povinnosti stanovené v oddieloch 2 a 3 kapitoly V, a to v rozsahu, v akom sa uvedené spoločné špecifikácie vzťahujú na uvedené požiadavky alebo uvedené povinnosti.
3. Presume-se que os sistemas de IA de risco elevado ou os modelos de IA de finalidade geral que estão em conformidade com as especificações comuns a que se refere o n.o 1, ou com partes dessas especificações, são conformes com os requisitos estabelecidos na secção 2 do presente capítulo, ou, conforme aplicável, que cumprem as obrigações referidas nas secções 2 e 3 do capítulo V, desde que tais especificações comuns abranjam esses requisitos ou essas obrigações.
4. Ak európska normalizačná organizácia prijme harmonizovanú normu a navrhne Komisii, aby uverejnila odkaz na ňu v Úradnom vestníku Európskej únie, Komisia túto harmonizovanú normu posúdi v súlade s nariadením (EÚ) č. 1025/2012. Keď sa v Úradnom vestníku Európskej únie uverejní odkaz na harmonizovanú normu, Komisia zruší vykonávacie akty uvedené v odseku 1 alebo tie ich časti, ktoré sa vzťahujú na rovnaké požiadavky stanovené v oddiele 2 tejto kapitoly alebo v relevantnom prípade na rovnaké povinnosti stanovené v oddieloch 2 a 3 kapitoly V.
4. Sempre que uma norma harmonizada seja adotada por uma organização europeia de normalização e a publicação da sua referência no Jornal Oficial da União Europeia seja proposta à Comissão, esta última avalia a norma harmonizada nos termos do Regulamento (UE) n.o 1025/2012. Quando a referência a uma norma harmonizada é publicada no Jornal Oficial da União Europeia, a Comissão revoga os atos de execução a que se refere o n.o 1, ou partes desses atos de execução que abranjam os mesmos requisitos estabelecidos na secção 2 do presente capítulo ou, conforme aplicável, as mesmas obrigações estabelecidas nas secções 2 e 3 do capítulo V.
5. Ak poskytovatelia vysokorizikových systémov AI alebo modelov AI na všeobecné účely nedodržiavajú spoločné špecifikácie uvedené v odseku 1, riadne odôvodnia, že prijali technické riešenia, ktoré spĺňajú požiadavky uvedené v oddiele 2 tejto kapitoly alebo v relevantnom prípade spĺňajú povinnosti stanovené v oddieloch 2 a 3 kapitoly V aspoň na rovnakej úrovni.
5. Os prestadores de sistemas de IA de risco elevado ou os modelos de IA de finalidade geral que não cumprirem as especificações comuns a que se refere o n.o 1 devem justificar devidamente que adotaram soluções técnicas que cumprem os requisitos referidos na secção 2 do presente capítulo, ou, conforme aplicável, as obrigações estabelecidas nas secções 2 e 3 do capítulo V, a um nível, no mínimo, equivalente.
6. Ak sa členský štát domnieva, že spoločná špecifikácia nespĺňa úplne požiadavky stanovené v oddiele 2 alebo v relevantnom prípade povinnosti stanovené v oddieloch 2 a 3 kapitoly V, informuje o tom Komisiu s podrobným vysvetlením. Komisia posúdi tieto informácie a v prípade potreby zmení vykonávací akt, ktorým sa stanovuje dotknutá spoločná špecifikácia.
6. Caso um Estado-Membro considere que uma especificação comum não cumpre inteiramente os requisitos estabelecidos na secção 2 ou, conforme aplicável, as obrigações estabelecidas nas secções 2 e 3 do capítulo V, informa a Comissão desse facto, apresentando uma explicação pormenorizada. A Comissão avalia essas informações e, se for caso disso, altera o ato de execução que estabelece a especificação comum em causa.
Článok 42
Artigo 42.o
Predpoklad zhody s určitými požiadavkami
Presunção de conformidade com determinados requisitos
1. Vysokorizikové systémy AI, ktoré boli trénované a testované na údajoch, ktoré odzrkadľujú konkrétne geografické, behaviorálne, kontextuálne alebo funkčné podmienky, v ktorých sa majú používať, sa považujú za systémy, ktoré sú v súlade s príslušnými požiadavkami stanovenými v článku 10 ods. 4.
1. Presume-se que os sistemas de IA de risco elevado que foram treinados e testados com recurso a dados que refletem o cenário geográfico, comportamental, contextual ou funcional específico no qual se destinam a ser utilizados são conformes com os requisitos pertinentes estabelecidos no artigo 10.o, n.o 4.
2. Vysokorizikové systémy AI, ktoré boli certifikované alebo pre ktoré bolo vydané vyhlásenie o zhode v rámci schémy certifikácie kybernetickej bezpečnosti podľa nariadenia (EÚ) 2019/881, a na ktoré boli uverejnené odkazy v Úradnom vestníku Európskej únie, sa považujú za systémy, ktoré sú v súlade s kybernetickobezpečnostnými požiadavkami stanovenými v článku 15 tohto nariadenia, pokiaľ sa certifikát kybernetickej bezpečnosti alebo vyhlásenie o zhode alebo ich časti na tieto požiadavky vzťahujú.
2. Presume-se que os sistemas de IA de risco elevado que foram certificados ou relativamente aos quais foi emitida uma declaração de conformidade no âmbito de um sistema de certificação da cibersegurança estabelecido nos termos do Regulamento (UE) 2019/881 e cujas referências foram publicadas no Jornal Oficial da União Europeia são conformes com os requisitos de cibersegurança estabelecidos no artigo 15.o do presente regulamento, contanto que o certificado de cibersegurança ou a declaração de conformidade ou partes dos mesmos abranjam esses requisitos.
Článok 43
Artigo 43.o
Posudzovanie zhody
Avaliação da conformidade
1. Ak poskytovateľ pri preukazovaní súladu vysokorizikového systému AI uvedeného v prílohe III bode 1 s požiadavkami stanovenými v oddiele 2 uplatnil harmonizované normy uvedené v článku 40, alebo v relevantnom prípade spoločné špecifikácie uvedené v článku 41, rozhodne sa pre jeden z týchto postupov posudzovania zhody založený na:
1. No respeitante aos sistemas de IA de risco elevado enumerados no anexo III, ponto 1, se, ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos na secção 2, o prestador tiver aplicado as normas harmonizadas a que se refere o artigo 40.o, ou, se for caso disso, as especificações comuns a que se refere o artigo 41.o, o prestador deve optar por um dos seguintes procedimentos:
a)
vnútornej kontrole uvedenej v prílohe VI, alebo
a)
O controlo interno a que se refere o anexo VI; ou
b)
posudzovaní systému riadenia kvality a posudzovaní technickej dokumentácie so zapojením notifikovanej osoby podľa prílohy VII.
b)
A avaliação do sistema de gestão da qualidade e a avaliação da documentação técnica, com a participação de um organismo notificado, a que se refere o anexo VII.
Pri preukazovaní súladu vysokorizikového systému AI s požiadavkami stanovenými v oddiele 2 poskytovateľ dodržiava postup posudzovania zhody stanovený v prílohe VII, ak:
Ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos na secção 2, o prestador deve seguir o procedimento de avaliação da conformidade estabelecido no anexo VII quando:
a)
harmonizované normy uvedené v článku 40 neexistujú a spoločné špecifikácie uvedené v článku 41 nie sú k dispozícii;
a)
Não existam as normas harmonizadas a que se refere o artigo 40.o e não estejam disponíveis as especificações comuns a que se refere o artigo 41.o;
b)
poskytovateľ harmonizovanú normu neuplatnil alebo ju uplatnil len čiastočne;
b)
O prestador não tenha aplicado, ou tenha aplicado apenas parcialmente, a norma harmonizada;
c)
spoločné špecifikácie uvedené v písmene a) existujú, ale poskytovateľ ich neuplatnil;
c)
Existam as especificações comuns a que se refere a alínea a), mas o prestador não as tenha aplicado;
d)
jedna alebo viaceré harmonizované normy uvedené v písmene a) boli uverejnené s obmedzením a len pre tú časť normy, ktorá bola obmedzená.
d)
Uma ou mais das normas harmonizadas a que se refere a alínea a) tenham sido publicadas com uma restrição, e apenas no tocante à parte da norma que foi objeto da restrição.
Na účely postupu posudzovania zhody uvedeného v prílohe VII si poskytovateľ môže vybrať ktorúkoľvek z notifikovaných osôb. Ak však majú vysokorizikový systém AI uviesť do prevádzky orgány presadzovania práva, imigračné alebo azylové orgány, alebo inštitúcie, orgány, úrady alebo agentúry Únie, ako notifikovaná osoba koná orgán dohľadu nad trhom uvedený v článku 74 ods. 8 alebo 9.
Para efeitos do procedimento de avaliação da conformidade a que se refere o anexo VII, o prestador pode escolher qualquer um dos organismos notificados. Contudo, caso o sistema de IA de risco elevado se destine a ser colocado em serviço por autoridades competentes em matéria de aplicação da lei, imigração ou asilo ou por instituições, órgãos e organismos da UE, a autoridade de fiscalização do mercado a que se refere o artigo 74.o, n.os 8 ou 9, consoante aplicável, atua como organismo notificado.
2. V prípade vysokorizikových systémov AI uvedených v prílohe III bodoch 2 až 8 poskytovatelia dodržiavajú postup posudzovania zhody na základe vnútornej kontroly uvedený v prílohe VI, v ktorom sa nestanovuje zapojenie notifikovanej osoby.
2. Em relação aos sistemas de IA de risco elevado enumerados no anexo III, pontos 2 a 8, os prestadores devem seguir o procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI, que não prevê a participação de um organismo notificado.
3. V prípade vysokorizikových systémov AI, na ktoré sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I oddiele A, poskytovateľ dodržiava príslušný postup posudzovania zhody, ako sa vyžaduje v uvedených právnych aktoch. Na uvedené vysokorizikové systémy AI sa vzťahujú požiadavky stanovené v oddiele 2 tejto kapitoly a sú súčasťou tohto posúdenia. Uplatňuje sa aj príloha VII body 4.3, 4.4, 4.5 a bod 4.6 piaty odsek.
3. Em relação aos sistemas de IA de risco elevado abrangidos pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção A, o prestador deve seguir o procedimento de avaliação da conformidade aplicável nos termos desses atos jurídicos. Os requisitos estabelecidos na secção 2 do presente capítulo aplicam-se a esses sistemas de IA de risco elevado e devem fazer parte dessa avaliação. É igualmente aplicável o disposto no anexo VII, pontos 4.3, 4.4, 4.5 e ponto 4.6, quinto parágrafo.
Na účely uvedeného posúdenia sú notifikované osoby, ktoré boli notifikované podľa uvedených právnych aktov, oprávnené kontrolovať súlad vysokorizikových systémov AI s požiadavkami stanovenými v oddiele 2 za predpokladu, že v rámci postupu notifikácie podľa uvedených právnych aktov sa posúdil súlad týchto notifikovaných osôb s požiadavkami stanovenými v článku 31 ods. 4, 5, 10 a 11.
Para efeitos dessa avaliação, os organismos notificados que tenham sido notificados nos termos dos referidos atos jurídicos ficam habilitados a verificar a conformidade dos sistemas de IA de risco elevado com os requisitos estabelecidos na secção 2, contanto que a conformidade desses organismos notificados com os requisitos estabelecidos no artigo 31.o, n.os 4, 5, 10 e 11, tenha sido avaliada no contexto do procedimento de notificação previsto nesses atos jurídicos.
Ak právny akt uvedený v prílohe I oddiele A umožňuje výrobcovi výrobku neuplatňovať posudzovanie zhody treťou stranou za predpokladu, že uplatnil všetky harmonizované normy vzťahujúce sa na všetky príslušné požiadavky, môže tento výrobca využiť túto možnosť len vtedy, ak uplatnil aj harmonizované normy alebo v relevantnom prípade spoločné špecifikácie uvedené v článku 41, ktoré sa vzťahujú na všetky požiadavky stanovené v oddiele 2 tejto kapitoly.
Sempre que um ato jurídico enumerado na secção A do anexo I permita que o fabricante do produto renuncie a uma avaliação da conformidade por terceiros, desde que esse fabricante tenha aplicado todas as normas harmonizadas que abrangem os requisitos previstos nesses atos, o fabricante apenas pode recorrer a tal opção se tiver também aplicado normas harmonizadas ou, se for caso disso, especificações comuns a que se refere o artigo 41.o que abranjam todos os requisitos estabelecidos na secção 2 do presente capítulo.
4. V prípade, že dôjde k podstatnej zmene vysokorizikových systémov AI, ktoré už prešli postupom posudzovania zhody, podrobia sa novému postupu posudzovania zhody, a to bez ohľadu na to, či je zmenený systém určený na ďalšiu distribúciu alebo či ho ďalej používa súčasný nasadzujúci subjekt.
4. Os sistemas de IA de risco elevado que já tenham sido sujeitos a um procedimento de avaliação da conformidade devem ser sujeitos a um novo procedimento de avaliação da conformidade caso sejam substancialmente modificados, independentemente de o sistema modificado se destinar a distribuição ulterior ou continuar a ser utilizado pelo atual responsável pela implantação.
V prípade vysokorizikových systémov AI, ktoré sa po uvedení na trh alebo do prevádzky ďalej učia, nepredstavujú podstatnú zmenu tie zmeny vysokorizikového systému AI a jeho výkonnosti, ktoré poskytovateľ určil vopred v čase počiatočného posudzovania zhody a ktoré sú zahrnuté v informáciách obsiahnutých v technickej dokumentácii uvedenej v prílohe IV bode 2 písm. f).
No caso dos sistemas de IA de risco elevado que continuam a aprender após a colocação no mercado ou a colocação em serviço, as alterações ao sistema de IA de risco elevado e ao seu desempenho que tenham sido predeterminadas pelo prestador aquando da avaliação da conformidade inicial e façam parte das informações contidas na documentação técnica a que se refere o anexo IV, ponto 2, alínea f), não constituem uma modificação substancial.
5. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 na účely zmeny príloh VI a VII ich aktualizáciou vzhľadom na technický pokrok.
5. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar os anexos VI e VII atualizando-os à luz da evolução técnica.
6. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 na účely zmeny odsekov 1 a 2 tohto článku s cieľom podrobiť vysokorizikové systémy AI uvedené v prílohe III bodoch 2 až 8 postupu posudzovania zhody uvedenému v prílohe VII alebo jeho častiam. Pri prijímaní takýchto delegovaných aktov Komisia zohľadní účinnosť postupu posudzovania zhody na základe vnútornej kontroly uvedeného v prílohe VI pri predchádzaní alebo minimalizácii rizík pre zdravie, bezpečnosť a ochranu základných práv, ktoré takéto systémy predstavujú, ako aj dostupnosť primeraných kapacít a zdrojov notifikovaných osôb.
6. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar os n.os 1 e 2 do presente artigo, a fim de sujeitar os sistemas de IA de risco elevado a que se refere o anexo III, pontos 2 a 8, à totalidade, ou a parte, do procedimento de avaliação da conformidade a que se refere o anexo VII. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI no que toca à prevenção ou minimização dos riscos que esses sistemas representam para a saúde e a segurança e para a proteção dos direitos fundamentais, bem como a disponibilidade de capacidades e recursos adequados nos organismos notificados.
Článok 44
Artigo 44.o
Certifikáty
Certificados
1. Certifikáty vydané notifikovanými osobami v súlade s prílohou VII sa vyhotovujú v jazyku, ktorému príslušné orgány v členskom štáte, v ktorom je notifikovaná osoba usadená, bez problémov rozumejú.
1. Os certificados emitidos pelos organismos notificados em conformidade com o anexo VII devem ser redigidos numa língua que possa ser facilmente compreendida pelas autoridades competentes do Estado-Membro em que o organismo notificado estiver estabelecido.
2. Certifikáty platia na obdobie, ktoré sa v nich uvádza a ktoré nepresiahne päť rokov v prípade systémov AI, na ktoré sa vzťahuje príloha I, a obdobie štyroch rokov v prípade systémov AI, na ktoré sa vzťahuje príloha III. Na žiadosť poskytovateľa možno platnosť certifikátu predĺžiť na ďalšie obdobia, z ktorých žiadne nepresiahne päť rokov v prípade systémov AI, na ktoré sa vzťahuje príloha I, a štyri roky v prípade systémov AI, na ktoré sa vzťahuje príloha III, a to na základe opätovného posúdenia v súlade s uplatniteľnými postupmi posudzovania zhody. Akýkoľvek dodatok k certifikátu zostáva v platnosti, kým sa neskončí platnosť certifikátu, ktorý dopĺňa.
2. Os certificados são válidos pelo período neles indicado, que não pode exceder cinco anos para os sistemas de IA abrangidos pelo anexo I e quatro anos para os sistemas de IA abrangidos pelo anexo III. A pedido do prestador, a validade de um certificado pode ser prorrogada por novos períodos não superiores a cinco anos para os sistemas de IA abrangidos pelo anexo I e a quatro anos para os sistemas de IA abrangidos pelo anexo III, com base numa reavaliação segundo os procedimentos de avaliação da conformidade aplicáveis. Os eventuais aditamentos a um certificado permanecem válidos, desde que o certificado a que dizem respeito seja válido.
3. Ak notifikovaná osoba zistí, že systém AI prestal spĺňať požiadavky stanovené v oddiele 2, pozastaví so zreteľom na zásadu primeranosti platnosť vydaného certifikátu alebo ho stiahne, alebo jeho platnosť obmedzí, pokiaľ sa v primeranej lehote stanovenej notifikovanou osobou vhodnými nápravnými opatreniami prijatými poskytovateľom systému nezabezpečí súlad s týmito požiadavkami. Notifikovaná osoba svoje rozhodnutie odôvodní.
3. Se verificar que um sistema de IA deixou de cumprir os requisitos estabelecidos na secção 2, o organismo notificado deve suspender, retirar ou restringir o certificado emitido, tendo em conta o princípio da proporcionalidade, a não ser que o prestador do sistema assegure o cumprimento desses requisitos tomando as medidas corretivas necessárias num prazo adequado estabelecido pelo organismo notificado. O organismo notificado deve fundamentar a sua decisão.
Proti rozhodnutiam notifikovaných osôb možno podať odvolanie, a to aj vo veci vydaných certifikátov zhody.
Deve prever-se um procedimento de recurso das decisões dos organismos notificados, incluindo sobre os certificados de conformidade emitidos.
Článok 45
Artigo 45.o
Informačné povinnosti notifikovaných osôb
Obrigações de informação dos organismos notificados
1. Notifikované osoby informujú notifikujúci orgán:
1. Os organismos notificados devem comunicar à autoridade notificadora as seguintes informações:
a)
o všetkých certifikátoch Únie o posúdení technickej dokumentácie, všetkých dodatkoch k týmto certifikátom a všetkých schváleniach systémov riadenia kvality vydaných v súlade s požiadavkami prílohy VII;
a)
Certificados da União de avaliação da documentação técnica, todos os suplementos desses certificados, bem como aprovações de sistemas de gestão da qualidade emitidos em conformidade com os requisitos do anexo VII;
b)
o všetkých zamietnutiach, obmedzeniach platnosti, pozastaveniach platnosti alebo stiahnutiach certifikátov Únie o posúdení technickej dokumentácie alebo schválení systémov riadenia kvality vydaných v súlade s požiadavkami prílohy VII;
b)
Recusas, restrições, suspensões ou retiradas de certificados da União de avaliação da documentação técnica ou de aprovações de sistemas de gestão da qualidade emitidos em conformidade com os requisitos do anexo VII;
c)
o všetkých okolnostiach, ktoré majú vplyv na rozsah alebo podmienky notifikácie;
c)
Circunstâncias que afetem o âmbito ou as condições de notificação;
d)
o každej žiadosti o informácie, ktorú dostali od orgánov dohľadu nad trhom v súvislosti s činnosťami posudzovania zhody;
d)
Pedidos de informação que tenham recebido das autoridades de fiscalização do mercado sobre as atividades de avaliação da conformidade;
e)
na požiadanie o činnostiach posudzovania zhody vykonaných v rozsahu ich notifikácie a o akejkoľvek inej vykonanej činnosti vrátane cezhraničných činností a zadávania činností subdodávateľom.
e)
Se lhes for solicitado, as atividades de avaliação da conformidade exercidas no âmbito da respetiva notificação e quaisquer outras atividades exercidas, nomeadamente atividades transfronteiriças e de subcontratação.
2. Každá notifikovaná osoba informuje ostatné notifikované osoby o:
2. Cada organismo notificado deve informar os outros organismos notificados sobre:
a)
schváleniach systémov riadenia kvality, ktoré zamietla, ktorých platnosť pozastavila alebo ktoré stiahla, a na požiadanie o schváleniach systémov riadenia kvality, ktoré vydala;
a)
As aprovações de sistemas de gestão da qualidade que tenha recusado, suspendido ou retirado e, mediante pedido, as aprovações que tenha concedido a sistemas de qualidade;
b)
certifikátoch Únie o posúdení technickej dokumentácie alebo akýchkoľvek ich dodatkoch, ktoré zamietla, stiahla, ktorých platnosť pozastavila alebo inak obmedzila, a na požiadanie o certifikátoch a/alebo ich dodatkoch, ktoré vydala.
b)
Os certificados da União de avaliação da documentação técnica ou quaisquer suplementos dos mesmos que tenha recusado, retirado, suspendido ou restringido e, mediante pedido, os certificados e/ou suplementos dos mesmos que tenha emitido.
3. Každá notifikovaná osoba poskytne ostatným notifikovaným osobám, ktoré vykonávajú podobné činnosti posudzovania zhody vzťahujúce sa na rovnaké typy systémov AI, relevantné informácie o otázkach týkajúcich sa negatívnych a na požiadanie aj pozitívnych výsledkov posudzovania zhody.
3. Cada organismo notificado deve disponibilizar aos outros organismos notificados que realizam atividades de avaliação da conformidade semelhantes e relativas aos mesmos tipos de sistemas de IA informações importantes sobre questões relativas aos resultados negativos e, mediante pedido, aos resultados positivos dos procedimentos de avaliação da conformidade.
4. Notifikované osoby zabezpečia dôvernosť informácií, ktoré získajú, v súlade s článkom 78.
4. Os organismos notificados devem proteger a confidencialidade das informações que obtêm, em conformidade com o artigo 78.o.
Článok 46
Artigo 46.o
Výnimka z postupu posudzovania zhody
Derrogação do procedimento de avaliação da conformidade
1. Odchylne od článku 43 a na základe riadne odôvodnenej žiadosti môže každý orgán dohľadu nad trhom z výnimočných dôvodov verejnej bezpečnosti alebo ochrany života a zdravia osôb, ochrany životného prostredia a ochrany kľúčových priemyselných a infraštruktúrnych aktív povoliť uvedenie konkrétnych vysokorizikových systémov AI na trh alebo do prevádzky na území dotknutého členského štátu. Toto povolenie sa udelí na obmedzené obdobie, kým sa vykonávajú potrebné postupy posudzovania zhody, pričom sa zohľadnia výnimočné dôvody odôvodňujúce výnimku. Uvedené postupy sa dokončia bez zbytočného odkladu.
1. Em derrogação do artigo 43.o e mediante pedido devidamente justificado, qualquer autoridade de fiscalização do mercado pode autorizar a colocação no mercado ou a colocação em serviço de determinados sistemas de IA de risco elevado no território do Estado-Membro em causa, por motivos excecionais de segurança pública ou de proteção da vida e da saúde das pessoas, de proteção do ambiente ou de proteção de ativos industriais e infraestruturas essenciais. Essa autorização é concedida por um período limitado enquanto estiverem em curso os procedimentos de avaliação da conformidade necessários, tendo em conta as razões excecionais que justificam a derrogação. Esses procedimentos devem ser concluídos sem demora injustificada.
2. V riadne odôvodnenej naliehavej situácii z výnimočných dôvodov verejnej bezpečnosti alebo v prípade konkrétneho, závažného a bezprostredného ohrozenia života alebo fyzickej bezpečnosti fyzických osôb môžu orgány presadzovania práva alebo orgány civilnej ochrany uviesť do prevádzky konkrétny vysokorizikový systém AI bez povolenia uvedeného v odseku 1 za predpokladu, že o takéto povolenie sa bez zbytočného odkladu požiada počas jeho používania alebo po ňom. Ak sa povolenie uvedené v odseku 1 zamietne, používanie vysokorizikového systému AI sa s okamžitou účinnosťou zastaví a všetky výsledky a výstupy takéhoto používania sa okamžite zlikvidujú.
2. Em situações de urgência devidamente justificadas por motivos excecionais de segurança pública ou em caso de ameaça específica, substancial e iminente para a vida ou a segurança física de pessoas singulares, as autoridades responsáveis pela aplicação da lei ou as autoridades da proteção civil podem colocar em serviço um sistema de IA de risco elevado específico sem a autorização a se refere o n.o 1, desde que essa autorização seja solicitada durante ou após a utilização, sem demora injustificada. Se a autorização a que se refere o n.o 1 for recusada, a utilização do sistema de IA de risco elevado deve ser suspensa com efeito imediato e todos os resultados dessa utilização devem ser imediatamente descartados.
3. Povolenie uvedené v odseku 1 sa vydá len vtedy, ak orgán dohľadu nad trhom dospeje k záveru, že vysokorizikový systém AI spĺňa požiadavky oddielu 2. O každom povolení vydanom podľa odsekov 1 a 2 informuje orgán dohľadu nad trhom Komisiu a ostatné členské štáty. Táto povinnosť sa nevzťahuje na citlivé operačné údaje týkajúce sa činností orgánov presadzovania práva.
3. A autorização a que se refere o n.o 1 só deve ser concedida se a autoridade de fiscalização do mercado concluir que o sistema de IA de risco elevado cumpre os requisitos da secção 2. A autoridade de fiscalização do mercado deve informar a Comissão e os outros Estados-Membros sobre as autorizações concedidas nos termos dos n.os 1 e 2. Esta obrigação não abrange os dados operacionais sensíveis relativos às atividades das autoridades responsáveis pela aplicação da lei.
4. Ak žiaden členský štát ani Komisia do 15 kalendárnych dní od doručenia informácií uvedených v odseku 3 nevznesú námietku proti povoleniu vydanému orgánom dohľadu na trhom členského štátu v súlade s odsekom 1, toto povolenie sa považuje za opodstatnené.
4. Se, no prazo de 15 dias a contar da receção da informação a que se refere o n.o 3, nem os Estados-Membros nem a Comissão tiverem formulado objeções a uma autorização concedida por uma autoridade de fiscalização do mercado de um Estado-Membro em conformidade com o n.o 1, considera-se que a autorização é justificada.
5. Ak do 15 kalendárnych dní od doručenia oznámenia uvedeného v odseku 3 členský štát vznesie námietky proti povoleniu, ktoré vydal orgán dohľadu nad trhom iného členského štátu, alebo ak sa Komisia domnieva, že povolenie je v rozpore s právom Únie alebo že záver členských štátov, pokiaľ ide o súlad systému uvedeného v odseku 3, je neopodstatnený, Komisia začne bezodkladne konzultácie s príslušným členským štátom. S dotknutými prevádzkovateľmi sa vedú konzultácie a majú možnosť vyjadriť svoje stanovisko. So zreteľom na to Komisia rozhodne, či je povolenie opodstatnené. Komisia svoje rozhodnutie oznámi dotknutému členskému štátu a príslušným prevádzkovateľom.
5. Se, nos 15 dias subsequentes à receção da notificação a que se refere o n.o 3, um Estado-Membro formular objeções a uma autorização concedida por uma autoridade de fiscalização do mercado de outro Estado-Membro, ou se a Comissão considerar que a autorização é contrária ao direito da União ou que a conclusão dos Estados-Membros sobre a conformidade do sistema a que se refere o n.o 3 é infundada, a Comissão procede sem demora a consultas com o Estado-Membro em causa. Os operadores em causa devem ser consultados e ter a possibilidade de apresentar as suas observações. Tendo em conta essas consultas, a Comissão decide se a autorização se justifica. A Comissão designa o Estado-Membro e os operadores em causa como destinatários da decisão.
6. Ak Komisia považuje povolenie za neopodstatnené, orgán dohľadu nad trhom dotknutého členského štátu ho stiahne.
6. Se a Comissão considerar que a autorização é injustificada, a autoridade de fiscalização do mercado do Estado-Membro em causa deve retirá-la.
7. V prípade vysokorizikových systémov AI súvisiacich s výrobkami, na ktoré sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I oddiele A, sa uplatňujú len výnimky z posudzovania zhody stanovené v uvedených harmonizačných právnych predpisoch Únie.
7. No caso dos sistemas de IA de risco elevado relacionados com produtos abrangidos pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I, secção A, só são aplicáveis as derrogações à avaliação da conformidade previstas nessa mesma legislação.
Článok 47
Artigo 47.o
EÚ vyhlásenie o zhode
Declaração UE de conformidade
1. Pre každý vysokorizikový systém AI vyhotoví poskytovateľ písomné, strojovo čitateľné, fyzicky alebo elektronicky podpísané EÚ vyhlásenie o zhode, ktoré počas 10 rokov po uvedení vysokorizikového systému AI na trh alebo do prevádzky uchováva k dispozícii pre vnútroštátne príslušné orgány. V EÚ vyhlásení o zhode sa uvádza vysokorizikový systém AI, pre ktorý bolo vyhotovené. Na požiadanie sa kópia EÚ vyhlásenia o zhode predloží relevantným vnútroštátnym príslušným orgánom.
1. O prestador deve elaborar uma declaração UE de conformidade legível por máquina, assinada à mão ou eletronicamente, para cada sistema de IA de risco elevado, e mantê-la à disposição das autoridades nacionais competentes por um período de 10 anos a contar da data de colocação no mercado ou de colocação em serviço do sistema de IA de risco elevado. A declaração UE de conformidade deve especificar o sistema de IA de risco elevado para o qual foi elaborada. Deve ser apresentada às autoridades nacionais competentes, mediante pedido, uma cópia da declaração UE de conformidade.
2. V EÚ vyhlásení o zhode sa uvedie, že dotknutý vysokorizikový systém AI spĺňa požiadavky stanovené v oddiele 2. EÚ vyhlásenie o zhode obsahuje informácie uvedené v prílohe V a preloží sa do jazyka, ktorému vnútroštátne príslušné orgány členských štátov, v ktorých sa vysokorizikový systém AI uvádza na trh alebo sprístupňuje, bez problémov rozumejú.
2. A declaração UE de conformidade deve mencionar que o sistema de IA de risco elevado em causa cumpre os requisitos estabelecidos na secção 2. A declaração UE de conformidade deve conter as informações indicadas no anexo V e ser traduzida para uma língua que possa ser facilmente compreendida pelas autoridades nacionais competentes dos Estados-Membros em que o sistema de IA de risco elevado seja colocado no mercado ou disponibilizado.
3. Ak sa na vysokorizikové systémy AI vzťahujú ďalšie harmonizačné právne predpisy Únie, v ktorých sa takisto vyžaduje EÚ vyhlásenie o zhode, vyhotoví sa vo vzťahu k všetkým právnym predpisom Únie uplatniteľným na daný vysokorizikový systém AI jedno EÚ vyhlásenie o zhode. Toto vyhlásenie obsahuje všetky informácie potrebné na to, aby bolo možné identifikovať harmonizačné právne predpisy Únie, na ktoré sa vyhlásenie vzťahuje.
3. Se os sistemas de IA de risco elevado estiverem sujeitos a outra legislação de harmonização da União que também exija uma declaração UE de conformidade, deve ser elaborada uma única declaração UE de conformidade respeitante a todo o direito da União aplicáveis ao sistema de IA de risco elevado. A declaração deve incluir todas as informações necessárias para identificar a legislação de harmonização da União a que diz respeito.
4. Vypracovaním EÚ vyhlásenia o zhode preberá poskytovateľ zodpovednosť za splnenie požiadaviek stanovených v oddiele 2. Poskytovateľ podľa potreby EÚ vyhlásenie o zhode aktualizuje.
4. Ao elaborar a declaração UE de conformidade, o prestador assume a responsabilidade pelo cumprimento dos requisitos estabelecidos na secção 2. O prestador deve manter a declaração UE de conformidade atualizada na medida do necessário.
5. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 na účely zmeny prílohy V aktualizovaním obsahu EÚ vyhlásenia o zhode stanoveného v uvedenej prílohe s cieľom zaviesť prvky, ktorých potreba vznikne vzhľadom na technický pokrok.
5. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar o anexo V através da atualização do conteúdo da declaração UE de conformidade estabelecido nesse anexo, a fim de introduzir elementos que se tornem necessários à luz da evolução técnica.
Článok 48
Artigo 48.o
Označenie CE
Marcação CE
1. Označenie CE sa riadi všeobecnými zásadami stanovenými v článku 30 nariadenia (ES) č. 765/2008.
1. A marcação CE está sujeita aos princípios gerais enunciados no artigo 30.o do Regulamento (CE) n.o 765/2008.
2. V prípade digitálne poskytovaných vysokorizikových systémov AI sa digitálne označenie CE používa len vtedy, ak je k nemu možný jednoduchý prístup prostredníctvom rozhrania, z ktorého je prístup k tomuto systému, alebo prostredníctvom ľahko dostupného strojovo čitateľného kódu alebo iných elektronických prostriedkov.
2. No caso dos sistemas de IA de risco elevado disponibilizados digitalmente, só deve ser utilizada uma marcação CE digital se esta for facilmente acessível através da interface a partir da qual se acede a esse sistema ou através de um código legível por máquina facilmente acessível ou por outros meios eletrónicos.
3. Označenie CE sa v prípade vysokorizikových systémov AI umiestni viditeľne, čitateľne a neodstrániteľne. Ak to nie je možné alebo odôvodnené z hľadiska povahy vysokorizikového systému AI, označenie CE sa umiestni na obale alebo v relevantnom prípade na sprievodnej dokumentácii.
3. A marcação CE deve ser aposta de modo visível, legível e indelével nos sistemas de IA de risco elevado. Caso a natureza do sistema de IA de risco elevado não permita ou não garanta essas características da marcação, esta deve ser aposta na embalagem ou na documentação que acompanha o sistema, conforme for mais adequado.
4. V relevantných prípadoch za označením CE nasleduje identifikačné číslo notifikovanej osoby zodpovednej za postupy posudzovania zhody stanovené v článku 43. Identifikačné číslo notifikovanej osoby umiestňuje samotná osoba alebo na základe jej pokynov poskytovateľ alebo jeho splnomocnený zástupca. Identifikačné číslo sa uvedie aj v akomkoľvek propagačnom materiáli, v ktorom sa nachádza informácia, že vysokorizikový systém AI spĺňa požiadavky na označenie CE.
4. Quando aplicável, a marcação CE deve ser acompanhada do número de identificação do organismo notificado responsável pelos procedimentos de avaliação da conformidade estabelecidos no artigo 43.o. O número de identificação do organismo notificado deve ser aposto pelo próprio organismo ou, segundo as suas instruções, pelo prestador ou pelo seu mandatário. O número de identificação deve ser também indicado em todo o material promocional que mencione que o sistema de IA de risco elevado cumpre os requisitos aplicáveis à marcação CE.
5. Ak vysokorizikové systémy AI podliehajú iným právnym predpisom Únie, v ktorých sa takisto vyžaduje umiestňovanie označenia CE, v označení CE sa uvedie, že vysokorizikové systémy AI spĺňajú aj požiadavky uvedených iných právnych predpisov.
5. Caso os sistemas de IA de risco elevado sejam objeto de outro direito da União que também preveja a aposição da marcação CE, essa marcação deve indicar que os sistemas de IA de risco elevado cumprem igualmente os requisitos desse outro direito.
Článok 49
Artigo 49.o
Registrácia
Registo
1. Pred tým, ako sa na trh alebo do prevádzky uvedie vysokorizikový systém AI uvedený v prílohe III s výnimkou vysokorizikových systémov AI uvedených v prílohe III bode 2, poskytovateľ alebo v relevantnom prípade jeho splnomocnený zástupca sa zaregistruje v databáze Únie uvedenej v článku 71 a zaregistruje aj daný systém.
1. Antes da colocação no mercado ou da colocação em serviço de um sistema de IA de risco elevado enumerado no anexo III, com exceção dos sistemas de IA de risco elevado a que se refere o anexo III, ponto 2, o prestador ou, se for caso disso, o mandatário deve registar-se e registar o seu sistema na base de dados da UE a que se refere o artigo 71.o.
2. Pred tým, ako sa na trh alebo do prevádzky uvedie systém AI, pri ktorom poskytovateľ dospel podľa článku 6 ods. 3 k záveru, že nie je vysokorizikový, tento poskytovateľ alebo v relevantnom prípade jeho splnomocnený zástupca sa zaregistruje v databáze Únie uvedenej v článku 71 a zaregistruje aj daný systém.
2. Antes da colocação no mercado ou da colocação em serviço de um sistema de IA relativamente ao qual o prestador tenha concluído que não é de risco elevado nos termos do artigo 6.o, n.o 3, esse prestador ou, se for caso disso, o mandatário deve registar-se e registar esse sistema na base de dados da UE a que se refere o artigo 71.o.
3. Pred uvedením do prevádzky alebo pred začatím používania vysokorizikového systému AI uvedeného v prílohe III, s výnimkou vysokorizikových systémov AI uvedených v prílohe III bode 2, nasadzujúce subjekty, ktoré sú orgánmi verejnej moci, inštitúcie, orgány úrady alebo agentúry Únie, alebo osoby, ktoré konajú v ich mene, sa zaregistrujú v databáze Únie uvedenej v článku 71, vyberú príslušný systém a zaregistrujú jeho používanie.
3. Antes de colocarem em serviço ou utilizarem um dos sistemas de IA de risco elevado enumerados no anexo III, com exceção dos sistemas de IA de risco elevado enumerados no ponto 2 do anexo III, os responsáveis pela implantação que sejam autoridades públicas, instituições, órgãos ou organismos da União ou pessoas que atuem em seu nome devem registar-se, selecionar o sistema e registar a sua utilização na base de dados da UE a que se refere o artigo 71.o.
4. V prípade vysokorizikových systémov AI uvedených v prílohe III bodoch 1, 6 a 7 v oblastiach presadzovania práva, migrácie, azylu a riadenia kontroly hraníc sa registrácia uvedená v odsekoch 1, 2 a 3 tohto článku vykoná v zabezpečenej neverejnej časti databázy Únie uvedenej v článku 71 a podľa potreby zahŕňa len informácie uvedené v:
4. No caso dos sistemas de IA de risco elevado a que se refere o anexo III, pontos 1, 6 e 7, nos domínios da aplicação da lei, da migração, do asilo e da gestão do controlo das fronteiras, o registo referido nos n.os 1, 2 e 3 do presente artigo deve ser efetuado numa secção segura e não pública da base de dados da UE a que se refere o artigo 71.o e incluir apenas as seguintes informações, conforme aplicável, a que se referem:
a)
prílohe VIII oddiele A bodoch 1 až 10 s výnimkou bodov 6, 8 a 9;
a)
O anexo VIII, secção A, pontos 1 a 10, com exceção dos pontos 6, 8 e 9;
b)
prílohe VIII oddiele B bodoch 1 až 5 a 8 a 9;
b)
O anexo VIII, secção B, pontos 1 a 5 e pontos 8 e 9;
c)
prílohe VIII oddiele C bodoch 1 až 3;
c)
O anexo VIII, secção C, pontos 1 a 3;
d)
prílohe IX bodoch 1, 2, 3 a 5.
d)
O anexo IX, pontos 1, 2, 3 e 5.
K príslušným obmedzeným častiam databázy Únie uvedeným v prvom pododseku toho odseku má prístup len Komisia a vnútroštátne orgány uvedené v článku 74 ods. 8.
Só a Comissão e as autoridades nacionais referidas no artigo 74.o, n.o 8, têm acesso às respetivas secções restritas da base de dados da UE a que se refere o primeiro parágrafo do presente número.
5. Vysokorizikové systémy AI uvedené v prílohe III bode 2 sa registrujú na vnútroštátnej úrovni.
5. Os sistemas de IA de risco elevado a que se refere o anexo III, ponto 2, devem ser registados a nível nacional.
KAPITOLA IV
CAPÍTULO IV
POVINNOSTI V OBLASTI TRANSPARENTNOSTI PRE POSKYTOVATEĽOV A NASADZUJÚCE SUBJEKTY URČITÝCH SYSTÉMOV AI
OBRIGAÇÕES DE TRANSPARÊNCIA APLICÁVEIS AOS PRESTADORES E RESPONSÁVEIS PELA IMPLANTAÇÃO DE DETERMINADOS SISTEMAS DE IA
Článok 50
Artigo 50.o
Povinnosti v oblasti transparentnosti pre poskytovateľov a nasadzujúce subjekty určitých systémov AI
Obrigações de transparência aplicáveis aos prestadores e responsáveis pela implantação de determinados sistemas de inteligência artificial
1. Poskytovatelia zabezpečia, aby systémy AI určené na priamu interakciu s fyzickými osobami boli dizajnované a vyvinuté tak, aby boli dotknuté fyzické osoby informované o tom, že interagujú so systémom AI, pokiaľ to nie je zrejmé z hľadiska fyzickej osoby, ktorá je primerane informovaná, pozorná a obozretná, pričom sa prihliada na okolnosti a kontext používania. Táto povinnosť sa nevzťahuje na systémy AI, ktoré sa podľa zákona môžu používať na odhaľovanie, prevenciu, vyšetrovanie alebo stíhanie trestných činov, a to s výhradou primeraných záruk ochrany práv a slobôd tretích strán, pokiaľ tieto systémy nie sú sprístupnené verejnosti na oznamovanie trestných činov.
1. Os prestadores devem assegurar que os sistemas de IA destinados a interagir diretamente com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares em causa sejam informadas de que estão a interagir com um sistema de IA, salvo se tal for óbvio do ponto de vista de uma pessoa singular razoavelmente informada, atenta e advertida, tendo em conta as circunstâncias e o contexto de utilização. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar ou reprimir infrações penais, sob reserva de garantias adequadas dos direitos e liberdades de terceiros, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal.
2. Poskytovatelia systémov AI vrátane systémov AI na všeobecné účely, ktoré generujú syntetický zvukový, obrazový, video alebo textový obsah, zabezpečia, aby boli výstupy systému AI označené v strojovo čitateľnom formáte a zistiteľné ako umelo vygenerované alebo zmanipulované. Poskytovatelia zabezpečia, aby ich technické riešenia boli účinné, interoperabilné, odolné a spoľahlivé, pokiaľ je to technicky možné, s prihliadnutím na osobitosti a obmedzenia rozličných druhov obsahu, náklady na implementáciu a všeobecne uznávaný aktuálny stav vývoja, ktoré sa môžu odzrkadľovať v príslušných technických normách. Táto povinnosť sa neuplatňuje v rozsahu, v ktorom systémy AI vykonávajú pomocnú funkciu pri štandardných redakčných úpravách alebo pokiaľ podstatne nemenia vstupné údaje poskytnuté nasadzujúcim subjektom alebo ich sémantiku, alebo ak je to zákonom povolené na odhaľovanie, prevenciu, vyšetrovanie alebo stíhanie trestných činov.
2. Os prestadores de sistemas de IA, incluindo sistemas de IA de finalidade geral, que geram conteúdos sintéticos de áudio, imagem, vídeo ou texto, devem assegurar que os resultados do sistema de IA sejam marcados num formato legível por máquina e detetáveis como tendo sido artificialmente gerados ou manipulados. Os prestadores devem assegurar que as suas soluções técnicas são eficazes, interoperáveis, sólidas e fiáveis, na medida em que tal seja tecnicamente viável, tendo em conta as especificidades e limitações dos vários tipos de conteúdos, os custos de aplicação e o estado da arte geralmente reconhecido, tal como estiver refletido em normas técnicas pertinentes. Esta obrigação não se aplica na medida em que os sistemas de IA desempenhem uma função de apoio à edição normalizada ou não alterem substancialmente os dados de entrada disponibilizados pelo responsável pela implantação ou a semântica dos mesmos, ou quando a sua utilização for autorizada por lei para detetar, prevenir, investigar e reprimir infrações penais.
3. Nasadzujúce subjekty systému na rozpoznávanie emócií alebo systému biometrickej kategorizácie informujú o prevádzke systému fyzické osoby, ktoré sú mu vystavené, a spracúvajú osobné údaje v súlade s nariadeniami (EÚ) 2016/679 a (EÚ) 2018/1725 a v relevantnom prípade so smernicou (EÚ) 2016/680. Táto povinnosť sa nevzťahuje na systémy AI používané na biometrickú kategorizáciu a rozpoznávanie emócií, ktoré zákon povoľuje na odhaľovanie, prevenciu, vyšetrovanie alebo stíhanie trestných činov, s výhradou primeraných záruk ochrany práv a slobôd tretích strán a v súlade s právom Únie.
3. Os responsáveis pela implantação de um sistema de reconhecimento de emoções ou de um sistema de categorização biométrica devem informar as pessoas expostas a esse sistema do seu funcionamento e tratar os dados pessoais em conformidade com os Regulamentos (UE) 2016/679, e (UE) 2018/1725 e a Diretiva (UE) 2016/680, conforme aplicável. Esta obrigação não se aplica aos sistemas de IA usados para categorização biométrica e reconhecimento de emoções legalmente autorizados para detetar, prevenir ou investigar infrações penais, sob reserva de garantias adequadas dos direitos e liberdades de terceiros, e nos termos do direito da União.
4. Subjekty nasadzujúce systém AI, ktorý generuje alebo manipuluje obrazový, zvukový alebo video obsah, ktorý predstavuje deep fake, zverejnia, že obsah bol umelo vytvorený alebo manipulovaný. Táto povinnosť sa neuplatňuje, ak je použitie povolené zákonom na odhaľovanie, prevenciu, vyšetrovanie alebo stíhanie trestných činov. Ak je obsah súčasťou zjavne umeleckého, kreatívneho, satirického, fiktívneho alebo analogického diela alebo programu, povinnosti týkajúce sa transparentnosti stanovené v tomto odseku sa obmedzujú na zverejnenie existencie takéhoto vygenerovaného alebo zmanipulovaného obsahu, a to primeraným spôsobom, ktorý nebráni zobrazeniu diela a zážitku z neho.
4. Os responsáveis pela implantação de um sistema de IA que gere ou manipule conteúdos de imagem, áudio ou vídeo que constituam uma falsificação profunda devem revelar que os conteúdos foram artificialmente gerados ou manipulados. Esta obrigação não se aplica se a utilização for autorizada por lei para detetar, prevenir, investigar ou reprimir infrações penais. Sempre que os conteúdos façam parte de um programa ou obra de natureza manifestamente artística, criativa, satírica, ficcional ou análoga, as obrigações de transparência estabelecidas no presente número limitam-se à divulgação da existência desses conteúdos gerados ou manipulados, de uma forma adequada que não prejudique a exibição ou a fruição da obra.
Subjekty nasadzujúce systém AI, ktorý generuje alebo manipuluje text uverejnený s cieľom informovať verejnosť o záležitostiach verejného záujmu, zverejnia, že text bol umelo vygenerovaný alebo manipulovaný. Táto povinnosť sa neuplatňuje, ak je použitie povolené zákonom na odhaľovanie, prevenciu, vyšetrovanie alebo stíhanie trestných činov alebo ak obsah vygenerovaný AI prešiel procesom ľudskej alebo redakčnej kontroly a ak za uverejnenie obsahu nesie redakčnú zodpovednosť fyzická alebo právnická osoba.
Os responsáveis pela implantação de um sistema de IA que gere ou manipule texto publicado com o objetivo de informar o público sobre questões de interesse público devem revelar que o texto foi artificialmente gerado ou manipulado. Esta obrigação não se aplica se a utilização for autorizada por lei para detetar, prevenir, investigar e reprimir infrações penais ou se os conteúdos gerados por IA tiverem sido objeto de um processo de análise humana ou de controlo editorial e se uma pessoa singular ou coletiva for responsável editorial pela publicação do conteúdo.
5. Informácie uvedené v odsekoch 1 až 4 sa dotknutým fyzickým osobám poskytnú jasným a rozlíšiteľným spôsobom najneskôr v čase prvej interakcie alebo vystavenia sa systému. Informácie musia byť v súlade s uplatniteľnými požiadavkami na prístupnosť.
5. As informações a que se referem os n.os 1 a 4 são prestadas às pessoas singulares em causa de forma clara e percetível o mais tardar aquando da primeira interação ou exposição. As informações devem estar em conformidade com os requisitos de acessibilidade aplicáveis.
6. Odseky 1 až 4 nemajú vplyv na požiadavky a povinnosti stanovené v kapitole III a nie sú nimi dotknuté iné povinnosti týkajúce sa transparentnosti stanovené pre subjekty nasadzujúce systémy AI v práve Únie alebo vo vnútroštátnom práve.
6. Os n.os 1 a 4 não afetam os requisitos e obrigações estabelecidos no capítulo III e não prejudicam outras obrigações de transparência aplicáveis aos responsáveis pela implantação de sistemas de IA estabelecidas no direito da União ou no direito nacional.
7. Úrad pre AI podporuje a uľahčuje vypracúvanie kódexov postupov na úrovni Únie s cieľom uľahčiť účinné vykonávanie povinností týkajúcich sa odhaľovania a označovania umelo vygenerovaného alebo zmanipulovaného obsahu. Komisia môže prijať vykonávacie akty na schválenie uvedených kódexov postupov v súlade s postupom stanoveným v článku 56 ods. 6. Ak sa Komisia domnieva, že kódex nie je primeraný, môže prijať vykonávací akt, v ktorom stanoví spoločné pravidlá vykonávania týchto povinností v súlade s postupom preskúmania stanoveným v článku 98 ods. 2.
7. O Serviço para a IA incentiva e facilita a elaboração a nível da União de códigos de práticas para facilitar a aplicação efetiva das obrigações em matéria de deteção e rotulagem de conteúdos artificialmente gerados ou manipulados. A Comissão pode adotar atos de execução para aprovar esses códigos de práticas em conformidade com o procedimento previsto no artigo 56.o, n.o 6. Se considerar que o código não é adequado, a Comissão pode adotar um ato de execução que especifique as regras comuns para a aplicação dessas obrigações, em conformidade com o procedimento de exame previsto no artigo 98.o, n.o 2.
KAPITOLA V
CAPÍTULO V
MODELY AI NA VŠEOBECNÉ ÚČELY
MODELOS DE IA DE FINALIDADE GERAL
ODDIEL 1
SECÇÃO 1
Pravidlá klasifikácie
Regras de classificação
Článok 51
Artigo 51.o
Klasifikácia modelov AI na všeobecné účely ako modelov AI na všeobecné účely so systémovým rizikom
Classificação de modelos de IA de finalidade geral como modelos de IA de finalidade geral com risco sistémico
1. Model AI na všeobecné účely sa klasifikuje ako model AI na všeobecné účely so systémovým rizikom, ak spĺňa ktorúkoľvek z týchto podmienok:
1. Um modelo de IA de finalidade geral é classificado como modelo de IA de finalidade geral com risco sistémico se preencher qualquer uma das seguintes condições:
a)
má spôsobilosti s veľkým dopadom vyhodnotené na základe vhodných technických nástrojov a metodík vrátane ukazovateľov a referenčných hodnôt;
a)
Ter capacidades de elevado impacto avaliadas com base em ferramentas e metodologias técnicas adequadas, incluindo indicadores e parâmetros de referência;
b)
na základe rozhodnutia Komisie, z úradnej moci alebo na základe kvalifikovaného upozornenia vedeckého panelu má so zreteľom na kritériá stanovené v prílohe XIII spôsobilosti alebo dopad rovnocenný s tými, ktoré sú stanovené v písmene a).
b)
Ter capacidades ou um impacto equivalentes às estabelecidas na alínea a), tendo em conta os critérios estabelecidos no anexo XIII, com base numa decisão da Comissão, ex officio ou na sequência de um alerta qualificado do painel científico.
2. Model AI na všeobecné účely sa považuje za model, ktorý má spôsobilosti s veľkým dopadom podľa odseku 1 písm. a), ak je kumulatívny počet výpočtov použitých na jeho trénovanie meraný v operáciách s pohyblivou rádovou čiarkou vyššia ako 1025.
2. Presume-se que um modelo de IA de finalidade geral tem capacidades de elevado impacto nos termos do n.o 1, alínea a), quando a quantidade acumulada de cálculo utilizado para o seu treino, medido em operações de vírgula flutuante por segundo, for superior a 1025.
3. Komisia prijme delegované akty v súlade s článkom 97 s cieľom zmeniť prahové hodnoty uvedené v odsekoch 1 a 2 tohto článku, ako aj doplniť referenčné hodnoty a ukazovatele vzhľadom na technologický vývoj, ako sú algoritmické zlepšenia alebo zvýšená efektívnosť hardvéru, ak je to potrebné, aby tieto prahové hodnoty odrážali aktuálny stav vývoja.
3. A Comissão adota atos delegados nos termos do artigo 97.o para alterar os limiares enumerados nos n.os 1 e 2 do presente artigo, bem como para complementar os parâmetros de referência e os indicadores à luz da evolução tecnológica, tais como melhorias algorítmicas ou uma maior eficiência do hardware, se necessário, para que esses limiares reflitam o estado da arte.
Článok 52
Artigo 52.o
Postup
Procedimento
1. Ak model AI na všeobecné účely spĺňa podmienku uvedenú v článku 51 ods. 1 písm. a), príslušný poskytovateľ to oznámi Komisii, a to bezodkladne a v každom prípade do dvoch týždňov od splnenia uvedenej požiadavky alebo od zistenia, že bude splnená. Toto oznámenie obsahuje informácie potrebné na preukázanie splnenia príslušnej požiadavky. Ak sa Komisia dozvie o modeli AI na všeobecné účely predstavujúcom systémové riziká, o ktorom nebola informovaná, môže sa rozhodnúť označiť ho za model so systémovým rizikom.
1. Sempre que um modelo de IA de finalidade geral preencha a condição a que se refere o artigo 51.o, n.o 1, alínea a), o prestador em causa notifica a Comissão sem demora e, em qualquer caso, no prazo de duas semanas a contar da data em que preencheu esse requisito ou da data em que se soube que esse requisito vai ser preenchido. Essa notificação deve incluir as informações necessárias para demonstrar que o requisito em causa foi preenchido. Se a Comissão tomar conhecimento de um modelo de IA de finalidade geral que apresente riscos sistémicos dos quais não tenha sido notificada, pode decidir designá-lo como um modelo com risco sistémico.
2. Poskytovateľ modelu AI na všeobecné účely, ktorý spĺňa podmienku uvedenú v článku 51 ods. 1 písm. a), môže spolu so svojim oznámením predložiť dostatočne podložené argumenty na preukázanie toho, že model AI na všeobecné účely, hoci spĺňa uvedenú požiadavku, vzhľadom na svoje osobitné vlastnosti výnimočne nepredstavuje systémové riziká, a preto by sa nemal klasifikovať ako model AI na všeobecné účely so systémovým rizikom.
2. O prestador de um modelo de IA de finalidade geral que preencha as condições a que se refere o artigo 51.o, n.o 1, alínea a), pode apresentar, com a sua notificação, argumentos suficientemente fundamentados para demonstrar que, excecionalmente, embora preencha esse requisito, o modelo de IA de finalidade geral não apresenta, devido às suas características específicas, riscos sistémicos e, por conseguinte, não deverá ser classificado como um modelo de IA de finalidade geral com risco sistémico.
3. Ak Komisia dospeje k záveru, že argumenty predložené podľa odseku 2 nie sú dostatočne podložené a príslušný poskytovateľ nebol schopný preukázať, že model AI na všeobecné účely vzhľadom na svoje osobitné vlastnosti nepredstavuje systémové riziká, zamietne tieto argumenty a model AI na všeobecné účely sa považuje za model AI na všeobecné účely so systémovým rizikom.
3. Se concluir que os argumentos apresentados nos termos do n.o 2 não estão suficientemente fundamentados e que o prestador em causa não conseguiu demonstrar que o modelo de IA de finalidade geral não apresenta, devido às suas características específicas, riscos sistémicos, a Comissão rejeita esses argumentos e o modelo de IA de finalidade geral é considerado um modelo de IA de finalidade geral com risco sistémico.
4. Komisia môže označiť model AI na všeobecné účely za model predstavujúci systémové riziká, a to z úradnej moci alebo na základe kvalifikovaného upozornenia vedeckého panelu podľa článku 90 ods. 1 písm. a) na základe kritérií stanovených v prílohe XIII.
4. A Comissão pode designar um modelo de IA de finalidade geral como apresentando riscos sistémicos, ex officio ou na sequência de um alerta qualificado do painel científico nos termos do artigo 90.o, n.o 1, alínea a), com base nos critérios estabelecidos no anexo XIII.
Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 s cieľom zmeniť prílohu XIII spresnením a aktualizovaním kritérií stanovených v uvedenej prílohe.
A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar o anexo XIII através da especificação e atualização dos critérios estabelecidos nesse anexo.
5. Na základe odôvodnenej žiadosti poskytovateľa, ktorého model bol označený za model AI na všeobecné účely so systémovým rizikom podľa odseku 4, Komisia žiadosť zohľadní a môže rozhodnúť o prehodnotení, či model AI na všeobecné