Diario Oficial
de la Unión Europea
ES
Úradný vestník
Európskej únie
SK
REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO Y DEL CONSEJO
NARIADENIE EURÓPSKEHO PARLAMENTU A RADY (EÚ) 2024/1689
por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial)
ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie a ktorým sa menia nariadenia (ES) č. 300/2008, (EÚ) č. 167/2013, (EÚ) č. 168/2013, (EÚ) 2018/858, (EÚ) 2018/1139 a (EÚ) 2019/2144 a smernice 2014/90/EÚ, (EÚ) 2016/797 a (EÚ) 2020/1828 (akt o umelej inteligencii)
(Texto pertinente a efectos del EEE)
(Text s významom pre EHP)
EL PARLAMENTO EUROPEO Y EL CONSEJO DE LA UNIÓN EUROPEA,
EURÓPSKY PARLAMENT A RADA EURÓPSKEJ ÚNIE,
Visto el Tratado de Funcionamiento de la Unión Europea, y en particular sus artículos 16 y 114,
so zreteľom na Zmluvu o fungovaní Európskej únie, a najmä na jej články 16 a 114,
Vista la propuesta de la Comisión Europea,
so zreteľom na návrh Európskej komisie,
Previa transmisión del proyecto de acto legislativo a los Parlamentos nacionales,
po postúpení návrhu legislatívneho aktu národným parlamentom,
Visto el dictamen del Comité Económico y Social Europeo (1),
so zreteľom na stanovisko Európskeho hospodárskeho a sociálneho výboru (1),
Visto el dictamen del Banco Central Europeo (2),
so zreteľom na stanovisko Európskej centrálnej banky (2),
Visto el dictamen del Comité de las Regiones (3),
so zreteľom na stanovisko Výboru regiónov (3),
De conformidad con el procedimiento legislativo ordinario (4),
konajúc v súlade s riadnym legislatívnym postupom (4),
Considerando lo siguiente:
(1)
El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial (en lo sucesivo, «sistemas de IA») en la Unión, de conformidad con los valores de la Unión, a fin de promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo, «Carta»), incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, proteger frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación. El presente Reglamento garantiza la libre circulación transfronteriza de mercancías y servicios basados en la IA, con lo que impide que los Estados miembros impongan restricciones al desarrollo, la comercialización y la utilización de sistemas de IA, a menos que el presente Reglamento lo autorice expresamente.
(1)
Účelom tohto nariadenia je zlepšiť fungovanie vnútorného trhu stanovením jednotného právneho rámca, najmä pokiaľ ide o vývoj, uvádzanie na trh, uvádzanie do prevádzky a používanie systémov umelej inteligencie (ďalej len „systémy AI“) v Únii v súlade s hodnotami Únie, podporovať zavádzanie dôveryhodnej umelej inteligencie (ďalej len „AI“ – artificial intelligence) sústredenej na človeka a zároveň zaistiť vysokú úroveň ochrany zdravia, bezpečnosti a základných práv zakotvených v Charte základných práv Európskej únie (ďalej len „charta“), vrátane ochrany demokracie, právneho štátu a životného prostredia, chrániť pred škodlivými účinkami systémov AI v Únii a podporovať inovácie. Týmto nariadením sa zabezpečuje voľný pohyb tovaru a služieb založených na AI cez hranice, čím sa členským štátom zabraňuje ukladať obmedzenia na vývoj, uvádzanie na trh a používanie systémov AI, pokiaľ to toto nariadenie výslovne nepovoľuje.
(2)
El presente Reglamento debe aplicarse de conformidad con los valores de la Unión consagrados en la Carta, lo que facilitará la protección de las personas físicas, las empresas, la democracia, el Estado de Derecho y la protección del medio ambiente y, al mismo tiempo, impulsará la innovación y el empleo y convertirá a la Unión en líder en la adopción de una IA fiable.
(2)
Toto nariadenie by sa malo uplatňovať v súlade s hodnotami Únie zakotvenými v charte, čím sa uľahčí ochrana fyzických osôb, podnikov, demokracie, právneho štátu a životného prostredia a zároveň sa podporia inovácie a zamestnanosť a Únia sa stane lídrom v zavádzaní dôveryhodnej AI.
(3)
Los sistemas de IA pueden desplegarse con facilidad en sectores muy diversos de la economía y en muchas partes de la sociedad, también a escala transfronteriza, y circular fácilmente por toda la Unión. Algunos Estados miembros ya han estudiado adopción de normas nacionales destinadas a garantizar que la IA sea fiable y segura y se desarrolle y utilice de conformidad con las obligaciones relativas a los derechos fundamentales. La existencia de normas nacionales divergentes puede dar lugar a la fragmentación del mercado interior y reducir la seguridad jurídica de los operadores que desarrollan, importan o utilizan sistemas de IA. Por lo tanto, es preciso garantizar un nivel elevado y coherente de protección en toda la Unión para lograr una IA fiable, así como evitar las divergencias que obstaculizan la libre circulación, la innovación, el despliegue y la adopción en el mercado interior de los sistemas de IA y los productos y servicios conexos mediante el establecimiento de obligaciones uniformes para los operadores y la garantía de una protección uniforme de los fines imperiosos de interés general y de los derechos de las personas en todo el mercado interior, sobre la base del artículo 114 del Tratado de Funcionamiento de la Unión Europea (TFUE). En la medida en que el presente Reglamento contiene normas específicas para la protección de las personas en relación con el tratamiento de datos personales que restringen el uso de sistemas de IA para la identificación biométrica remota con fines de garantía del cumplimiento del Derecho, el uso de sistemas de IA para la realización de evaluaciones de riesgos de personas físicas con fines de garantía del cumplimiento del Derecho y el uso de sistemas de IA de categorización biométrica con fines de garantía del cumplimiento del Derecho, resulta adecuado basar este Reglamento, en lo que atañe a dichas normas específicas, en el artículo 16 del TFUE. A la luz de dichas normas específicas y del recurso al artículo 16 del TFUE, conviene consultar al Comité Europeo de Protección de Datos.
(3)
Systémy AI možno ľahko nasadiť vo veľkej škále odvetví hospodárstva a mnohých oblastiach spoločnosti, a to aj cezhranične, a môžu ľahko obiehať po celej Únii. Niektoré členské štáty už zvažujú prijatie vnútroštátnych pravidiel na zabezpečenie toho, aby bola AI dôveryhodná a bezpečná a aby sa vyvíjala a používala v súlade s povinnosťami týkajúcimi sa základných práv. Rozdielne vnútroštátne pravidlá môžu viesť k fragmentácii vnútorného trhu a znížiť právnu istotu pre prevádzkovateľov, ktorí vyvíjajú, dovážajú alebo používajú systémy AI. Mala by sa preto zabezpečiť konzistentná a vysoká úroveň ochrany v celej Únii, aby sa dospelo k dôveryhodnej AI, pričom by sa malo zabrániť rozdielom, ktoré bránia voľnému obehu, inováciám, nasadzovaniu a zavádzaniu systémov AI a súvisiacich výrobkov a služieb v rámci vnútorného trhu, a to stanovením jednotných povinností pre prevádzkovateľov a zaručením jednotnej ochrany prevažujúcich dôvodov verejného záujmu a práv osôb na celom vnútornom trhu na základe článku 114 Zmluvy o fungovaní Európskej únie (ďalej len „ZFEÚ“). Pokiaľ toto nariadenie obsahuje osobitné pravidlá ochrany jednotlivcov pri spracúvaní osobných údajov týkajúce sa obmedzení používania systémov AI na diaľkovú biometrickú identifikáciu na účely presadzovania práva, používania systémov AI na posudzovanie rizík fyzických osôb na účely presadzovania práva a používania systémov AI s biometrickou kategorizáciou na účely presadzovania práva, je vhodné, pokiaľ ide o uvedené osobitné pravidlá, aby bol základom tohto nariadenia článok 16 ZFEÚ. Pokiaľ ide o tieto osobitné pravidlá a použitie článku 16 ZFEÚ, je vhodné konzultovať s Európskym výborom pre ochranu údajov.
(4)
La IA es un conjunto de tecnologías en rápida evolución que contribuye a generar beneficios económicos, medioambientales y sociales muy diversos en todos los sectores económicos y las actividades sociales. El uso de la IA puede proporcionar ventajas competitivas esenciales a las empresas y facilitar la obtención de resultados positivos desde el punto de vista social y medioambiental en los ámbitos de la asistencia sanitaria, la agricultura, la seguridad alimentaria, la educación y la formación, los medios de comunicación, el deporte, la cultura, la gestión de infraestructuras, la energía, el transporte y la logística, los servicios públicos, la seguridad, la justicia, la eficiencia de los recursos y la energía, el seguimiento ambiental, la conservación y restauración de la biodiversidad y los ecosistemas, y la mitigación del cambio climático y la adaptación a él, entre otros, al mejorar la predicción, optimizar las operaciones y la asignación de los recursos, y personalizar las soluciones digitales que se encuentran a disposición de la población y las organizaciones.
(4)
AI je rýchlo sa rozvíjajúca skupina technológií, ktorá prispieva k širokému spektru hospodárskych, environmentálnych a spoločenských prínosov vo všetkých odvetviach a spoločenských činnostiach. Zlepšením predpovedí, optimalizáciou operácií a prideľovania zdrojov a personalizáciou digitálnych riešení, ktoré sú k dispozícii jednotlivcom a organizáciám, môže využívanie AI poskytnúť podnikom kľúčové konkurenčné výhody a podporiť sociálne a environmentálne priaznivé výsledky, napríklad v oblasti zdravotnej starostlivosti, poľnohospodárstva, bezpečnosti potravín, vzdelávania a odbornej prípravy, médií, športu a kultúry, riadenia infraštruktúry, energetiky, dopravy a logistiky, verejných služieb, bezpečnosti, spravodlivosti, efektívneho využívania zdrojov a energie, monitorovania životného prostredia, zachovania a obnovy biodiverzity a ekosystémov a zmierňovania zmeny klímy a adaptácie na ňu.
(5)
Al mismo tiempo, dependiendo de las circunstancias relativas a su aplicación, utilización y nivel de desarrollo tecnológico concretos, la IA puede generar riesgos y menoscabar los intereses públicos y los derechos fundamentales que protege el Derecho de la Unión. Dicho menoscabo puede ser tangible o intangible e incluye los perjuicios físicos, psíquicos, sociales o económicos.
(5)
AI môže zároveň v závislosti od okolností týkajúcich sa jej konkrétnej aplikácie, použitia a úrovne technologického vývoja vytvárať riziká a ujmu pre verejné záujmy a základné práva, ktoré sú chránené právom Únie. Toto poškodzovanie môže byť hmotné aj nehmotné vrátane fyzickej, psychickej, spoločenskej alebo ekonomickej ujmy.
(6)
Dadas las importantes repercusiones que la IA puede tener en la sociedad y la necesidad de generar confianza, es fundamental que la IA y su marco reglamentario se desarrollen de conformidad con los valores de la Unión consagrados en el artículo 2 del Tratado de la Unión Europea (TUE), los derechos y libertades fundamentales consagrados en los Tratados y, de conformidad con el artículo 6 del TUE, la Carta. Como requisito previo, la IA debe ser una tecnología centrada en el ser humano. Además, debe ser una herramienta para las personas y tener por objetivo último aumentar el bienestar humano.
(6)
Vzhľadom na veľký vplyv, ktorý AI môže mať na spoločnosť, a na potrebu budovať dôveru je nevyhnutné, aby sa AI a jej regulačný rámec rozvíjali v súlade s hodnotami Únie zakotvenými v článku 2 Zmluvy o Európskej únii (ďalej len „Zmluva o EÚ“), základnými právami a slobodami zakotvenými v zmluvách a podľa článku 6 Zmluvy o EÚ v charte. Nevyhnutnou podmienkou je, aby AI bola technológiou sústredenou na človeka. Mala by slúžiť ako nástroj pre ľudí s konečným cieľom zvyšovať ich blahobyt.
(7)
Conviene establecer normas comunes para los sistemas de IA de alto riesgo al objeto de garantizar un nivel elevado y coherente de protección de los intereses públicos en lo que respecta a la salud, la seguridad y los derechos fundamentales. Estas normas deben ser coherentes con la Carta, no deben ser discriminatorias y deben estar en consonancia con los compromisos de la Unión en materia de comercio internacional. También deben tener en cuenta la Declaración Europea sobre los Derechos y Principios Digitales para la Década Digital y las Directrices éticas para una IA fiable del Grupo independiente de expertos de alto nivel sobre inteligencia artificial.
(7)
S cieľom zabezpečiť jednotnú a vysokú úroveň ochrany verejných záujmov, pokiaľ ide o zdravie, bezpečnosť a základné práva, by sa mali stanoviť spoločné pravidlá pre vysokorizikové systémy AI. Tieto pravidlá by mali byť v súlade s chartou a mali by byť nediskriminačné a v súlade so záväzkami Únie v oblasti medzinárodného obchodu. Mali by zohľadňovať aj Európske vyhlásenie o digitálnych právach a zásadách v digitálnom desaťročí a etické usmernenia pre dôveryhodnú AI expertnej skupiny na vysokej úrovni pre umelú inteligenciu.
(8)
En consecuencia, se necesita un marco jurídico de la Unión que establezca unas normas armonizadas en materia de IA para impulsar el desarrollo, la utilización y la adopción en el mercado interior de la IA y que, al mismo tiempo, ofrezca un nivel elevado de protección de los intereses públicos, como la salud y la seguridad y la protección de los derechos fundamentales, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, reconocidos y protegidos por el Derecho de la Unión. Para alcanzar dicho objetivo, conviene establecer normas que regulen la introducción en el mercado, la puesta en servicio y la utilización de determinados sistemas de IA, lo que garantizará el buen funcionamiento del mercado interior y permitirá que dichos sistemas se beneficien del principio de libre circulación de mercancías y servicios. Esas normas deben ser claras y firmes por lo que respecta a proteger los derechos fundamentales, apoyar nuevas soluciones innovadoras, posibilitar un ecosistema europeo de agentes públicos y privados que creen sistemas de IA en consonancia con los valores de la Unión y liberar el potencial de la transformación digital en todas las regiones de la Unión. Al establecer tales normas, así como medidas en apoyo de la innovación que prestan especial atención a las pequeñas y medianas empresas (pymes), incluidas las empresas emergentes, el presente Reglamento respalda el objetivo de promover el enfoque europeo de la IA centrado en el ser humano y de ser un líder mundial en el desarrollo de IA segura, digna de confianza y ética, como indicó el Consejo Europeo (5), y garantiza la protección de los principios éticos, como solicitó específicamente el Parlamento Europeo (6).
(8)
Na podporu rozvoja, využívania a zavádzania AI na vnútornom trhu je preto potrebný právny rámec Únie, ktorým sa stanovujú harmonizované pravidlá v oblasti AI a ktorý zároveň spĺňa vysokú úroveň ochrany verejných záujmov, ako sú zdravie a bezpečnosť, a ochrany základných práv vrátane ochrany demokracie, právneho štátu a životného prostredia, ako sú uznané a chránené právom Únie. Na dosiahnutie tohto cieľa by sa mali stanoviť pravidlá upravujúce uvádzanie určitých systémov AI na trh, do prevádzky a ich používanie, čím sa zabezpečí hladké fungovanie vnútorného trhu a umožní sa, aby tieto systémy využívali zásadu voľného pohybu tovaru a služieb. Tieto pravidlá by mali byť jasné a spoľahlivé pri ochrane základných práv, mali by podporovať nové inovačné riešenia, byť nápomocné európskemu ekosystému verejných a súkromných aktérov vytvárajúcich systémy AI v súlade s hodnotami Únie a mali by uvoľňovať potenciál digitálnej transformácie vo všetkých regiónoch Únie. Stanovením uvedených pravidiel, ako aj opatrení na podporu inovácie s osobitným dôrazom na malé a stredné podniky (ďalej len „MSP“) vrátane startupov v tomto nariadení sa podporí cieľ presadzovať európsky prístup k AI sústredený na človeka a stať sa svetovým lídrom v rozvoji bezpečnej, dôveryhodnej a etickej AI, ako to vyjadrila Európska rada (5), a zabezpečí sa ochrana etických zásad, ako to osobitne požaduje Európsky parlament (6).
(9)
Deben establecerse normas armonizadas aplicables a la introducción en el mercado, la puesta en servicio y la utilización de sistemas de IA de alto riesgo en consonancia con el Reglamento (CE) n.o 765/2008 del Parlamento Europeo y del Consejo (7), la Decisión n.o 768/2008/CE del Parlamento Europeo y del Consejo (8) y el Reglamento (UE) 2019/1020 del Parlamento Europeo y del Consejo (9) (en lo sucesivo, «nuevo marco legislativo»). Las normas armonizadas que se establecen en el presente Reglamento deben aplicarse en todos los sectores y, en consonancia con el nuevo marco legislativo, deben entenderse sin perjuicio del Derecho vigente de la Unión, en particular en materia de protección de datos, protección de los consumidores, derechos fundamentales, empleo, protección de los trabajadores y seguridad de los productos, al que complementa el presente Reglamento. En consecuencia, permanecen inalterados y siguen siendo plenamente aplicables todos los derechos y vías de recurso que el citado Derecho de la Unión otorga a los consumidores y demás personas que puedan verse afectados negativamente por los sistemas de IA, también en lo que respecta a la reparación de los posibles daños de conformidad con la Directiva 85/374/CEE del Consejo (10). Además, en el contexto del empleo y la protección de los trabajadores, el presente Reglamento no debe afectar, por tanto, al Derecho de la Unión en materia de política social ni al Derecho laboral nacional —de conformidad con el Derecho de la Unión— relativa a las condiciones de empleo y de trabajo, incluidas la salud y seguridad en el trabajo y la relación entre empleadores y trabajadores. El presente Reglamento tampoco debe afectar en modo alguno al ejercicio de los derechos fundamentales reconocidos en los Estados miembros y a escala de la Unión, incluidos el derecho o la libertad de huelga o de emprender otras acciones contempladas en los sistemas de relaciones laborales específicos de los Estados miembros y el derecho a negociar, concluir y hacer cumplir convenios colectivos o a llevar a cabo acciones colectivas conforme al Derecho nacional. El presente Reglamento no debe afectar a las disposiciones destinadas a mejorar las condiciones laborales en el trabajo en plataformas digitales establecidas en una Directiva del Parlamento Europeo y del Consejo relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales. Además, el presente Reglamento tiene por objeto reforzar la eficacia de tales derechos y vías de recurso vigentes mediante el establecimiento de requisitos y obligaciones específicos, también en lo que respecta a la transparencia, la documentación técnica y la conservación de registros de los sistemas de IA. Asimismo, las obligaciones impuestas a los distintos operadores que participan en la cadena de valor de la IA en virtud del presente Reglamento deben aplicarse sin perjuicio del Derecho nacional que, de conformidad con el Derecho de la Unión, tenga por efecto limitar el uso de determinados sistemas de IA cuando dicho Derecho quede fuera del ámbito de aplicación del presente Reglamento o persiga objetivos legítimos de interés público distintos de los perseguidos por el presente Reglamento. Así, por ejemplo, el presente Reglamento no debe afectar al Derecho laboral nacional ni al Derecho en materia de protección de menores, a saber, de personas de menos de dieciocho años, que tienen en cuenta la Observación general n.o 25 (2021) de la Convención sobre los Derechos del Niño de las Naciones Unidas relativa a los derechos de los niños en relación con el entorno digital, en la medida en que no son específicas a los sistemas de IA y persiguen otros objetivos legítimos de interés público.
(9)
Harmonizované pravidlá uplatniteľné na uvádzanie vysokorizikových systémov AI na trh, do prevádzky a na ich používanie by sa mali stanoviť v súlade s nariadením Európskeho parlamentu a Rady (ES) č. 765/2008 (7), rozhodnutím Európskeho parlamentu a Rady č. 768/2008/ES (8) a s nariadením Európskeho parlamentu a Rady (EÚ) 2019/1020 (9) (ďalej len „nový legislatívny rámec“). Harmonizované pravidlá stanovené v tomto nariadení by sa mali uplatňovať vo všetkých odvetviach a v súlade s novým legislatívnym rámcom by nimi nemali byť dotknuté existujúce právne predpisy Únie, najmä pokiaľ ide o ochranu údajov, ochranu spotrebiteľa, základné práva, zamestnanosť, ochranu pracovníkov a bezpečnosť výrobkov, ktoré sa týmto nariadením dopĺňajú. V dôsledku toho všetky práva a prostriedky nápravy stanovené takýmto právom Únie pre spotrebiteľov a iné osoby, na ktoré môžu mať systémy AI negatívny vplyv, a to aj pokiaľ ide o náhradu možných škôd podľa smernice Rady 85/374/EHS (10), zostávajú nedotknuté a plne uplatniteľné. Okrem toho by toto nariadenie v kontexte zamestnania a ochrany pracovníkov nemalo mať vplyv na právo Únie v oblasti sociálnej politiky a vnútroštátne pracovné právo, ktoré je v súlade s právom Únie, pokiaľ ide o podmienky zamestnávania a pracovné podmienky vrátane ochrany zdravia a bezpečnosti pri práci a vzťahu medzi zamestnávateľmi a pracovníkmi. Týmto nariadením by nemalo byť dotknuté ani vykonávanie základných práv uznaných v členských štátoch a na úrovni Únie vrátane práva na štrajk alebo slobody štrajkovať alebo prijímať iné opatrenia, na ktoré sa vzťahujú osobitné systémy odvetvových vzťahov v členských štátoch, ako aj práva rokovať o kolektívnych dohodách, uzatvárať a presadzovať ich alebo prijímať kolektívne opatrenia v súlade s vnútroštátnym právom. Týmto nariadením by nemali byť dotknuté ustanovenia zamerané na zlepšenie pracovných podmienok v oblasti práce pre platformy stanovené v smernici Európskeho parlamentu a Rady o zlepšení pracovných podmienok v oblasti práce pre platformy. Okrem toho je cieľom tohto nariadenia posilniť účinnosť takýchto existujúcich práv a prostriedkov nápravy stanovením osobitných požiadaviek a povinností, a to aj pokiaľ ide o transparentnosť, technickú dokumentáciu a vedenie záznamov o systémoch AI. Povinnosti uložené rôznym prevádzkovateľom zapojeným do hodnotového reťazca AI podľa tohto nariadenia by sa zároveň mali uplatňovať bez toho, aby bolo dotknuté vnútroštátne právo, ktoré je v súlade s právom Únie a ktorým sa obmedzuje používanie určitých systémov AI v prípadoch, keď takéto právo nepatrí do rozsahu pôsobnosti tohto nariadenia alebo sleduje iné legitímne ciele verejného záujmu, než sú ciele tohto nariadenia. Toto nariadenie by napríklad nemalo mať vplyv na vnútroštátne pracovné právo a právne predpisy o ochrane maloletých, teda osôb mladších ako 18 rokov, s prihliadnutím na všeobecnú poznámku č. 25 (2021) Dohovoru OSN o právach dieťaťa v súvislosti s digitálnym prostredím, pokiaľ sa osobitne netýkajú systémov AI a sú zamerané na iné legitímne ciele verejného záujmu.
(10)
El derecho fundamental a la protección de los datos personales está garantizado, en particular, por los Reglamentos (UE) 2016/679 (11) y (UE) 2018/1725 (12) del Parlamento Europeo y del Consejo y la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo (13). Además, la Directiva 2002/58/CE del Parlamento Europeo y del Consejo (14) protege la vida privada y la confidencialidad de las comunicaciones, también estableciendo condiciones para cualquier almacenamiento de datos personales y no personales en los equipos terminales, y el acceso desde estos. Dichos actos legislativos de la Unión constituyen la base para un tratamiento de datos sostenible y responsable, también cuando los conjuntos de datos contengan una combinación de datos personales y no personales. El presente Reglamento no pretende afectar a la aplicación del Derecho de la Unión vigente que regula el tratamiento de datos personales, incluidas las funciones y competencias de las autoridades de supervisión independientes competentes para vigilar el cumplimiento de dichos instrumentos. Tampoco afecta a las obligaciones de los proveedores y los responsables del despliegue de sistemas de IA en su papel de responsables o encargados del tratamiento de datos derivadas del Derecho de la Unión o nacional en materia de protección de datos personales en la medida en que el diseño, el desarrollo o el uso de sistemas de IA impliquen el tratamiento de datos personales. También conviene aclarar que los interesados siguen disfrutando de todos los derechos y garantías que les confiere dicho Derecho de la Unión, incluidos los derechos relacionados con las decisiones individuales totalmente automatizadas, como la elaboración de perfiles. Unas normas armonizadas para la introducción en el mercado, la puesta en servicio y la utilización de sistemas de IA establecidas en virtud del presente Reglamento deben facilitar la aplicación efectiva y permitir el ejercicio de los derechos y otras vías de recurso de los interesados garantizados por el Derecho de la Unión en materia de protección de datos personales, así como de otros derechos fundamentales.
(10)
Základné právo na ochranu osobných údajov je zaručené najmä nariadeniami Európskeho parlamentu a Rady (EÚ) 2016/679 (11) a (EÚ) 2018/1725 (12) a smernicou Európskeho parlamentu a Rady (EÚ) 2016/680 (13). Súkromný život a dôvernosť komunikácií dodatočne chráni smernica Európskeho parlamentu a Rady 2002/58/ES (14), okrem iného prostredníctvom stanovenia podmienok akéhokoľvek uchovávania osobných a iných ako osobných údajov, ktoré boli uložené v koncovom zariadení a ku ktorým sa pristupuje prostredníctvom tohto zariadenia. Uvedené legislatívne akty Únie vytvárajú základ udržateľného a zodpovedného spracúvania údajov vrátane prípadov, keď súbory údajov obsahujú kombináciu osobných a iných ako osobných údajov. Cieľom tohto nariadenia nie je ovplyvniť uplatňovanie existujúcich právnych predpisov Únie upravujúcich spracúvanie osobných údajov vrátane úloh a právomocí nezávislých dozorných orgánov zodpovedných za monitorovanie súladu s týmito nástrojmi. Nie sú ním dotknuté ani povinnosti poskytovateľov systémov AI a subjektov nasadzujúcich systémy AI v ich úlohe prevádzkovateľov alebo sprostredkovateľov vyplývajúce z práva Únie alebo vnútroštátneho práva o ochrane osobných údajov, pokiaľ dizajn, vývoj alebo používanie systémov AI zahŕňa spracúvanie osobných údajov. Takisto je vhodné objasniť, že dotknuté osoby naďalej požívajú všetky práva a záruky, ktoré im takéto právo Únie priznáva, vrátane práv súvisiacich s výlučne automatizovaným individuálnym rozhodovaním vrátane profilovania. Harmonizované pravidlá uvádzania na trh, uvádzania do prevádzky a používania systémov AI stanovené v tomto nariadení by mali uľahčiť účinné vykonávanie a umožniť uplatňovanie práv dotknutých osôb a iných prostriedkov nápravy zaručených právom Únie o ochrane osobných údajov a iných základných práv.
(11)
El presente Reglamento debe interpretarse sin perjuicio de las disposiciones del Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo (15) relativas a la responsabilidad de los prestadores de servicios intermediarios.
(11)
Týmto nariadením by nemali byť dotknuté ustanovenia o zodpovednosti poskytovateľov sprostredkovateľských služieb stanovené v nariadení Európskeho parlamentu a Rady (EÚ) 2022/2065 (15).
(12)
Debe definirse con claridad el concepto de «sistema de IA» en el presente Reglamento y armonizarlo estrechamente con los trabajos de las organizaciones internacionales que se ocupan de la IA, a fin de garantizar la seguridad jurídica y facilitar la convergencia a escala internacional y una amplia aceptación, al mismo tiempo que se prevé la flexibilidad necesaria para dar cabida a los rápidos avances tecnológicos en este ámbito. Además, la definición debe basarse en las principales características de los sistemas de IA que los distinguen de los sistemas de software o los planteamientos de programación tradicionales y más sencillos, y no debe incluir los sistemas basados en las normas definidas únicamente por personas físicas para ejecutar automáticamente operaciones. Una característica principal de los sistemas de IA es su capacidad de inferencia. Esta capacidad de inferencia se refiere al proceso de obtención de resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que puede influir en entornos físicos y virtuales, y a la capacidad de los sistemas de IA para deducir modelos o algoritmos, o ambos, a partir de información de entrada o datos. Las técnicas que permiten la inferencia al construir un sistema de IA incluyen estrategias de aprendizaje automático que aprenden de los datos cómo alcanzar determinados objetivos y estrategias basadas en la lógica y el conocimiento que infieren a partir de conocimientos codificados o de una representación simbólica de la tarea que debe resolverse. La capacidad de inferencia de un sistema de IA trasciende el tratamiento básico de datos, al permitir el aprendizaje, el razonamiento o la modelización. El término «basado en una máquina» se refiere al hecho de que los sistemas de IA se ejecutan en máquinas.La referencia a objetivos explícitos o implícitos subraya que los sistemas de IA pueden funcionar con arreglo a objetivos definidos explícitos o a objetivos implícitos. Los objetivos del sistema de IA pueden ser diferentes de la finalidad prevista del sistema de IA en un contexto específico. A los efectos del presente Reglamento, debe entenderse por entornos los contextos en los que funcionan los sistemas de IA, mientras que los resultados de salida generados por el sistema de IA reflejan las distintas funciones desempeñadas por los sistemas de IA e incluyen predicciones, contenidos, recomendaciones o decisiones. Los sistemas de IA están diseñados para funcionar con distintos niveles de autonomía, lo que significa que pueden actuar con cierto grado de independencia con respecto a la actuación humana y tienen ciertas capacidades para funcionar sin intervención humana. La capacidad de adaptación que un sistema de IA podría mostrar tras su despliegue se refiere a las capacidades de autoaprendizaje que permiten al sistema cambiar mientras está en uso. Los sistemas de IA pueden utilizarse de manera independiente o como componentes de un producto, con independencia de si el sistema forma parte físicamente del producto (integrado) o contribuye a la funcionalidad del producto sin formar parte de él (no integrado).
(12)
Pojem „systém AI“ v tomto nariadení by sa mal jasne vymedziť a mal by sa úzko zosúladiť s prácou medzinárodných organizácií, ktoré sa zaoberajú AI, s cieľom zabezpečiť právnu istotu, uľahčiť medzinárodné zbližovanie a širokú akceptáciu, a zároveň poskytnúť flexibilitu na prispôsobenie sa rýchlemu technologickému vývoju v tejto oblasti. Okrem toho by vymedzenie malo byť založené na kľúčových charakteristikách systémov AI, ktorými sa odlišuje od jednoduchších tradičných softvérových systémov alebo programovacích prístupov, a nemalo by sa vzťahovať na systémy, ktoré sú založené na pravidlách vymedzených výlučne fyzickými osobami na automatické vykonávanie operácií. Kľúčovou charakteristikou systémov AI je ich spôsobilosť odvodzovať. Táto spôsobilosť odvodzovať sa týka procesu získavania výstupov, ako sú predpovede, obsah, odporúčania alebo rozhodnutia, ktoré môžu ovplyvniť fyzické alebo virtuálne prostredie, a spôsobilosti systémov AI odvodzovať zo vstupov alebo údajov modely alebo algoritmy, alebo oboje. Techniky, ktoré umožňujú odvodzovať pri budovaní systému AI, zahŕňajú prístupy strojového učenia, ktoré sa z údajov učia, ako dosiahnuť určité ciele, a prístupy založené na logike a vedomostiach, ktoré odvodzujú riešenie úloh zo zakódovaných poznatkov alebo symbolického znázornenia. Schopnosť systému AI odvodzovať presahuje základné spracúvanie údajov tým, že umožňuje učenie sa, odôvodňovanie alebo modelovanie. Pojem „strojový“ sa vzťahuje na skutočnosť, že systémy AI fungujú na strojoch. Odkaz na explicitné alebo implicitné ciele zdôrazňuje, že systémy AI môžu fungovať podľa explicitných definovaných cieľov alebo podľa implicitných cieľov. Ciele systému AI sa môžu líšiť od zamýšľaného účelu systému AI v konkrétnom kontexte. Na účely tohto nariadenia by sa pod prostrediami mali rozumieť kontexty, v ktorých systémy AI fungujú, zatiaľ čo výstupy generované systémom AI odrážajú rôzne funkcie vykonávané systémami AI a zahŕňajú predpovede, obsah, odporúčania alebo rozhodnutia. Systémy AI sú dizajnované tak, aby fungovali s rôznymi úrovňami autonómnosti, čo znamená, že pri svojej činnosti majú určitý stupeň nezávislosti od ľudskej účasti a určitý stupeň spôsobilosti fungovať bez ľudského zásahu. Adaptabilita, ktorú by systém AI mohol preukázať po nasadení, sa týka samovzdelávacích spôsobilostí, vďaka ktorým sa môže systém zmeniť počas používania. Systémy AI sa môžu používať samostatne alebo ako komponent výrobku bez ohľadu na to, či je tento systém do výrobku fyzicky integrovaný (zabudovaný) alebo či slúži funkčnosti tohto výrobku bez toho, aby doň bol integrovaný (nezabudovaný).
(13)
El concepto de «responsable del despliegue» a que hace referencia el presente Reglamento debe interpretarse como cualquier persona física o jurídica, incluida cualquier autoridad pública, órgano u organismo, que utilice un sistema de IA bajo su propia autoridad, salvo cuando su uso se enmarque en una actividad personal de carácter no profesional. Dependiendo del tipo de sistema de IA, el uso del sistema puede afectar a personas distintas del responsable del despliegue.
(13)
Pojem „nasadzujúci subjekt“ uvedený v tomto nariadení by sa mal vykladať ako akákoľvek fyzická alebo právnická osoba vrátane orgánu verejnej moci, verejnej agentúry alebo iného verejného subjektu, ktorá systém AI používa v rámci svojej právomoci, s výnimkou systému AI používaného počas osobnej neprofesionálnej činnosti. V závislosti od typu systému AI môže mať používanie systému vplyv na iné osoby, než je nasadzujúci subjekt.
(14)
El concepto de «datos biométricos» empleado en el presente Reglamento debe interpretarse a la luz del concepto de «datos biométricos» tal como se define en el artículo 4, punto 14, del Reglamento (UE) 2016/679, en el artículo 3, punto 18, del Reglamento (UE) 2018/1725, y en el artículo 3, punto 13, de la Directiva (UE) 2016/680. Los datos biométricos pueden permitir la autenticación, la identificación o la categorización de las personas físicas y el reconocimiento de las emociones de las personas físicas.
(14)
Pojem „biometrické údaje“ použitý v tomto nariadení by sa mal vykladať so zreteľom na pojem biometrické údaje v zmysle vymedzenia v článku 4 bode 14 nariadenia (EÚ) 2016/679, článku 3 bode 18 nariadenia (EÚ) 2018/1725 a článku 3 bode 13 smernice (EÚ) 2016/680. Biometrické údaje môžu umožniť autentifikáciu, identifikáciu alebo kategorizáciu fyzických osôb a rozpoznávanie emócií fyzických osôb.
(15)
El concepto de «identificación biométrica» a que hace referencia el presente Reglamento debe definirse como el reconocimiento automatizado de características humanas de tipo físico, fisiológico o conductual, como la cara, el movimiento ocular, la forma del cuerpo, la voz, la entonación, el modo de andar, la postura, la frecuencia cardíaca, la presión arterial, el olor o las características de las pulsaciones de tecla, a fin de determinar la identidad de una persona comparando sus datos biométricos con los datos biométricos de personas almacenados en una base de datos de referencia, independientemente de que la persona haya dado o no su consentimiento. Quedan excluidos los sistemas de IA destinados a la verificación biométrica, que comprende la autenticación, cuyo único propósito es confirmar que una persona física concreta es la persona que dice ser, así como la identidad de una persona física con la finalidad exclusiva de que tenga acceso a un servicio, desbloquee un dispositivo o tenga acceso de seguridad a un local.
(15)
Pojem „biometrická identifikácia“ uvedený v tomto nariadení by sa mal vymedziť ako automatické rozpoznávanie fyzických, fyziologických a behaviorálnych ľudských znakov, ako sú tvár, pohyb očí, tvar tela, hlas, reč, chôdza, držanie tela, srdcová frekvencia, tlak krvi, vôňa, dynamika písania na klávesnici, na účely stanovenia totožnosti jednotlivca porovnaním biometrických údajov daného jednotlivca s biometrickými údajmi jednotlivcov uloženými v referenčnej databáze, bez ohľadu na to, či jednotlivec udelil súhlas alebo nie. To nezahŕňa systémy AI určené na biometrické overenie zahŕňajúce autentifikáciu, ktorého jediným účelom je potvrdiť, že konkrétna fyzická osoba je tou osobou, o ktorej tvrdí, že ňou je, a potvrdiť totožnosť fyzickej osoby výlučne na účely prístupu k službe, odomknutia zariadenia alebo získania bezpečnostného prístupu do priestorov.
(16)
El concepto de «categorización biométrica» a que hace referencia el presente Reglamento debe definirse como la inclusión de personas físicas en categorías específicas en función de sus datos biométricos. Estas categorías específicas pueden referirse a aspectos como el sexo, la edad, el color del pelo, el color de los ojos, los tatuajes, los rasgos conductuales o de la personalidad, la lengua, la religión, la pertenencia a una minoría nacional o la orientación sexual o política. No se incluyen los sistemas de categorización biométrica que sean una característica meramente accesoria intrínsecamente vinculada a otro servicio comercial, lo que significa que la característica no puede utilizarse, por razones técnicas objetivas, sin el servicio principal y que la integración de dicha característica o funcionalidad no es un medio para eludir la aplicabilidad de las normas del presente Reglamento. Por ejemplo, los filtros que clasifican las características faciales o corporales utilizados en los mercados en línea podrían constituir una característica accesoria de este tipo, ya que solo pueden utilizarse en relación con el servicio principal, que consiste en vender un producto permitiendo al consumidor previsualizar cómo le quedaría y ayudarlo a tomar una decisión de compra. Los filtros utilizados en los servicios de redes sociales que clasifican las características faciales o corporales a fin de que los usuarios puedan añadir o modificar imágenes o vídeos también podrían considerarse una característica accesoria, ya que dichos filtros no pueden utilizarse sin el servicio principal de las redes sociales, que consiste en compartir contenidos en línea.
(16)
Pojem „biometrická kategorizácia“ uvedený v tomto nariadení by sa mal vymedziť ako zaradenie fyzických osôb do osobitných kategórií na základe ich biometrických údajov. Takéto špecifické kategórie sa môžu týkať aspektov ako pohlavie, vek, farba vlasov, farba očí, tetovania, behaviorálne alebo osobnostné črty, jazyk, náboženstvo, príslušnosť k národnostnej menšine, sexuálna alebo politická orientácia. Nezahŕňa to systémy biometrickej kategorizácie, ktoré sú čisto vedľajšou funkciou neoddeliteľne spojenou s inou komerčnou službou, čo znamená, že táto funkcia sa z objektívnych technických dôvodov nemôže používať bez hlavnej služby, a integrácia uvedenej funkcie alebo funkcionality nie je prostriedkom obchádzania uplatniteľnosti pravidiel tohto nariadenia. Napríklad filtre, ktoré kategorizujú tvárové alebo telesné znaky používané na online trhoch, by mohli predstavovať takúto vedľajšiu funkciu, keďže sa môžu použiť len v súvislosti s hlavnou službou, ktorá spočíva v predaji výrobku tým, že sa spotrebiteľovi umožní nahliadnuť do zobrazenia výrobku na sebe a pomôcť mu pri rozhodovaní o kúpe. Filtre používané pri online službách sociálnych sietí, ktoré kategorizujú tvárové alebo telesné znaky s cieľom umožniť používateľom pridávať alebo upravovať obrázky alebo videá, by sa takisto mohli považovať za vedľajšiu funkciu, keďže takýto filter nemožno použiť bez hlavnej služby sociálnej siete spočívajúcej v zdieľaní obsahu online.
(17)
El concepto de «sistema de identificación biométrica remota» a que hace referencia el presente Reglamento debe definirse de manera funcional como un sistema de IA destinado a identificar a personas físicas sin su participación activa, generalmente a distancia, comparando sus datos biométricos con los que figuren en una base de datos de referencia, con independencia de la tecnología, los procesos o los tipos de datos biométricos concretos que se usen. Estos sistemas de identificación biométrica remota suelen utilizarse para detectar a varias personas o su comportamiento de forma simultánea, a fin de simplificar considerablemente la identificación de personas sin su participación activa. Quedan excluidos los sistemas de IA destinados a la verificación biométrica, que comprende la autenticación, cuyo único propósito es confirmar que una persona física concreta es la persona que dice ser, así como la identidad de una persona física con la finalidad exclusiva de que tenga acceso a un servicio, desbloquee un dispositivo o tenga acceso de seguridad a un local. Esa exclusión se justifica por el hecho de que tales sistemas probablemente tengan una repercusión menor en los derechos fundamentales de las personas físicas que los sistemas de identificación biométrica remota que puedan utilizarse para el tratamiento de los datos biométricos de un gran número de personas sin su participación activa. En el caso de los sistemas «en tiempo real», la recogida de los datos biométricos, la comparación y la identificación se producen de manera instantánea, casi instantánea o, en cualquier caso, sin una importante demora. En este sentido, no debe existir la posibilidad de eludir las normas contempladas en el presente Reglamento en relación con el uso «en tiempo real» de los sistemas de IA de que se trate generando demoras mínimas. Los sistemas «en tiempo real» implican el uso de materiales «en directo» o «casi en directo», como grabaciones de vídeo, generados por una cámara u otro dispositivo con funciones similares. En cambio, en los sistemas «en diferido» ya se han recabado los datos biométricos y la comparación e identificación se producen con una importante demora. A tal fin se utilizan materiales, como imágenes o grabaciones de vídeo captadas por cámaras de televisión en circuito cerrado o dispositivos privados, generados con anterioridad a la utilización del sistema en relación con las personas físicas afectadas.
(17)
Pojem „systém diaľkovej biometrickej identifikácie“ uvedený v tomto nariadení by sa mal vymedziť funkčne ako systém AI určený na identifikáciu fyzických osôb bez ich aktívneho zapojenia, zvyčajne na diaľku, porovnávaním biometrických údajov osoby s biometrickými údajmi obsiahnutými v referenčnej databáze, a to bez ohľadu na konkrétne použité technológie, procesy alebo typy biometrických údajov. Takéto systémy diaľkovej biometrickej identifikácie sa zvyčajne používajú na vnímanie viacerých osôb alebo ich správania súčasne, a to s cieľom výrazne uľahčiť identifikáciu fyzických osôb bez ich aktívneho zapojenia. To nezahŕňa systémy AI určené na biometrické overenie zahŕňajúce autentifikáciu, ktorého jediným účelom je potvrdiť, že konkrétna fyzická osoba je tou osobou, o ktorej tvrdí, že ňou je, a potvrdiť totožnosť fyzickej osoby výlučne na účely prístupu k službe, odomknutia zariadenia alebo získania bezpečnostného prístupu do priestorov. Toto vylúčenie je odôvodnené skutočnosťou, že takéto systémy majú pravdepodobne malý vplyv na základné práva fyzických osôb v porovnaní so systémami diaľkovej biometrickej identifikácie, ktoré sa môžu použiť na spracúvanie biometrických údajov veľkého počtu osôb bez ich aktívneho zapojenia. V prípade systémov „v reálnom čase“ prebieha zachytávanie biometrických údajov, ich porovnávanie a identifikácia okamžite, takmer okamžite alebo v každom prípade bez výrazného časového odstupu. V tejto súvislosti by nemal existovať priestor na obchádzanie pravidiel tohto nariadenia o používaní predmetných systémov AI „v reálnom čase“ tým, že sa zavedú malé časové odstupy. Systémy „v reálnom čase“ zahŕňajú používanie materiálu „naživo“ alebo „s malým časovým posunom“, ako sú napríklad videozáznamy, generovaného kamerou alebo iným zariadením s podobnými funkciami. Naopak, v prípade systémov „následnej“ identifikácie už boli biometrické údaje zachytené a porovnanie a identifikácia sa uskutočňujú až s výrazným časovým odstupom. Ide o materiály, ako sú fotografie alebo videozáznamy generované kamerami priemyselnej televízie alebo súkromnými zariadeniami, ktoré boli vytvorené pred použitím tohto systému vo vzťahu k dotknutým fyzickým osobám.
(18)
El concepto de «sistema de reconocimiento de emociones» a que hace referencia el presente Reglamento debe definirse como un sistema de IA destinado a distinguir o deducir las emociones o las intenciones de las personas físicas a partir de sus datos biométricos. El concepto se refiere a emociones o intenciones como la felicidad, la tristeza, la indignación, la sorpresa, el asco, el apuro, el entusiasmo, la vergüenza, el desprecio, la satisfacción y la diversión. No incluye los estados físicos, como el dolor o el cansancio, como, por ejemplo, los sistemas utilizados para detectar el cansancio de los pilotos o conductores profesionales con el fin de evitar accidentes. Tampoco incluye la mera detección de expresiones, gestos o movimientos que resulten obvios, salvo que se utilicen para distinguir o deducir emociones. Esas expresiones pueden ser expresiones faciales básicas, como un ceño fruncido o una sonrisa; gestos como el movimiento de las manos, los brazos o la cabeza, o características de la voz de una persona, como una voz alzada o un susurro.
(18)
Pojem „systém na rozpoznávanie emócií“ uvedený v tomto nariadení by sa mal vymedziť ako systém AI na účely identifikácie alebo odvodenia emócií alebo úmyslov fyzických osôb na základe ich biometrických údajov. Tento pojem sa vzťahuje na emócie alebo úmysly, ako sú šťastie, smútok, hnev, prekvapenie, znechutenie, rozpaky, vzrušenie, hanba, pohŕdanie, spokojnosť a zábava. Nezahŕňa fyzické stavy, ako je bolesť alebo únava vrátane napríklad systémov používaných na zisťovanie stavu únavy profesionálnych pilotov alebo vodičov na účely prevencie nehôd. Nezahŕňa ani samotné zisťovanie ľahko viditeľných výrazov, gest alebo pohybov, pokiaľ sa nepoužívajú na identifikáciu alebo odvodenie emócií. Tieto výrazy môžu byť základnými výrazmi tváre, ako je zamračenie alebo úsmev, alebo gestami, ako je pohyb rúk, ramien alebo hlavy, alebo charakteristickými znakmi hlasu osoby, ako je zdvihnutý hlas alebo šepot.
(19)
A los efectos del presente Reglamento, debe entenderse que el concepto de «espacio de acceso público» se refiere a cualquier espacio físico al que pueda acceder un número indeterminado de personas físicas y con independencia de si es de propiedad privada o pública y de la actividad para la que pueda utilizarse el espacio, ya sean actividades comerciales, por ejemplo, tiendas, restaurantes, cafeterías; de prestación de servicios, por ejemplo, bancos, actividades profesionales, hostelería; deportivas, por ejemplo, piscinas, gimnasios, estadios; de transporte, por ejemplo, estaciones de autobús, metro y ferrocarril, aeropuertos, medios de transporte; de entretenimiento, por ejemplo, cines, teatros, museos, salas de conciertos, salas de conferencias; de ocio o de otro tipo, por ejemplo, vías y plazas públicas, parques, bosques, parques infantiles. Asimismo, debe considerarse que un espacio es de acceso público si, con independencia de posibles restricciones de capacidad o de seguridad, el acceso está sujeto a determinadas condiciones previamente definidas que puede satisfacer un número indeterminado de personas, como la adquisición de una entrada o un título de transporte, el registro previo o tener una determinada edad. Por el contrario, un espacio no debe considerarse de acceso público si únicamente pueden acceder a él determinadas personas físicas definidas, ya sea en virtud del Derecho de la Unión o del Derecho nacional directamente relacionado con la seguridad pública o en virtud de una clara manifestación de voluntad de la persona que ejerza la autoridad pertinente sobre dicho espacio. La posibilidad real de acceso, como una puerta no cerrada con llave o una verja abierta, no implica por sí sola que el espacio sea de acceso público si hay indicios o circunstancias que sugieran lo contrario, como señales que prohíban o restrinjan el acceso. Los locales de empresas y fábricas, así como las oficinas y lugares de trabajo a los que solo se pretende que accedan los empleados y proveedores de servicios pertinentes, no son espacios de acceso público. No deben incluirse en los espacios de acceso público las prisiones ni las zonas en que se realizan inspecciones fronterizas. Algunos espacios pueden incluir tanto zonas de acceso público como zonas que no son de acceso público, como los aeropuertos o el vestíbulo de un edificio residencial privado por el que se accede a una consulta médica. Los espacios en línea no son lugares de acceso público, ya que no son espacios físicos. No obstante, se debe determinar caso por caso si un espacio es de acceso público o no teniendo en cuenta las particularidades de la situación concreta.
(19)
Na účely tohto nariadenia by sa pojem „verejne prístupný priestor“ mal vykladať tak, že sa vzťahuje na akýkoľvek fyzický priestor, ktorý je prístupný neurčenému počtu fyzických osôb a bez ohľadu na to, či je daný priestor v súkromnom alebo verejnom vlastníctve, bez ohľadu na činnosť, na ktorú sa priestor môže používať, napríklad na obchodovanie, ako napríklad predajne, reštaurácie, kaviarne, pre služby, ako napríklad banky, profesionálne činnosti, ubytovanie a pohostinské služby, na šport, ako napríklad plavecké bazény, posilňovne, štadióny, pre dopravu, ako napríklad autobusové zastávky, stanice metra a železničné stanice, letiská, dopravné prostriedky, na zábavu, ako napríklad kiná, divadlá, múzeá, koncertné a konferenčné siene, alebo na voľný čas alebo iné činnosti, ako napríklad verejné cesty a námestia, parky, lesy, ihriská. Priestor by sa mal klasifikovať ako verejne prístupný vtedy, ak bez ohľadu na potenciálne kapacitné alebo bezpečnostné obmedzenia podlieha prístup určitým vopred určeným podmienkam, ktoré môže splniť neurčený počet osôb, ako je kúpa vstupenky alebo cestovného lístka, predchádzajúca registrácia alebo určitá veková hranica. Naopak, priestor by sa nemal považovať za verejne prístupný, ak je prístup naň obmedzený na konkrétne a vymedzené fyzické osoby buď prostredníctvom práva Únie alebo vnútroštátneho práva priamo súvisiaceho s verejnou bezpečnosťou alebo ochranou, alebo prostredníctvom jasného prejavu vôle osoby, ktorá má nad daným priestorom príslušné právomoci. Samotná faktická možnosť prístupu, ako napríklad nezamknuté dvere alebo otvorená brána v oplotení, neznamená, že priestor je verejne prístupný, ak existujú náznaky alebo okolnosti, ktoré naznačujú opak, napríklad označenia zakazujúce alebo obmedzujúce prístup. Priestory spoločností a tovární, ako aj kancelárie a pracoviská, ku ktorým majú prístup len príslušní zamestnanci a poskytovatelia služieb, sú priestory, ktoré nie sú verejne prístupné. Verejne prístupné priestory by nemali zahŕňať väznice ani hraničnú kontrolu. Niektoré ďalšie priestory môžu zahŕňať verejne prístupné aj neverejne prístupné priestory, ako napríklad vstupná hala súkromnej obytnej budovy potrebná na vstup do ordinácie lekára alebo letisko. Nezahŕňajú online priestory, pretože nejde o fyzické priestory. To, či je daný priestor prístupný verejnosti, by sa však malo určovať od prípadu k prípadu so zreteľom na osobitosti konkrétnej situácie.
(20)
Con el fin de obtener los mayores beneficios de los sistemas de IA, protegiendo al mismo tiempo los derechos fundamentales, la salud y la seguridad, y de posibilitar el control democrático, la alfabetización en materia de IA debe dotar a los proveedores, responsables del despliegue y personas afectadas de los conceptos necesarios para tomar decisiones con conocimiento de causa en relación con los sistemas de IA. Esos conceptos pueden variar en función del contexto pertinente e incluir el entendimiento de la correcta aplicación de los elementos técnicos durante la fase de desarrollo del sistema de IA, las medidas que deben aplicarse durante su uso, las formas adecuadas de interpretar los resultados de salida del sistema de IA y, en el caso de las personas afectadas, los conocimientos necesarios para comprender el modo en que las decisiones adoptadas con la ayuda de la IA tendrán repercusiones para ellas. En el contexto de la aplicación del presente Reglamento, la alfabetización en materia de IA debe proporcionar a todos los agentes pertinentes de la cadena de valor de la IA los conocimientos necesarios para garantizar el cumplimiento adecuado y la correcta ejecución. Además, la puesta en práctica general de medidas de alfabetización en materia de IA y la introducción de acciones de seguimiento adecuadas podrían contribuir a mejorar las condiciones de trabajo y, en última instancia, sostener la consolidación y la senda de innovación de una IA fiable en la Unión. El Consejo Europeo de Inteligencia Artificial (en lo sucesivo, «Consejo de IA») debe apoyar a la Comisión para promover las herramientas de alfabetización en materia de IA, la sensibilización pública y la comprensión de los beneficios, los riesgos, las salvaguardias, los derechos y las obligaciones en relación con el uso de sistemas de IA. En cooperación con las partes interesadas pertinentes, la Comisión y los Estados miembros deben facilitar la elaboración de códigos de conducta voluntarios para promover la alfabetización en materia de IA entre las personas que se ocupan del desarrollo, el manejo y el uso de la IA.
(20)
S cieľom získať čo najväčšie výhody systémov AI a zároveň chrániť základné práva, zdravie a bezpečnosť a umožniť demokratickú kontrolu by gramotnosť v oblasti AI mala vybaviť poskytovateľov, nasadzujúce subjekty a dotknuté osoby znalosťami potrebnými na prijímanie informovaných rozhodnutí týkajúcich sa systémov AI. Tieto znalosti sa môžu líšiť, pokiaľ ide o príslušný kontext, a môžu zahŕňať pochopenie správneho uplatňovania technických prvkov počas fázy vývoja systému AI, opatrenia, ktoré sa majú uplatňovať počas jeho používania, vhodné spôsoby výkladu výstupu systému AI a v prípade dotknutých osôb znalosti potrebné na pochopenie toho, ako na ne budú mať rozhodnutia prijaté s pomocou AI vplyv. V kontexte uplatňovania tohto nariadenia by gramotnosť v oblasti AI mala všetkým relevantným aktérom v hodnotovom reťazci AI poskytnúť spoľahlivé poznatky potrebné na zabezpečenie primeraného súladu a jeho správneho presadzovania. Okrem toho by rozsiahle vykonávanie opatrení týkajúcich sa gramotnosti v oblasti AI a zavedenie vhodných následných opatrení mohlo prispieť k zlepšeniu pracovných podmienok a v konečnom dôsledku k zachovaniu konsolidácie a inovačnej cesty dôveryhodnej AI v Únii. Európska rada pre umelú inteligenciu (ďalej len „rada pre AI“) by mala podporovať Komisiu pri presadzovaní gramotnosti v oblasti AI, informovanosti verejnosti a chápaní prínosov, rizík, záruk, práv a povinností v súvislosti s používaním systémov AI. V spolupráci s relevantnými zainteresovanými stranami by Komisia a členské štáty mali uľahčiť vypracovanie dobrovoľných kódexov správania na podporu gramotnosti v oblasti AI medzi osobami, ktoré sa zaoberajú vývojom, prevádzkou a používaním AI.
(21)
Con el objetivo de garantizar la igualdad de condiciones y la protección efectiva de los derechos y libertades de las personas en toda la Unión, las normas establecidas en el presente Reglamento deben aplicarse a los proveedores de sistemas de IA sin discriminación, con independencia de si están establecidos en la Unión o en un tercer país, y a los responsables del despliegue de sistemas de IA establecidos en la Unión.
(21)
S cieľom zabezpečiť rovnaké podmienky a účinnú ochranu práv a slobôd fyzických osôb v celej Únii by sa pravidlá stanovené v tomto nariadení mali uplatňovať na poskytovateľov systémov AI nediskriminačným spôsobom bez ohľadu na to, či sú usadení v Únii alebo v tretej krajine, a na subjekty nasadzujúce systémy AI usadené v Únii.
(22)
Debido a su carácter digital, algunos sistemas de IA deben entrar en el ámbito de aplicación del presente Reglamento aunque no se introduzcan en el mercado, se pongan en servicio ni se utilicen en la Unión. Esto sucede, por ejemplo, cuando un operador establecido en la Unión firma con un operador establecido en un tercer país un contrato para la prestación de determinados servicios en relación con una actividad que llevará a cabo un sistema de IA que se consideraría de alto riesgo. En dichas circunstancias, el sistema de IA usado en un tercer país por el operador podría tratar datos recabados lícitamente en la Unión y transferidos desde su territorio, y proporcionar al operador contratante ubicado en la Unión los resultados de salida generados por dicho sistema de IA a raíz de este tratamiento sin que el sistema de IA de que se trate se introduzca en el mercado, se ponga en servicio o se utilice en la Unión. Para evitar la elusión de este Reglamento y garantizar la protección efectiva de las personas físicas ubicadas en la Unión, el presente Reglamento también debe aplicarse a los proveedores y responsables del despliegue de sistemas de IA establecidos en un tercer país, en la medida en que los resultados de salida generados por dichos sistemas estén destinados a utilizarse en la Unión. No obstante, con el objetivo de tener en cuenta los acuerdos existentes y las necesidades especiales de cooperación futura con socios extranjeros con los que se intercambian información y pruebas, el presente Reglamento no debe aplicarse a las autoridades públicas de un tercer país ni a organizaciones internacionales cuando actúen en el marco de acuerdos internacionales o de cooperación celebrados a escala nacional o de la Unión con fines de cooperación policial y judicial con la Unión o sus Estados miembros si el tercer país o la organización internacional correspondiente ofrece garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas. Cuando proceda, ello podrá incluir las actividades de entidades a las que los terceros países hayan encomendado tareas específicas en apoyo de dicha cooperación policial y judicial. Dichos marcos de cooperación o acuerdos se han establecido bilateralmente entre los Estados miembros y terceros países o entre la Unión Europea, Europol y otros órganos de la Unión y terceros países y organizaciones internacionales. Las autoridades competentes para la supervisión de las autoridades policiales y judiciales en virtud del presente Reglamento deben evaluar si dichos marcos de cooperación o acuerdos internacionales incluyen garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas. Las autoridades nacionales y las instituciones, órganos y organismos de la Unión que sean destinatarios de dichos resultados de salida y que la utilicen en la Unión siguen siendo responsables de garantizar que su utilización de la información está en consonancia con el Derecho de la Unión. Cuando, en el futuro, dichos acuerdos internacionales se revisen o se celebren otros nuevos, las partes contratantes deben hacer todo lo posible por que dichos acuerdos se ajusten a los requisitos del presente Reglamento.
(22)
Určité systémy AI by vzhľadom na svoju digitálnu povahu mali patriť do rozsahu pôsobnosti tohto nariadenia, aj keď sa v Únii neuvádzajú na trh ani do prevádzky, ani sa v nej nepoužívajú. Ide napríklad o prevádzkovateľa usadeného v Únii, ktorý zmluvne zadáva určité služby prevádzkovateľovi usadenému v tretej krajine v súvislosti s činnosťou vykonávanou systémom AI, ktorý by mohol byť označený ako vysokorizikový. Za týchto okolností by systém AI, ktorý používa prevádzkovateľ v tretej krajine, mohol spracúvať údaje zákonne zozbierané v Únii a prenášané z Únie a poskytovať zadávajúcemu prevádzkovateľovi v Únii výstup uvedeného systému AI vyplývajúci z tohto spracúvania bez toho, aby sa uvedený systém AI uvádzal na trh, do prevádzky alebo sa používal v Únii. S cieľom zabrániť obchádzaniu tohto nariadenia a zabezpečiť účinnú ochranu fyzických osôb nachádzajúcich sa v Únii by sa toto nariadenie malo vzťahovať aj na poskytovateľov systémov AI a subjekty nasadzujúce systémy AI, ktoré sú usadené v tretej krajine, a to v rozsahu, v akom je výstup generovaný týmito systémami určený na používanie v Únii. S cieľom zohľadniť existujúce dojednania a osobitné potreby budúcej spolupráce so zahraničnými partnermi, s ktorými sa vymieňajú informácie a dôkazy, by sa však toto nariadenie nemalo vzťahovať na orgány verejnej moci tretej krajiny a medzinárodné organizácie, ak konajú v rámci spolupráce alebo medzinárodných dohôd uzavretých na únijnej alebo vnútroštátnej úrovni v oblasti presadzovania práva a justičnej spolupráce s Úniou alebo členskými štátmi, pod podmienkou, že príslušná tretia krajina alebo medzinárodná organizácia poskytuje primerané záruky týkajúce sa ochrany základných práv a slobôd jednotlivcov. V relevantných prípadoch sa to môže vzťahovať na činnosti subjektov, ktoré tretie krajiny poverili vykonávaním osobitných úloh na podporu takejto spolupráce v oblasti presadzovania práva a justičnej spolupráce. Takéto rámce spolupráce alebo dohody boli zriadené dvojstranne medzi členskými štátmi a tretími krajinami alebo medzi Európskou úniou, Europolom a inými agentúrami Únie a tretími krajinami a medzinárodnými organizáciami. Orgány zodpovedné za dohľad nad orgánmi presadzovania práva a justičnými orgánmi podľa tohto nariadenia by mali posúdiť, či tieto rámce spolupráce alebo medzinárodné dohody obsahujú primerané záruky, pokiaľ ide o ochranu základných práv a slobôd jednotlivcov. Prijímajúce vnútroštátne orgány a prijímajúce inštitúcie, orgány, úrady a agentúry Únie využívajúce takéto výstupy v Únii zostávajú zodpovedné za zabezpečenie súladu ich využívania s právom Únie. Pri revízii uvedených medzinárodných dohôd alebo uzatváraní nových dohôd v budúcnosti by zmluvné strany mali vynaložiť maximálne úsilie na zosúladenie týchto dohôd s požiadavkami tohto nariadenia.
(23)
El presente Reglamento también debe aplicarse a las instituciones, órganos y organismos de la Unión cuando actúen como proveedores o responsables del despliegue de un sistema de IA.
(23)
Toto nariadenie by sa malo vzťahovať aj na inštitúcie, orgány, úrady a agentúry Únie, ak konajú ako poskytovateľ systému AI alebo subjekt nasadzujúci systém AI.
(24)
En caso de que, y en la medida en que, los sistemas de IA se introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin modificación, con fines militares, de defensa o de seguridad nacional, deben excluirse del ámbito de aplicación del presente Reglamento, independientemente del tipo de entidad que lleve a cabo esas actividades, por ejemplo, con independencia de que se trate de una entidad pública o de una entidad privada. Por lo que respecta a los fines militares y de defensa, dicha exclusión está justificada tanto por el artículo 4, apartado 2, del TUE como por las especificidades de la política de defensa de los Estados miembros y de la política común de defensa de la Unión a que se refiere el título V, capítulo 2, del TUE, que están sujetas al Derecho internacional público que, por lo tanto, es el marco jurídico más adecuado para la regulación de los sistemas de IA en el contexto del uso de la fuerza letal y de otros sistemas de IA en el contexto de las actividades militares y de defensa. Por lo que respecta a los fines de seguridad nacional, la exclusión está justificada tanto por el hecho de que la seguridad nacional sigue siendo responsabilidad exclusiva de los Estados miembros de conformidad con el artículo 4, apartado 2, del TUE, como por la naturaleza específica y las necesidades operativas de las actividades de seguridad nacional y por las normas nacionales específicas aplicables a dichas actividades. No obstante, si un sistema de IA desarrollado, introducido en el mercado, puesto en servicio o utilizado con fines militares, de defensa o de seguridad nacional se utilizara temporal o permanentemente fuera de estos ámbitos con otros fines (por ejemplo, con fines civiles o humanitarios, de garantía del cumplimiento del Derecho o de seguridad pública), dicho sistema entraría en el ámbito de aplicación del presente Reglamento. En tal caso, la entidad que utilice el sistema de IA con fines que no sean militares, de defensa o de seguridad nacional debe garantizar que el sistema de IA cumple lo dispuesto en el presente Reglamento, a menos que el sistema ya lo haga. Los sistemas de IA introducidos en el mercado o puestos en servicio para un fin excluido, a saber, militar, de defensa o de seguridad nacional, y uno o varios fines no excluidos, como fines civiles o de garantía del cumplimiento del Derecho, entran en el ámbito de aplicación del presente Reglamento y los proveedores de dichos sistemas deben garantizar el cumplimiento del presente Reglamento. En esos casos, el hecho de que un sistema de IA pueda entrar en el ámbito de aplicación del presente Reglamento no debe afectar a la posibilidad de que las entidades que llevan a cabo actividades militares, de defensa y de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades, utilicen sistemas de IA con fines de seguridad nacional, militares y de defensa, cuyo uso está excluido del ámbito de aplicación del presente Reglamento. Un sistema de IA introducido en el mercado con fines civiles o de garantía del cumplimiento del Derecho que se utilice, con o sin modificaciones, con fines militares, de defensa o de seguridad nacional no debe entrar en el ámbito de aplicación del presente Reglamento, independientemente del tipo de entidad que lleve a cabo esas actividades.
(24)
V rozsahu, v akom sa systémy AI uvádzajú na trh, uvádzajú do prevádzky alebo s úpravami alebo bez nich používajú na vojenské alebo obranné účely alebo na účely národnej bezpečnosti, by takéto systémy mali byť vylúčené z rozsahu pôsobnosti tohto nariadenia bez ohľadu na to, ktorý typ subjektu vykonáva uvedené činnosti, napríklad či ide o verejný alebo súkromný subjekt. Pokiaľ ide o vojenské a obranné účely, takéto vylúčenie je odôvodnené článkom 4 ods. 2 Zmluvy o EÚ, ako aj osobitosťami obrannej politiky členských štátov a spoločnej obrannej politiky Únie, na ktoré sa vzťahuje hlava V kapitola 2 Zmluvy o EÚ a ktoré podliehajú medzinárodnému právu verejnému, ktoré je preto vhodnejším právnym rámcom na reguláciu systémov AI v kontexte používania smrtiacej sily a iných systémov AI v kontexte vojenských a obranných činností. Pokiaľ ide o účely národnej bezpečnosti, vylúčenie je odôvodnené skutočnosťou, že národná bezpečnosť zostáva výlučnou zodpovednosťou členských štátov v súlade s článkom 4 ods. 2 Zmluvy o EÚ, ako aj osobitnou povahou a operačnými potrebami činností v oblasti národnej bezpečnosti a osobitnými vnútroštátnymi pravidlami uplatniteľnými na tieto činnosti. Ak sa však systém AI, ktorý je vyvinutý, uvedený na trh, uvedený do prevádzky alebo používaný na vojenské alebo obranné účely alebo na účely národnej bezpečnosti, používa dočasne alebo trvalo na iné účely, napríklad na civilné alebo humanitárne účely, účely presadzovania práva alebo verejnej bezpečnosti, takýto systém by patril do rozsahu pôsobnosti tohto nariadenia. V takom prípade by subjekt, ktorý používa systém AI na iné ako vojenské alebo obranné účely alebo na účely národnej bezpečnosti, mal zabezpečiť súlad systému AI s týmto nariadením, pokiaľ systém už s ním nie je v súlade. Systémy AI uvedené na trh alebo do prevádzky na účely vylúčené z pôsobnosti, konkrétne vojenské alebo obranné účely alebo účely národnej bezpečnosti, a jeden alebo viacero účelov nevylúčených z pôsobnosti, napríklad civilné účely alebo presadzovanie práva atď., patria do rozsahu pôsobnosti tohto nariadenia a poskytovatelia týchto systémov by mali zabezpečiť ich súlad s týmto nariadením. V takýchto prípadoch by skutočnosť, že systém AI môže patriť do rozsahu pôsobnosti tohto nariadenia, nemala mať vplyv na možnosť subjektov vykonávajúcich činnosti v oblasti národnej bezpečnosti, obrany a vojenské činnosti, a to bez ohľadu na typ subjektu vykonávajúceho uvedené činnosti, používať systémy AI na účely národnej bezpečnosti, na vojenské a obranné účely, ktoré sú vylúčené z rozsahu pôsobnosti tohto nariadenia. Systém AI uvedený na trh na civilné účely alebo na účely presadzovania práva, ktorý sa s úpravami alebo bez nich používa na vojenské alebo obranné účely alebo na účely národnej bezpečnosti, by nemal patriť do rozsahu pôsobnosti tohto nariadenia bez ohľadu na typ subjektu vykonávajúceho tieto činnosti.
(25)
El presente Reglamento debe apoyar la innovación, respetar la libertad de ciencia y no socavar la actividad de investigación y desarrollo. Por consiguiente, es necesario excluir de su ámbito de aplicación los sistemas y modelos de IA desarrollados específicamente y puestos en servicio únicamente con fines de investigación y desarrollo científicos. Además, es necesario garantizar que el presente Reglamento no afecte de otro modo a la actividad de investigación y desarrollo científicos sobre sistemas o modelos de IA antes de su introducción en el mercado o su puesta en servicio. Por lo que se refiere a la actividad de investigación, prueba y desarrollo orientada a productos en relación con sistemas o modelos de IA, las disposiciones del presente Reglamento tampoco deben aplicarse antes de que dichos sistemas y modelos se pongan en servicio o se introduzcan en el mercado. Esa exclusión se entiende sin perjuicio de la obligación de cumplir el presente Reglamento cuando se introduzca en el mercado o se ponga en servicio como resultado de dicha actividad de investigación y desarrollo un sistema de IA que entre en el ámbito de aplicación del presente Reglamento, así como de la aplicación de disposiciones sobre espacios controlados de pruebas para la IA y pruebas en condiciones reales. Además, sin perjuicio de la exclusión de los sistemas de IA desarrollados específicamente y puestos en servicio únicamente con fines de investigación y desarrollo científicos, cualquier otro sistema de IA que pueda utilizarse para llevar a cabo cualquier actividad de investigación y desarrollo debe seguir estando sujeto a las disposiciones del presente Reglamento. En cualquier caso, toda actividad de investigación y desarrollo debe llevarse a cabo de conformidad con normas éticas y profesionales reconocidas para la investigación científica y con el Derecho aplicable de la Unión.
(25)
Toto nariadenie by malo podporovať inováciu, malo by rešpektovať slobodu vedy a nemalo by oslabovať výskumnú a vývojovú činnosť. Preto je potrebné vylúčiť z jeho pôsobnosti systémy a modely AI osobitne vyvinuté a uvedené do prevádzky výlučne na účely vedeckého výskumu a vývoja. Navyše je potrebné zabezpečiť, aby toto nariadenie iným spôsobom neovplyvňovalo vedeckú, výskumnú a vývojovú činnosť týkajúcu sa systémov alebo modelov AI pred ich uvedením na trh alebo do prevádzky. Pokiaľ ide o výskumnú, testovaciu a vývojovú činnosť zameranú na výrobky v oblasti systémov alebo modelov AI, ustanovenia tohto nariadenia by sa taktiež nemali uplatňovať pred uvedením týchto systémov a modelov do prevádzky alebo pred ich uvedením na trh. Týmto vylúčením nie je dotknutá povinnosť dodržiavať toto nariadenie, keď sa systém AI patriaci do rozsahu pôsobnosti tohto nariadenia uvádza na trh alebo do prevádzky ako výsledok takejto výskumnej a vývojovej činnosti, ani uplatňovanie ustanovení o regulačných experimentálnych prostrediach pre AI a testovaní v reálnych podmienkach. Navyše, bez toho, aby bolo dotknuté vylúčenie systémov AI osobitne vyvinutých a uvedených do prevádzky výlučne na účely vedeckého výskumu a vývoja, akýkoľvek iný systém AI, ktorý sa môže používať na vykonávanie akejkoľvek výskumnej a vývojovej činnosti, by mal naďalej podliehať ustanoveniam tohto nariadenia. Každá výskumná a vývojová činnosť by sa v každom prípade mala vykonávať v súlade s uznávanými etickými a profesijnými normami pre vedecký výskum, ako aj v súlade s uplatniteľným právom Únie.
(26)
Con el fin de establecer un conjunto proporcionado y eficaz de normas vinculantes para los sistemas de IA, es preciso aplicar un enfoque basado en los riesgos claramente definido, que adapte el tipo y contenido de las normas a la intensidad y el alcance de los riesgos que puedan generar los sistemas de IA de que se trate. Por consiguiente, es necesario prohibir determinadas prácticas de IA que no son aceptables, definir los requisitos que deben cumplir los sistemas de IA de alto riesgo y las obligaciones aplicables a los operadores pertinentes, así como imponer obligaciones de transparencia a determinados sistemas de IA.
(26)
Na účely zavedenia primeraného a účinného súboru záväzných pravidiel pre systémy AI by sa mal dodržiavať jasne vymedzený prístup založený na riziku. Týmto prístupom by sa mal typ a obsah takýchto pravidiel prispôsobiť intenzite a rozsahu rizík, ktoré môžu systémy AI vytvárať. Preto je potrebné zakázať určité neakceptovateľné praktiky využívajúce AI, stanoviť požiadavky na vysokorizikové systémy AI a povinnosti príslušných prevádzkovateľov, ako aj stanoviť povinnosti transparentnosti pre určité systémy AI.
(27)
Si bien el enfoque basado en el riesgo es la base de un conjunto proporcionado y eficaz de normas vinculantes, es importante recordar las Directrices éticas para una IA fiable, de 2019, elaboradas por el Grupo independiente de expertos de alto nivel sobre IA creado por la Comisión. En dichas directrices, el Grupo independiente de expertos de alto nivel sobre IA desarrolló siete principios éticos no vinculantes para la IA que tienen por objeto contribuir a garantizar la fiabilidad y el fundamento ético de la IA. Los siete principios son: acción y supervisión humanas; solidez técnica y seguridad; gestión de la privacidad y de los datos; transparencia; diversidad, no discriminación y equidad; bienestar social y ambiental, y rendición de cuentas. Sin perjuicio de los requisitos jurídicamente vinculantes del presente Reglamento y de cualquier otro acto aplicable del Derecho de la Unión, esas directrices contribuyen al diseño de una IA coherente, fiable y centrada en el ser humano, en consonancia con la Carta y con los valores en los que se fundamenta la Unión. De acuerdo con las directrices del Grupo independiente de expertos de alto nivel sobre IA, por «acción y supervisión humanas» se entiende que los sistemas de IA se desarrollan y utilizan como herramienta al servicio de las personas, que respeta la dignidad humana y la autonomía personal, y que funciona de manera que pueda ser controlada y vigilada adecuadamente por seres humanos. Por «solidez técnica y seguridad» se entiende que los sistemas de IA se desarrollan y utilizan de manera que sean sólidos en caso de problemas y resilientes frente a los intentos de alterar el uso o el funcionamiento del sistema de IA para permitir su uso ilícito por terceros y reducir al mínimo los daños no deseados. Por «gestión de la privacidad y de los datos» se entiende que los sistemas de IA se desarrollan y utilizan de conformidad con normas en materia de protección de la intimidad y de los datos, al tiempo que tratan datos que cumplen normas estrictas en términos de calidad e integridad. Por «transparencia» se entiende que los sistemas de IA se desarrollan y utilizan de un modo que permita una trazabilidad y explicabilidad adecuadas, y que, al mismo tiempo, haga que las personas sean conscientes de que se comunican o interactúan con un sistema de IA e informe debidamente a los responsables del despliegue acerca de las capacidades y limitaciones de dicho sistema de IA y a las personas afectadas acerca de sus derechos. Por «diversidad, no discriminación y equidad» se entiende que los sistemas de IA se desarrollan y utilizan de un modo que incluya a diversos agentes y promueve la igualdad de acceso, la igualdad de género y la diversidad cultural, al tiempo que se evitan los efectos discriminatorios y los sesgos injustos prohibidos por el Derecho nacional o de la Unión. Por «bienestar social y ambiental» se entiende que los sistemas de IA se desarrollan y utilizan de manera sostenible y respetuosa con el medio ambiente, así como en beneficio de todos los seres humanos, al tiempo que se supervisan y evalúan los efectos a largo plazo en las personas, la sociedad y la democracia. La aplicación de esos principios debe traducirse, cuando sea posible, en el diseño y el uso de modelos de IA. En cualquier caso, deben servir de base para la elaboración de códigos de conducta en virtud del presente Reglamento. Se anima a todas las partes interesadas, incluidos la industria, el mundo académico, la sociedad civil y las organizaciones de normalización, a que tengan en cuenta, según proceda, los principios éticos para el desarrollo de normas y mejores prácticas voluntarias.
(27)
Hoci je prístup založený na riziku základom pre primeraný a účinný súbor záväzných pravidiel, je dôležité pripomenúť etické usmernenia pre dôveryhodnú AI z roku 2019, ktoré vypracovala nezávislá expertná skupina na vysokej úrovni pre umelú inteligenciu vymenovaná Komisiou. V týchto usmerneniach expertná skupina na vysokej úrovni pre umelú inteligenciu stanovila sedem nezáväzných etických zásad pre AI, ktorých účelom je pomôcť zabezpečiť, aby bola AI dôveryhodná a etická. Uvedenými siedmimi zásadami sú ľudský faktor a dohľad; technická spoľahlivosť a bezpečnosť; súkromie a správa údajov; transparentnosť; rozmanitosť, nediskriminácia a spravodlivosť; spoločenský a environmentálny blahobyt a zodpovednosť. Bez toho, aby boli dotknuté právne záväzné požiadavky tohto nariadenia a akéhokoľvek iného uplatniteľného práva Únie, tieto usmernenia prispievajú k dizajnu súdržnej, dôveryhodnej a na človeka sústredenej AI v súlade s chartou a hodnotami, na ktorých je Únia založená. Podľa usmernení expertnej skupiny na vysokej úrovni pre umelú inteligenciu „ľudský faktor a dohľad“ znamená, že systémy AI sa vyvíjajú a používajú ako nástroj, ktorý slúži ľuďom, rešpektuje ľudskú dôstojnosť a osobnú samostatnosť a funguje spôsobom umožňujúcim primeranú kontrolu a dohľad človekom. „Technická spoľahlivosť a bezpečnosť“ znamená, že systémy AI sa vyvíjajú a používajú tak, aby sa umožnila spoľahlivosť v prípade problémov a odolnosť voči pokusom o zmenu použitia alebo výkonu systému AI na účely nezákonného používania tretími stranami a aby sa minimalizovala nechcená ujma. „Súkromie a správa údajov“ znamená, že systémy AI sa vyvíjajú a používajú v súlade s pravidlami ochrany súkromia a údajov pri súčasnom spracúvaní údajov podľa vysokých noriem kvality a integrity. „Transparentnosť“ znamená, že systémy AI sa vyvíjajú a používajú tak, aby umožňovali náležitú vysledovateľnosť a vysvetliteľnosť, pričom upozorňujú ľudí na to, že komunikujú a interagujú so systémom AI, a zároveň náležite informujú subjekty nasadzujúce systém AI o spôsobilostiach a obmedzeniach daného systému a dotknuté osoby o ich právach. „Rozmanitosť, nediskriminácia a spravodlivosť“ znamená, že systémy AI sa vyvíjajú a používajú tak, aby zapájali rôznych aktérov, podporovali rovnosť prístupu, rodovú rovnosť a kultúrnu rozmanitosť a zároveň predchádzali diskriminačným vplyvom a nespravodlivej zaujatosti, ktoré právo Únie a vnútroštátne právo zakazuje. „Spoločenský a environmentálny blahobyt“ znamená, že systémy AI sa vyvíjajú a používajú udržateľným spôsobom priaznivým pre životného prostredie, ako aj v prospech všetkých ľudí, pričom sa monitoruje a posudzuje dlhodobý vplyv na jednotlivca, spoločnosť a demokraciu. Uplatňovanie týchto zásad by sa malo podľa možnosti premietnuť do dizajnu a používania modelov AI. V každom prípade by mali slúžiť ako základ pre vypracovanie kódexov správania podľa tohto nariadenia. Všetky zainteresované strany vrátane priemyselných odvetví, akademickej obce, občianskej spoločnosti a normalizačných organizácií sa vyzývajú, aby tieto etické zásady podľa potreby zohľadnili pri vypracúvaní dobrovoľných najlepších postupov a noriem.
(28)
Al margen de los múltiples usos beneficiosos de la IA, esta también puede utilizarse indebidamente y proporcionar nuevas y poderosas herramientas para llevar a cabo prácticas de manipulación, explotación y control social. Dichas prácticas son sumamente perjudiciales e incorrectas y deben estar prohibidas, pues van en contra de los valores de la Unión de respeto de la dignidad humana, la libertad, la igualdad, la democracia y el Estado de Derecho y de los derechos fundamentales consagrados en la Carta, como el derecho a la no discriminación, a la protección de datos y a la intimidad y los derechos del niño.
(28)
Hoci využívanie AI prináša mnoho výhod, možno ju zneužiť a môže sa stať zdrojom nových a výkonných nástrojov umožňujúcich manipulatívne a zneužívajúce praktiky a praktiky ovládania spoločnosti. Takéto praktiky sú mimoriadne škodlivé a zneužívajúce a mali by sa zakázať, pretože sú v rozpore s hodnotami Únie týkajúcimi sa rešpektovania ľudskej dôstojnosti, slobody, rovnosti, demokracie a právneho štátu a základných práv ukotvených v charte vrátane práva na nediskrimináciu, ochranu údajov a súkromia a práv dieťaťa.
(29)
Las técnicas de manipulación que posibilita la IA pueden utilizarse para persuadir a las personas de que adopten comportamientos no deseados o para engañarlas empujándolas a tomar decisiones de una manera que socava y perjudica su autonomía, su toma de decisiones y su capacidad de elegir libremente. Son especialmente peligrosos y, por tanto, deben prohibirse la introducción en el mercado, la puesta en servicio o la utilización de determinados sistemas de IA con el objetivo o al efecto de alterar de manera sustancial el comportamiento humano, con la consiguiente probabilidad de que se produzcan perjuicios considerables, en particular perjuicios con efectos adversos suficientemente importantes en la salud física o mental o en los intereses financieros. Esos sistemas de IA utilizan componentes subliminales, como estímulos de audio, imagen o vídeo que las personas no pueden percibir —ya que dichos estímulos trascienden la percepción humana—, u otras técnicas manipulativas o engañosas que socavan o perjudican la autonomía, la toma de decisiones o la capacidad de elegir libremente de las personas de maneras de las que estas no son realmente conscientes de dichas técnicas o, cuando lo son, pueden seguir siendo engañadas o no pueden controlarlas u oponerles resistencia. Esto podría facilitarse, por ejemplo, mediante interfaces cerebro-máquina o realidad virtual, dado que permiten un mayor grado de control acerca de qué estímulos se presentan a las personas, en la medida en que pueden alterar sustancialmente su comportamiento de un modo que suponga un perjuicio considerable. Además, los sistemas de IA también pueden explotar de otras maneras las vulnerabilidades de una persona o un colectivo específico de personas derivadas de su edad, su discapacidad en el sentido de lo dispuesto en la Directiva (UE) 2019/882 del Parlamento Europeo y del Consejo (16) o de una situación social o económica concreta que probablemente aumente su vulnerabilidad a la explotación, como vivir en condiciones de pobreza extrema o pertenecer a minorías étnicas o religiosas. Estos sistemas de IA pueden introducirse en el mercado, ponerse en servicio o utilizarse con el objetivo de alterar de manera sustancial el comportamiento de una persona, o tener ese efecto, y de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona o a otra persona o colectivo de personas, incluidos perjuicios que pueden acumularse a lo largo del tiempo y que, por tanto, deben prohibirse. No puede presuponerse que existe la intención de alterar el comportamiento si la alteración es el resultado de factores externos al sistema de IA que escapan al control del proveedor o del responsable del despliegue, a saber, factores que no es lógico prever y que, por tanto, el proveedor o el responsable del despliegue del sistema de IA no pueden mitigar. En cualquier caso, no es necesario que el proveedor o el responsable del despliegue tengan la intención de causar un perjuicio considerable, siempre que dicho perjuicio se derive de las prácticas de manipulación o explotación que posibilita la IA. La prohibición de tales prácticas de IA complementa lo dispuesto en la Directiva 2005/29/CE del Parlamento Europeo y del Consejo (17), en particular la prohibición, en cualquier circunstancia, de las prácticas comerciales desleales que causan perjuicios económicos o financieros a los consumidores, hayan sido establecidas mediante de sistemas de IA o de otra manera. La prohibición de las prácticas de manipulación y explotación establecida en el presente Reglamento no debe afectar a prácticas lícitas en el contexto de un tratamiento médico, como el tratamiento psicológico de una enfermedad mental o la rehabilitación física, cuando dichas prácticas se lleven a cabo de conformidad con el Derecho y las normas médicas aplicables, por ejemplo, con el consentimiento expreso de las personas o de sus representantes legales. Asimismo, no debe considerarse que las prácticas comerciales comunes y legítimas (por ejemplo, en el campo de la publicidad) que cumplan el Derecho aplicable son, en sí mismas, prácticas de manipulación perjudiciales que posibilita la IA.
(29)
Manipulatívne techniky, ktoré umožňuje AI, sa môžu použiť na presviedčanie osôb, aby sa správali neželaným spôsobom, alebo na ich zavádzanie nabádaním na rozhodnutia spôsobom, ktorý narúša a oslabuje ich samostatnosť, rozhodovacie schopnosti a slobodnú voľbu. Uvádzanie na trh, uvádzanie do prevádzky alebo používanie určitých systémov AI, ktorých cieľom alebo účinkom je podstatné narušenie ľudského správania, pri ktorom je pravdepodobné, že dôjde k značnej ujme, najmä dostatočne závažným nepriaznivým vplyvom na fyzické zdravie, psychické zdravie alebo finančné záujmy, je obzvlášť nebezpečné a malo by sa preto zakázať. Takéto systémy AI využívajú podprahové komponenty, ako sú zvukové a obrazové podnety alebo videopodnety, ktoré osoby nemôžu vnímať, keďže tieto podnety sú mimo ľudského vnímania, alebo iné manipulatívne alebo klamlivé techniky, ktoré narúšajú alebo oslabujú samostatnosť, rozhodovacie schopnosti alebo slobodnú voľbu osôb takým spôsobom, že si ľudia tieto techniky neuvedomujú, alebo ak si ich uvedomujú, napriek tomu môžu byť zavádzaní alebo nie sú schopní ich ovládať alebo im odolávať. To by sa mohlo uľahčiť napríklad rozhraniami medzi strojom a mozgom alebo virtuálnou realitou, pretože umožňujú vyšší stupeň kontroly toho, akým stimulom sú osoby vystavené, pokiaľ môžu výrazne škodlivým a podstatným spôsobom narušiť ich správanie. Systémy AI môžu okrem toho aj iným spôsobom zneužívať zraniteľnosti osôb alebo osobitných skupín osôb z dôvodu ich veku, zdravotného postihnutia v zmysle smernice Európskeho parlamentu a Rady (EÚ) 2019/882 (16) alebo osobitnej sociálnej alebo ekonomickej situácie, v dôsledku čoho môžu byť tieto osoby zraniteľnejšie voči zneužívaniu, ako napríklad osoby žijúce v extrémnej chudobe, etnické alebo náboženské menšiny. Takéto systémy AI sa môžu uvádzať na trh, uvádzať do prevádzky alebo používať s cieľom alebo účinkom podstatného narušenia správania osoby spôsobom, ktorý spôsobuje alebo pri ktorom je odôvodnené predpokladať, že spôsobí značnú ujmu tejto alebo inej osobe alebo skupinám osôb vrátane škôd, ktoré sa môžu časom kumulovať, a preto by sa mali zakázať. Môže sa stať, že úmysel narušiť správanie nie je možné predpokladať, ak narušenie vyplýva z faktorov mimo systému AI, ktoré nie sú pod kontrolou poskytovateľa alebo nasadzujúceho subjektu, konkrétne faktorov, ktoré poskytovateľ systému AI alebo subjekt nasadzujúci systém AI nemôže odôvodnene predvídať, a teda zmierňovať. V každom prípade nie je potrebné, aby poskytovateľ alebo subjekt nasadzujúci systém AI mal úmysel spôsobiť značnú ujmu, pokiaľ takáto ujma vyplýva z manipulatívnych alebo zneužívajúcich praktík využívajúcich AI. Zákazmi takýchto praktík využívajúcich AI sa dopĺňajú ustanovenia smernice Európskeho parlamentu a Rady 2005/29/ES (17), najmä to, že nekalé obchodné praktiky vedúce k hospodárskej alebo finančnej ujme pre spotrebiteľov sú zakázané za každých okolností bez ohľadu na to, či sú zavedené prostredníctvom systémov AI alebo inak. Zákazmi manipulatívnych a zneužívajúcich praktík v tomto nariadení by nemali byť dotknuté zákonné postupy v súvislosti s liečbou, ako je psychologická liečba duševnej choroby alebo fyzická rehabilitácia, ak sa tieto praktiky vykonávajú v súlade s platnými lekárskymi normami a právnymi predpismi, napríklad výslovný súhlas fyzických osôb alebo ich právnych zástupcov. Okrem toho by sa bežné a legitímne obchodné praktiky, napríklad v oblasti reklamy, ktoré sú v súlade s uplatniteľným právom, nemali samy osebe považovať za škodlivé manipulatívne praktiky využívajúce AI.
(30)
Deben prohibirse los sistemas de categorización biométrica basados en datos biométricos de las personas físicas, como la cara o las impresiones dactilares de una persona física, para deducir o inferir las opiniones políticas, la afiliación sindical, las convicciones religiosas o filosóficas, la raza, la vida sexual o la orientación sexual de una persona física. Dicha prohibición no debe aplicarse al etiquetado, al filtrado ni a la categorización lícitos de conjuntos de datos biométricos adquiridos de conformidad con el Derecho nacional o de la Unión en función de datos biométricos, como la clasificación de imágenes en función del color del pelo o del color de ojos, que pueden utilizarse, por ejemplo, en el ámbito de la garantía del cumplimiento del Derecho.
(30)
Mali by sa zakázať systémy biometrickej kategorizácie založené na biometrických údajoch fyzických osôb, ako je tvár alebo odtlačky prstov, s cieľom alebo odvodiť politické názory osôb, členstvo v odboroch, náboženské alebo filozofické presvedčenie, rasu, sexuálny život alebo sexuálnu orientáciu. Tento zákaz by sa nemal vzťahovať na zákonné označovanie, filtrovanie alebo kategorizáciu súborov biometrických údajov získaných v súlade s právom Únie alebo vnútroštátnym právom v oblasti biometrických údajov, ako je triedenie obrázkov podľa farby vlasov alebo farby očí, ktoré možno použiť napríklad v oblasti presadzovania práva.
(31)
Los sistemas de IA que permiten a agentes públicos o privados llevar a cabo una puntuación ciudadana de las personas físicas pueden tener resultados discriminatorios y abocar a la exclusión a determinados colectivos. Pueden menoscabar el derecho a la dignidad y a la no discriminación y los valores de igualdad y justicia. Dichos sistemas de IA evalúan o clasifican a las personas físicas o a grupos de estas sobre la base de varios puntos de datos relacionados con su comportamiento social en múltiples contextos o de características personales o de su personalidad conocidas, inferidas o predichas durante determinados períodos de tiempo. La puntuación ciudadana resultante de dichos sistemas de IA puede dar lugar a un trato perjudicial o desfavorable de determinadas personas físicas o colectivos enteros en contextos sociales que no guardan relación con el contexto donde se generaron o recabaron los datos originalmente, o a un trato perjudicial desproporcionado o injustificado en relación con la gravedad de su comportamiento social. Por lo tanto, deben prohibirse los sistemas de IA que impliquen esas prácticas inaceptables de puntuación y den lugar a esos resultados perjudiciales o desfavorables. Esa prohibición no debe afectar a prácticas lícitas de evaluación de las personas físicas que se efectúen para un fin específico de conformidad con el Derecho de la Unión y nacional.
(31)
Systémy AI na sociálne bodovanie fyzických osôb používané orgánmi verejnej moci alebo súkromnými aktérmi môžu viesť k diskriminačným výsledkom a vylúčeniu určitých skupín. Môžu porušovať právo na dôstojnosť a nediskrimináciu a hodnoty rovnosti a spravodlivosti. Takéto systémy AI hodnotia alebo klasifikujú fyzické osoby alebo skupiny fyzických osôb na základe viacerých dátových bodov týkajúcich sa ich spoločenského správania vo viacerých kontextoch alebo známych, odvodených či predpokladaných osobných alebo osobnostných charakteristík za určité časové obdobia. Sociálne skóre získané na základe takýchto systémov AI môže viesť k škodlivému alebo nepriaznivému zaobchádzaniu s fyzickými osobami alebo celými skupinami takýchto osôb v sociálnych kontextoch nesúvisiacich s kontextom, v ktorom boli údaje pôvodne vygenerované alebo zhromaždené, prípadne k poškodzujúcemu zaobchádzaniu, ktoré je neprimerané alebo neodôvodnené vzhľadom na závažnosť ich spoločenského správania. Systémy AI, ktoré zahŕňajú takéto neprijateľné bodovacie praktiky a vedú k takýmto škodlivým alebo nepriaznivým výsledkom, by sa preto mali zakázať. Tento zákaz by nemal mať vplyv na zákonné postupy hodnotenia fyzických osôb vykonávané na špecifické účely v súlade s právom Únie a vnútroštátnym právom.
(32)
El uso de sistemas de IA para la identificación biométrica remota «en tiempo real» de personas físicas en espacios de acceso público con fines de garantía del cumplimiento del Derecho invade de forma especialmente grave los derechos y las libertades de las personas afectadas, en la medida en que puede afectar a la vida privada de una gran parte de la población, provocar la sensación de estar bajo una vigilancia constante y disuadir indirectamente a los ciudadanos de ejercer su libertad de reunión y otros derechos fundamentales. Las imprecisiones técnicas de los sistemas de IA destinados a la identificación biométrica remota de las personas físicas pueden dar lugar a resultados sesgados y tener efectos discriminatorios. Tales posibles resultados sesgados y efectos discriminatorios son especialmente pertinentes por lo que respecta a la edad, la etnia, la raza, el sexo o la discapacidad. Además, la inmediatez de las consecuencias y las escasas oportunidades para realizar comprobaciones o correcciones adicionales en relación con el uso de sistemas que operan «en tiempo real» acrecientan el riesgo que estos conllevan para los derechos y las libertades de las personas afectadas en el contexto de actividades de garantía del cumplimiento del Derecho, o afectadas por estas.
(32)
Používanie systémov AI na diaľkovú biometrickú identifikáciu fyzických osôb „v reálnom čase“ vo verejne prístupných priestoroch na účely presadzovania práva sa považuje za obzvlášť rušivý zásah do práv a slobôd dotknutých osôb, keďže môže ovplyvniť súkromie veľkej časti obyvateľstva, vyvoláva pocit neustáleho sledovania a nepriamo odrádza od využívania slobody zhromažďovania a iných základných práv. Technické nepresnosti systémov AI určených na diaľkovú biometrickú identifikáciu fyzických osôb môžu viesť ku skresleným výsledkom a mať diskriminačné účinky. Takéto možné skreslené výsledky a diskriminačné účinky sú obzvlášť relevantné z hľadiska veku, etnickej príslušnosti, rasy, pohlavia alebo zdravotného postihnutia. Okrem toho, bezprostrednosť vplyvu a obmedzené možnosti ďalších kontrol alebo opráv v súvislosti s používaním takýchto systémov fungujúcich „v reálnom čase“ so sebou prinášajú zvýšené riziká z hľadiska práv a slobôd dotknutých osôb v súvislosti s činnosťami presadzovania práva alebo v ich dôsledku.
(33)
En consecuencia, debe prohibirse el uso de dichos sistemas con fines de garantía del cumplimiento del Derecho, salvo en situaciones enumeradas de manera limitativa y definidas con precisión en las que su utilización sea estrictamente necesaria para lograr un interés público esencial cuya importancia compense los riesgos. Esas situaciones son la búsqueda de determinadas víctimas de un delito, incluidas personas desaparecidas; determinadas amenazas para la vida o para la seguridad física de las personas físicas o amenazas de atentado terrorista; y la localización o identificación de los autores o sospechosos de los delitos enumerados en un anexo del presente Reglamento, cuando dichas infracciones se castiguen en el Estado miembro de que se trate con una pena o una medida de seguridad privativas de libertad cuya duración máxima sea de al menos cuatro años, y como se definan en el Derecho de dicho Estado miembro. Fijar ese umbral para la pena o la medida de seguridad privativas de libertad con arreglo al Derecho nacional contribuye a garantizar que la infracción sea lo suficientemente grave como para llegar a justificar el uso de sistemas de identificación biométrica remota «en tiempo real». Por otro lado, la lista de delitos proporcionada en un anexo del presente Reglamento se basa en los treinta y dos delitos enumerados en la Decisión Marco 2002/584/JAI del Consejo (18), si bien es preciso tener en cuenta que, en la práctica, es probable que algunas sean más relevantes que otras en el sentido de que es previsible que recurrir a la identificación biométrica remota «en tiempo real» podría ser necesario y proporcionado en grados muy distintos para llevar a cabo la localización o la identificación de los autores o sospechosos de las distintas infracciones enumeradas, y que es probable que haya diferencias en la gravedad, la probabilidad y la magnitud de los perjuicios o las posibles consecuencias negativas. Una amenaza inminente para la vida o la seguridad física de las personas físicas también podría derivarse de una perturbación grave de infraestructuras críticas, tal como se definen en el artículo 2, punto 4, de la Directiva (UE) 2022/2557 del Parlamento Europeo y del Consejo (19), cuando la perturbación o destrucción de dichas infraestructuras críticas suponga una amenaza inminente para la vida o la seguridad física de una persona, también al perjudicar gravemente el suministro de productos básicos a la población o el ejercicio de la función esencial del Estado. Además, el presente Reglamento debe preservar la capacidad de las autoridades garantes del cumplimiento del Derecho, de control fronterizo, de la inmigración o del asilo para llevar a cabo controles de identidad en presencia de la persona afectada, de conformidad con las condiciones establecidas en el Derecho de la Unión y en el Derecho nacional para estos controles. En particular, las autoridades garantes del cumplimiento del Derecho, del control fronterizo, de la inmigración o del asilo deben poder utilizar sistemas de información, de conformidad con el Derecho de la Unión o el Derecho nacional, para identificar a las personas que, durante un control de identidad, se nieguen a ser identificadas o no puedan declarar o demostrar su identidad, sin que el presente Reglamento exija que se obtenga una autorización previa. Puede tratarse, por ejemplo, de una persona implicada en un delito que no quiera revelar su identidad a las autoridades garantes del cumplimiento del Derecho, o que no pueda hacerlo debido a un accidente o a una afección médica.
(33)
Používanie týchto systémov na účely presadzovania práva by sa preto malo zakázať s výnimkou taxatívne vymenovaných a úzko vymedzených situácií, keď je toto použitie nevyhnutne potrebné na dosiahnutie významného verejného záujmu, ktorého význam prevažuje nad rizikami. Tieto situácie zahŕňajú pátranie po určitých obetiach trestných činov vrátane nezvestných osôb; určité ohrozenie života alebo fyzickej bezpečnosti fyzických osôb alebo hrozby teroristického útoku; a lokalizáciu alebo identifikáciu páchateľov trestných činov uvedených v prílohe k tomuto nariadeniu alebo osôb podozrivých zo spáchania týchto trestných činov, ak za tieto trestné činy možno v dotknutom členskom štáte uložiť trest odňatia slobody alebo ochranné opatrenie spojené s obmedzením osobnej slobody s hornou hranicou trestnej sadzby najmenej štyri roky a podľa ich vymedzenia v práve tohto členského štátu. Takáto hranica trestu odňatia slobody alebo ochranného opatrenia spojeného s obmedzením osobnej slobody v súlade s vnútroštátnym právom prispieva k zabezpečeniu toho, že daný trestný čin bude dostatočne závažný na to, aby sa ním dalo potenciálne odôvodniť použitie systémov diaľkovej biometrickej identifikácie „v reálnom čase“. Okrem toho zoznam trestných činov uvedený v prílohe k tomuto nariadeniu vychádza z 32 trestných činov uvedených v rámcovom rozhodnutí Rady 2002/584/SVV (18), pričom sa zohľadňuje skutočnosť, že niektoré z uvedených trestných činov sú v praxi pravdepodobne relevantnejšie ako iné v tom zmysle, že nevyhnutnosť a primeranosť použitia diaľkovej biometrickej identifikácie „v reálnom čase“ by mohli byť pravdepodobne veľmi rôznorodé jednak z hľadiska praktického vykonávania lokalizácie alebo identifikácie páchateľa jednotlivých uvedených trestných činov alebo osôb podozrivých z ich spáchania a jednak vzhľadom na pravdepodobné rozdiely v závažnosti, pravdepodobnosti a rozsahu spôsobenej ujmy alebo možných negatívnych dôsledkov. Bezprostredné ohrozenie života alebo fyzickej bezpečnosti fyzických osôb by mohlo vyplývať aj zo závažného narušenia kritickej infraštruktúry v zmysle vymedzenia uvedeného v článku 2 bode 4 smernice Európskeho parlamentu a Rady (EÚ) 2022/2557 (19), ak by narušenie alebo zničenie takejto kritickej infraštruktúry viedlo k bezprostrednému ohrozeniu života alebo fyzickej bezpečnosti osoby, a to aj v dôsledku vážnej ujmy na poskytovaní základných dodávok pre obyvateľstvo alebo výkone základných funkcií štátu. Okrem toho by sa týmto nariadením mala zachovať možnosť orgánov presadzovania práva, kontroly hraníc, imigračných alebo azylových orgánov vykonávať kontroly totožnosti v prítomnosti dotknutej osoby v súlade s podmienkami stanovenými v práve Únie a vo vnútroštátnom práve pre takéto kontroly. Orgány presadzovania práva, kontroly hraníc, imigračné alebo azylové orgány by konkrétne mali mať možnosť využívať informačné systémy v súlade s právom Únie alebo vnútroštátnym právom na identifikáciu osôb, ktoré sa počas kontroly totožnosti buď odmietnu identifikovať, alebo nie sú schopné uviesť alebo preukázať svoju totožnosť, a to bez toho, aby sa podľa tohto nariadenia vyžadovalo získanie povolenia vopred. Môže ísť napríklad o osobu zapojenú do trestného činu, ktorá nie je ochotná alebo z dôvodu úrazu alebo zdravotného stavu nie je schopná uviesť svoju totožnosť orgánom presadzovania práva.
(34)
Para velar por que dichos sistemas se utilicen de manera responsable y proporcionada, también es importante establecer que, en esas situaciones enumeradas de manera limitativa y definidas con precisión, se tengan en cuenta determinados elementos, en particular en lo que se refiere a la naturaleza de la situación que dé lugar a la solicitud, a las consecuencias que su uso puede tener sobre los derechos y las libertades de todas las personas implicadas, y a las garantías y condiciones que acompañen a su uso. Además, el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho debe llevarse a cabo únicamente para confirmar la identidad de la persona que constituya el objetivo específico y limitarse a lo estrictamente necesario en lo que se refiere al período de tiempo, así como al ámbito geográfico y personal, teniendo en cuenta, en particular, las pruebas o indicios relativos a las amenazas, las víctimas o los autores. El uso del sistema de identificación biométrica remota en tiempo real en espacios de acceso público solo debe autorizarse si la correspondiente autoridad garante del cumplimiento del Derecho ha llevado a cabo una evaluación de impacto relativa a los derechos fundamentales y, salvo que se disponga otra cosa en el presente Reglamento, si ha registrado el sistema en la base de datos establecida en el presente Reglamento. La base de datos de personas de referencia debe ser adecuada para cada supuesto de uso en cada una de las situaciones antes mencionadas.
(34)
S cieľom zabezpečiť, aby sa tieto systémy používali zodpovedným a primeraným spôsobom, je tiež dôležité stanoviť, že v každej z týchto taxatívne vymenovaných a úzko vymedzených situácií by sa mali zohľadniť určité prvky, najmä pokiaľ ide o povahu situácie, ktorá viedla k predloženiu žiadosti, o dôsledky využívania týchto systémov na práva a slobody všetkých dotknutých osôb a o záruky a podmienky zabezpečené pri tomto používaní. Okrem toho by sa používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva malo nasadzovať len na potvrdenie totožnosti špecificky zacieleného jednotlivca a malo by sa obmedziť na to, čo je nevyhnutne potrebné, pokiaľ ide o časové obdobie, ako aj geografický a osobný rozsah, najmä so zreteľom na dôkazy alebo indície týkajúce sa hrozieb, obetí alebo páchateľa. Používanie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch by sa malo povoliť len vtedy, ak príslušný orgán presadzovania práva ukončil posúdenie vplyvu na základné práva a, pokiaľ sa v tomto nariadení nestanovuje inak, zaregistroval systém v databáze, ako sa stanovuje v tomto nariadení. Referenčná databáza osôb by mala byť vhodná pre každý prípad použitia v každej z uvedených situácií.
(35)
Todo uso de un sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho debe haber sido autorizado de manera expresa y específica por una autoridad judicial o por una autoridad administrativa independiente de un Estado miembro y cuya decisión sea vinculante. En principio, dicha autorización debe obtenerse antes de utilizar el sistema de IA con el fin de identificar a una o varias personas. Deben permitirse excepciones a esa norma en situaciones debidamente justificadas por motivos de urgencia, a saber, en aquellas en las que la necesidad de utilizar los sistemas de que se trate sea tan imperiosa que resulte efectiva y objetivamente imposible obtener una autorización antes de iniciar el uso del sistema de IA. En tales situaciones de urgencia, el uso debe limitarse al mínimo imprescindible y satisfacer las garantías y condiciones oportunas, conforme a lo dispuesto en el Derecho nacional y según corresponda en cada supuesto concreto de uso urgente por parte de la propia autoridad garante del cumplimiento del Derecho. Además, en esas situaciones las autoridades garantes del cumplimiento del Derecho deben solicitar dicha autorización e indicar los motivos por los que no han podido hacerlo antes, sin demora indebida y, como máximo, en un plazo de veinticuatro horas. Si se rechaza dicha autorización, el uso de sistemas de identificación biométrica en tiempo real vinculados a la autorización debe interrumpirse con efecto inmediato y todos los datos relacionados con dicho uso deben desecharse y suprimirse. Entre esos datos se incluyen los datos de entrada directamente adquiridos por un sistema de IA durante el uso de dicho sistema, así como los resultados y la información de salida del uso vinculados a dicha autorización. No debe incluir la información de entrada adquirida legalmente de conformidad con otro acto del Derecho nacional o de la Unión. En cualquier caso, no debe adoptarse ninguna decisión que produzca efectos jurídicos adversos para una persona exclusivamente sobre la base de los resultados de salida del sistema de identificación biométrica remota.
(35)
Každé použitie systému diaľkovej biometrickej identifikácie „v reálnom čase“ vo verejne prístupných priestoroch na účely presadzovania práva by malo podliehať výslovnému a osobitnému povoleniu justičného orgánu alebo nezávislého správneho orgánu členského štátu, ktorého rozhodnutie je záväzné. Takéto povolenie by sa v zásade malo získať pred použitím systému AI s cieľom identifikovať osobu alebo osoby. Výnimky z tohto pravidla by mali byť povolené v riadne odôvodnených naliehavých situáciách, teda v situáciách, v ktorých je natoľko potrebné použiť predmetné systémy, že je naozaj objektívne nemožné získať povolenie pred začatím použitia systému AI. V takýchto naliehavých situáciách by sa používanie systému AI malo obmedziť na absolútne nevyhnutné minimum a malo by podliehať primeraným zárukám a podmienkam stanoveným vo vnútroštátnom práve a špecifikovaným v kontexte každého jednotlivého naliehavého prípadu použitia samotným orgánom presadzovania práva. Okrem toho by orgán presadzovania práva mal v takýchto situáciách požiadať o takéto povolenie a zároveň uviesť dôvody, prečo oň nemohol požiadať skôr, a to bez zbytočného odkladu a najneskôr do 24 hodín. Ak sa takéto povolenie zamietne, používanie systémov biometrickej identifikácie v reálnom čase spojených s daným povolením by sa malo s okamžitou účinnosťou ukončiť a všetky údaje súvisiace s takýmto použitím by sa mali zlikvidovať a vymazať. Takéto údaje zahŕňajú vstupné údaje priamo získané systémom AI v priebehu používania takéhoto systému, ako aj výsledky a výstupy používania spojeného s daným povolením. Nemalo by zahŕňať vstupy, ktoré sú zákonne získané v súlade s iným právom Únie alebo vnútroštátnym právom. V každom prípade, žiadne rozhodnutie, ktoré má nepriaznivé právne účinky na osobu, by sa nemalo prijať výlučne na základe výstupu systému diaľkovej biometrickej identifikácie.
(36)
A fin de desempeñar sus funciones de conformidad con los requisitos establecidos en el presente Reglamento, así como en las normas nacionales, debe notificarse a la autoridad de vigilancia del mercado pertinente y a la autoridad nacional de protección de datos cada uso del sistema de identificación biométrica en tiempo real. Las autoridades de vigilancia del mercado y las autoridades nacionales de protección de datos que hayan recibido una notificación deben presentar a la Comisión un informe anual sobre el uso de sistemas de identificación biométrica en tiempo real.
(36)
S cieľom vykonávať svoje úlohy v súlade s požiadavkami stanovenými v tomto nariadení, ako aj vo vnútroštátnych predpisoch by mal byť o každom použití systému biometrickej identifikácie v reálnom čase informovaný príslušný orgán dohľadu nad trhom a vnútroštátny orgán pre ochranu údajov. Orgány dohľadu nad trhom a vnútroštátne orgány pre ochranu údajov, ktoré boli informované, by mali Komisii predkladať výročnú správu o používaní systémov biometrickej identifikácie v reálnom čase.
(37)
Por otro lado, conviene disponer, en el marco exhaustivo que establece este Reglamento, que dicho uso en el territorio de un Estado miembro conforme a lo dispuesto en el presente Reglamento solo debe ser posible cuando el Estado miembro de que se trate haya decidido contemplar expresamente la posibilidad de autorizarlo en las normas detalladas de su Derecho nacional, y en la medida en que lo haya contemplado. En consecuencia, con arreglo al presente Reglamento los Estados miembros siguen teniendo la libertad de no ofrecer esta posibilidad en absoluto o de ofrecerla únicamente en relación con algunos de los objetivos que pueden justificar un uso autorizado conforme al presente Reglamento. Dichas normas nacionales deben notificarse a la Comisión en un plazo de treinta días a partir de su adopción.
(37)
Navyše je vhodné v rámci podrobne opísanom týmto nariadením stanoviť, že takéto použitie na území členského štátu v súlade s týmto nariadením by malo byť možné len vtedy a do takej miery, do akej sa dotknutý členský štát rozhodol výslovne stanoviť možnosť povoliť toto použitie vo svojich podrobných pravidlách vnútroštátneho práva. V dôsledku toho sa členské štáty môžu podľa tohto nariadenia naďalej na základe vlastného uváženia rozhodnúť, že takúto možnosť vôbec nestanovia alebo ju stanovia len v súvislosti s niektorými z cieľov, ktorými možno odôvodniť povolené použitie určené v tomto nariadení. Takéto vnútroštátne pravidlá by sa mali oznámiť Komisii do 30 dní od ich prijatia.
(38)
La utilización de sistemas de IA para la identificación biométrica remota en tiempo real de personas físicas en espacios de acceso público con fines de garantía del cumplimiento del Derecho implica, necesariamente, el tratamiento de datos biométricos. Las normas del presente Reglamento que prohíben, con algunas excepciones, ese uso, basadas en el artículo 16 del TFUE, deben aplicarse como lex specialis con respecto a las normas sobre el tratamiento de datos biométricos que figuran en el artículo 10 de la Directiva (UE) 2016/680, con lo que se regula de manera exhaustiva dicho uso y el tratamiento de los correspondientes datos biométricos. Por lo tanto, ese uso y tratamiento deben ser posibles únicamente en la medida en que sean compatibles con el marco establecido por el presente Reglamento, sin que haya margen, fuera de dicho marco, para que las autoridades competentes, cuando actúen con fines de garantía del cumplimiento del Derecho, utilicen tales sistemas y traten dichos datos en los supuestos previstos en el artículo 10 de la Directiva (UE) 2016/680. En ese sentido, el presente Reglamento no tiene por objeto proporcionar la base jurídica para el tratamiento de datos personales en virtud del artículo 8 de la Directiva (UE) 2016/680. Sin embargo, el uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines distintos de la garantía del cumplimiento del Derecho, también por parte de las autoridades competentes, no debe estar sujeto al marco específico establecido por el presente Reglamento en lo que respecta al uso de dichos sistemas con fines de garantía del cumplimiento del Derecho. Por consiguiente, su uso con fines distintos de la garantía del cumplimiento del Derecho no debe estar sujeto al requisito de obtener una autorización previsto en el presente Reglamento ni a las normas de desarrollo aplicables del Derecho nacional que puedan hacer efectiva dicha autorización.
(38)
Používanie systémov AI na diaľkovú biometrickú identifikáciu fyzických osôb v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva nevyhnutne zahŕňa spracúvanie biometrických údajov. Pravidlá tohto nariadenia, ktorými sa s výhradou určitých výnimiek takéto používanie zakazuje a ktoré sú založené na článku 16 ZFEÚ, by sa mali uplatňovať ako lex specialis, pokiaľ ide o pravidlá spracúvania biometrických údajov uvedené v článku 10 smernice (EÚ) 2016/680, čím by sa takéto používanie a spracúvanie príslušných biometrických údajov upravovalo vyčerpávajúcim spôsobom. Takéto používanie a spracúvanie by preto malo byť možné, len pokiaľ je zlučiteľné s rámcom stanoveným v tomto nariadení, a mimo tohto rámca by nemal existovať priestor na to, aby príslušné orgány, ak konajú na účely presadzovania práva, používali takéto systémy a spracúvali takéto údaje v súvislosti s týmto použitím z dôvodov uvedených v článku 10 smernice (EÚ) 2016/680. V tejto súvislosti nie je cieľom tohto nariadenia poskytnúť právny základ pre spracúvanie osobných údajov podľa článku 8 smernice (EÚ) 2016/680. Na používanie systémov na diaľkovú biometrickú identifikáciu v reálnom čase vo verejne prístupných priestoroch na iné účely ako na presadzovanie práva, a to aj príslušnými orgánmi, by sa však nemal vzťahovať osobitný rámec týkajúci sa takéhoto použitia na účely presadzovania práva stanovený v tomto nariadení. Takéto použitie na iné účely ako na presadzovanie práva by preto nemalo podliehať požiadavke povolenia podľa tohto nariadenia a uplatniteľných podrobných pravidiel vnútroštátneho práva, na základe ktorých sa toto povolenie môže vykonávať.
(39)
Todo tratamiento de datos biométricos y de datos personales de otra índole asociado al uso de sistemas de IA para la identificación biométrica, salvo el asociado al uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines de garantía del cumplimiento del Derecho regulado por el presente Reglamento, debe seguir cumpliendo todos los requisitos derivados del artículo 10 de la Directiva (UE) 2016/680. El artículo 9, apartado 1, del Reglamento (UE) 2016/679 y el artículo 10, apartado 1, del Reglamento (UE) 2018/1725 prohíben el tratamiento de datos biométricos con fines distintos de la garantía del cumplimiento del Derecho, con las excepciones limitadas previstas en dichos artículos. En la aplicación del artículo 9, apartado 1, del Reglamento (UE) 2016/679, el uso de la identificación biométrica remota para fines distintos de la garantía del cumplimiento del Derecho ya ha sido objeto de decisiones de prohibición por parte de las autoridades nacionales de protección de datos.
(39)
Každé spracúvanie biometrických údajov a iných osobných údajov súvisiace s používaním systémov AI na biometrickú identifikáciu, okrem spracúvania v súvislosti s používaním systémov na diaľkovú biometrickú identifikáciu fyzických osôb „v reálnom čase“ vo verejne prístupných priestoroch na účely presadzovania práva, ako sa stanovuje v tomto nariadení, by malo naďalej spĺňať všetky požiadavky vyplývajúce z článku 10 smernice (EÚ) 2016/680. Pokiaľ ide o iné účely ako presadzovanie práva, v článku 9 ods. 1 nariadenia (EÚ) 2016/679 a v článku 10 ods. 1 nariadenia (EÚ) 2018/1725 zakazuje spracúvanie biometrických údajov s výhradou obmedzených výnimiek stanovených v uvedených článkoch. Používanie diaľkovej biometrickej identifikácie na iné účely ako na účely presadzovania práva už podliehalo rozhodnutiam vnútroštátnych orgánov pre ochranu údajov o zákaze v kontexte uplatňovania článku 9 ods. 1 nariadenia (EÚ) 2016/679.
(40)
De conformidad con el artículo 6 bis del Protocolo n.o 21 sobre la Posición del Reino Unido y de Irlanda respecto del Espacio de Libertad, Seguridad y Justicia, anejo al TUE y al TFUE, las normas establecidas en el artículo 5, apartado 1, párrafo primero, letra g), en la medida en que se aplica al uso de sistemas de categorización biométrica para actividades en el ámbito de la cooperación policial y la cooperación judicial en materia penal, el artículo 5, apartado 1, párrafo primero, letra d), en la medida en que se aplica al uso de sistemas de IA comprendidos en el ámbito de aplicación de dicho artículo, el artículo 5, apartado 1, párrafo primero, letra h), y apartados 2 a 6, y el artículo 26, apartado 10, del presente Reglamento, adoptadas basándose en el artículo 16 del TFUE que se refieran al tratamiento de datos de carácter personal por los Estados miembros en el ejercicio de las actividades comprendidas en el ámbito de aplicación de la tercera parte, título V, capítulos 4 o 5, de dicho Tratado solo serán vinculantes para Irlanda en la medida en que sean vinculantes para este Estado normas de la Unión que regulen formas de cooperación judicial en materia penal y de cooperación policial en cuyo marco deban respetarse las disposiciones establecidas basándose en el artículo 16 del TFUE.
(40)
V súlade s článkom 6a Protokolu č. 21 o postavení Spojeného kráľovstva a Írska s ohľadom na priestor slobody, bezpečnosti a spravodlivosti, ktorý je pripojený k Zmluve o EÚ a ZFEÚ, nie je Írsko viazané pravidlami stanovenými v článku 5 ods. 1 prvom pododseku písm. g) v rozsahu, v akom sa uplatňuje na použitie systémov biometrickej kategorizácie pri činnostiach v oblasti policajnej spolupráce a justičnej spolupráce v trestných veciach, v článku 5 ods. 1 prvom pododseku písm. d) v rozsahu, v akom sa uplatňuje na používanie systémov AI, na ktoré sa vzťahuje uvedené ustanovenie, v článku 5 ods. 1 prvom pododseku písm. h), článku 5 ods. 2 až 6 a v článku 26 ods. 10 tohto nariadenia, prijatými na základe článku 16 ZFEÚ, ktoré sa týkajú spracúvania osobných údajov členskými štátmi pri vykonávaní činností, ktoré patria do rozsahu pôsobnosti tretej časti hlavy V kapitoly 4 alebo kapitoly 5 ZFEÚ, ak Írsko nie je viazané pravidlami, ktorými sa spravujú formy justičnej spolupráce v trestných veciach alebo policajnej spolupráce, v rámci ktorých sa musia dodržiavať ustanovenia prijaté na základe článku 16 ZFEÚ.
(41)
De conformidad con lo dispuesto en los artículos 2 y 2 bis del Protocolo n.o 22 sobre la Posición de Dinamarca, anejo al TUE y al TFUE, las normas establecidas en el artículo 5, apartado 1, párrafo primero, letra g), en la medida en que se aplica al uso de sistemas de categorización biométrica para actividades en el ámbito de la cooperación policial y la cooperación judicial en materia penal, el artículo 5, apartado 1, párrafo primero, letra d), en la medida en que se aplican al uso de sistemas de IA comprendidos en el ámbito de aplicación de dicho artículo, el artículo 5, apartado 1, párrafo primero, letra h), y apartados 2 a 6, y el artículo 26, apartado 10, del presente Reglamento, adoptadas sobre la base del artículo 16 del TFUE que se refieran al tratamiento de datos de carácter personal por los Estados miembros en el ejercicio de las actividades comprendidas en el ámbito de aplicación de la tercera parte, título V, capítulos 4 o 5, de dicho Tratado, no vincularán a Dinamarca ni le serán aplicables.
(41)
V súlade s článkami 2 a 2a Protokolu č. 22 o postavení Dánska, ktorý je pripojený k Zmluve o EÚ a ZFEÚ, nie je Dánsko viazané pravidlami stanovenými v článku 5 ods. 1 prvom pododseku písm. g) v rozsahu, v akom sa uplatňuje na použitie systémov biometrickej kategorizácie pri činnostiach v oblasti policajnej spolupráce a justičnej spolupráce v trestných veciach, v článku 5 ods. 1 prvom pododseku písm. d) v rozsahu, v akom sa uplatňuje na používanie systémov AI, na ktoré sa vzťahuje uvedené ustanovenie, v článku 5 ods. 1 prvom pododseku písm. h), článku 5 ods. 2 až 6 a v článku 26 ods. 10 tohto nariadenia, prijatými na základe článku 16 ZFEÚ, ktoré sa týkajú spracúvania osobných údajov členskými štátmi pri vykonávaní činností, ktoré patria do rozsahu pôsobnosti tretej časti hlavy V kapitoly 4 alebo kapitoly 5 ZFEÚ, ani nepodlieha ich uplatňovaniu.
(42)
En consonancia con la presunción de inocencia, las personas físicas de la Unión siempre deben ser juzgadas basándose en su comportamiento real. Las personas físicas nunca deben ser juzgadas a partir de comportamientos predichos por una IA basados únicamente en la elaboración de sus perfiles, en los rasgos o características de su personalidad, como la nacionalidad, el lugar de nacimiento, el lugar de residencia, el número de hijos, el nivel de endeudamiento o el tipo de vehículo, sin una valoración humana y sin que exista una sospecha razonable, basada en hechos objetivos comprobables, de que dicha persona está implicada en una actividad delictiva. Por lo tanto, deben prohibirse las evaluaciones de riesgos realizadas con respecto a personas físicas para evaluar la probabilidad de que cometan un delito o para predecir la comisión de un delito real o potencial basándose únicamente en la elaboración de perfiles de esas personas físicas o la evaluación de los rasgos y características de su personalidad. En cualquier caso, dicha prohibición no se refiere o atañe a los análisis de riesgos que no estén basados en la elaboración de perfiles de personas o en los rasgos y características de la personalidad de las personas, como los sistemas de IA que utilizan los análisis de riesgos para evaluar la probabilidad de fraude financiero por parte de empresas sobre la base de transacciones sospechosas o las herramientas de análisis de riesgo para predecir la probabilidad de localización de estupefacientes y mercancías ilícitas por parte de las autoridades aduaneras, por ejemplo basándose en las rutas de tráfico conocidas.
(42)
V súlade s prezumpciou neviny by sa fyzické osoby v Únii mali vždy posudzovať podľa ich skutočného správania. Fyzické osoby by sa nikdy nemali posudzovať podľa správania predpokladaného AI výlučne na základe ich profilovania, osobnostných čŕt alebo charakteristík, ako je štátna príslušnosť, miesto narodenia, miesto bydliska, počet detí, výška dlhu alebo typ ich vozidla, bez odôvodneného podozrenia, že daná osoba je zapojená do trestnej činnosti na základe objektívnych overiteľných skutočností a bez ich ľudského posúdenia. Preto by sa malo zakázať vykonávanie posudzovania rizika fyzických osôb s cieľom posúdiť pravdepodobnosť spáchania trestného činu takýmito osobami alebo s cieľom predpovedať skutočný alebo potenciálny trestný čin výlučne na základe profilovania fyzických osôb alebo posúdenia ich osobnostných čŕt a charakteristík. Takýto zákaz v žiadnom prípade ale neodkazuje na analýzu rizika ani sa netýka analýzy rizika, ktorá nie je založená na profilovaní jednotlivcov ani na osobnostných črtách a charakteristikách jednotlivcov, ako sú systémy AI využívajúce analýzu rizika na posúdenie pravdepodobnosti finančného podvodu zo strany podnikov na základe podozrivých transakcií, alebo nástroje analýzy rizika na predpovedanie pravdepodobnosti lokalizácie omamných látok alebo nezákonného tovaru colnými orgánmi, napríklad na základe známych pašeráckych trás.
(43)
La introducción en el mercado, la puesta en servicio para ese fin concreto o la utilización de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales a partir de internet o de imágenes de circuito cerrado de televisión deben estar prohibidas, pues esas prácticas agravan el sentimiento de vigilancia masiva y pueden dar lugar a graves violaciones de los derechos fundamentales, incluido el derecho a la intimidad.
(43)
Uvádzanie na trh, uvádzanie do prevádzky na tento konkrétny účel alebo používanie systémov AI, ktoré vytvárajú alebo rozširujú databázy na rozpoznávanie tváre prostredníctvom necielenej extrakcie podôb tváre z internetu alebo zo záznamov CCTV, by sa mali zakázať, pretože takáto prax zvyšuje pocit hromadného sledovania a môže viesť k hrubému porušovaniu základných práv vrátane práva na súkromie.
(44)
Existe una gran preocupación respecto a la base científica de los sistemas de IA que procuran detectar o deducir las emociones, especialmente porque la expresión de las emociones varía de forma considerable entre culturas y situaciones, e incluso en una misma persona. Algunas de las deficiencias principales de estos sistemas son la fiabilidad limitada, la falta de especificidad y la limitada posibilidad de generalizar. Por consiguiente, los sistemas de IA que detectan o deducen las emociones o las intenciones de las personas físicas a partir de sus datos biométricos pueden tener resultados discriminatorios y pueden invadir los derechos y las libertades de las personas afectadas. Teniendo en cuenta el desequilibrio de poder en el contexto laboral o educativo, unido al carácter intrusivo de estos sistemas, dichos sistemas podrían dar lugar a un trato perjudicial o desfavorable de determinadas personas físicas o colectivos enteros. Por tanto, debe prohibirse la introducción en el mercado, la puesta en servicio y el uso de sistemas de IA destinados a ser utilizados para detectar el estado emocional de las personas en situaciones relacionadas con el lugar de trabajo y el ámbito educativo. Dicha prohibición no debe aplicarse a los sistemas de IA introducidos en el mercado estrictamente con fines médicos o de seguridad, como los sistemas destinados a un uso terapéutico.
(44)
Existujú vážne obavy v súvislosti s vedeckým základom systémov AI, ktorých cieľom je identifikovať alebo odvodzovať emócie, najmä preto, že prejav emócií sa v jednotlivých kultúrach a situáciách a dokonca aj v prípade jedného jednotlivca značne líši. Medzi hlavné nedostatky takýchto systémov patrí obmedzená spoľahlivosť, nedostatočná špecifickosť a obmedzená možnosť zovšeobecnenia. Systémy AI, ktoré identifikujú alebo odvodzujú emócie alebo zámery fyzických osôb na základe ich biometrických údajov, preto môžu viesť k diskriminačným výsledkom a môžu zasahovať do práv a slobôd dotknutých osôb. Vzhľadom na nerovnováhu moci v kontexte práce alebo vzdelávania v kombinácii s rušivým charakterom týchto systémov by takéto systémy mohli viesť k škodlivému alebo nepriaznivému zaobchádzaniu s niektorými fyzickými osobami alebo celými skupinami fyzických osôb. Preto by sa malo zakázať uvádzanie na trh, uvádzanie do prevádzky alebo používanie systémov AI na zisťovanie emocionálneho stavu jednotlivcov v situáciách súvisiacich s pracoviskom a vzdelávaním. Tento zákaz by sa nemal vzťahovať na systémy AI uvádzané na trh výlučne zo zdravotných alebo bezpečnostných dôvodov, ako sú systémy určené na terapeutické použitie.
(45)
El presente Reglamento no debe afectar a las prácticas prohibidas por el Derecho de la Unión, incluido el Derecho de la Unión en materia de protección de datos, de no discriminación, de protección de los consumidores y sobre competencia.
(45)
Postupy, ktoré sú zakázané právom Únie, okrem iného právom v oblasti ochrany údajov, nediskriminácie, ochrany spotrebiteľa a právom hospodárskej súťaže, by nemali byť týmto nariadením dotknuté.
(46)
La introducción en el mercado de la Unión, la puesta en servicio o la utilización de sistemas de IA de alto riesgo debe supeditarse al cumplimiento por su parte de determinados requisitos obligatorios, los cuales deben garantizar que los sistemas de IA de alto riesgo disponibles en la Unión o cuyos resultados de salida se utilicen en la Unión no planteen riesgos inaceptables para intereses públicos importantes de la Unión, reconocidos y protegidos por el Derecho de la Unión. Sobre la base del nuevo marco legislativo, tal como se aclara en la Comunicación de la Comisión titulada «“Guía azul” sobre la aplicación de la normativa europea relativa a los productos, de 2022» (20), la norma general es que más de un acto jurídico de la legislación de armonización de la Unión, como los Reglamentos (UE) 2017/745 (21) y (UE) 2017/746 (22) del Parlamento Europeo y del Consejo o la Directiva 2006/42/CE del Parlamento Europeo y del Consejo (23) puedan aplicarse a un producto, dado que la introducción en el mercado o la puesta en servicio solo pueden tener lugar cuando el producto cumple toda la legislación de armonización de la Unión aplicable. A fin de garantizar la coherencia y evitar cargas administrativas o costes innecesarios, los proveedores de un producto que contenga uno o varios sistemas de IA de alto riesgo, a los que se apliquen los requisitos del presente Reglamento y de la legislación de armonización de la Unión incluida en una lista de un anexo del presente Reglamento, deben ser flexibles en lo que respecta a las decisiones operativas relativas a la manera de garantizar la conformidad de un producto que contenga uno o varios sistemas de IA con todos los requisitos aplicables de la legislación de armonización de la Unión de manera óptima. La clasificación de un sistema de IA como «de alto riesgo» debe limitarse a aquellos sistemas de IA que tengan un efecto perjudicial considerable en la salud, la seguridad y los derechos fundamentales de las personas de la Unión, y dicha limitación debe reducir al mínimo cualquier posible restricción del comercio internacional.
(46)
Vysokorizikové systémy AI by sa mali uviesť na trh Únie alebo do prevádzky alebo by sa mali využívať len vtedy, ak spĺňajú určité povinné požiadavky. Týmito požiadavkami by sa malo zabezpečiť, aby vysokorizikové systémy AI, ktoré sú dostupné v Únii alebo ktorých výstupy sú v Únii inak využívané, nepredstavovali neprijateľné riziká pre dôležité verejné záujmy Únie uznané a chránené právom Únie. Na základe nového legislatívneho rámca, ako sa uvádza v oznámení Komisie s názvom „Modrá príručka na vykonávanie právnych predpisov EÚ týkajúcich sa výrobkov 2022“ (20), všeobecným pravidlom je, že viac ako jeden právny akt z harmonizačných právnych predpisov Únie, ako sú nariadenia Európskeho parlamentu a Rady (EÚ) 2017/745 (21) a (EÚ) 2017/746 (22) alebo smernica Európskeho parlamentu a Rady 2006/42/ES (23), sa môže uplatňovať na jeden výrobok, keďže sprístupnenie alebo uvedenie do prevádzky sa môže uskutočniť len vtedy, keď je výrobok v súlade so všetkými uplatniteľnými harmonizačnými právnymi predpismi Únie. S cieľom zabezpečiť konzistentnosť a zabrániť zbytočnému administratívnemu zaťaženiu alebo nákladom by poskytovatelia výrobku, ktorý obsahuje jeden alebo viacero vysokorizikových systémov AI, na ktoré sa vzťahujú požiadavky tohto nariadenia a požiadavky harmonizačných právnych predpisov Únie uvedených v prílohe k tomuto nariadeniu, mali mať flexibilitu, pokiaľ ide o operačné rozhodnutia týkajúce sa zabezpečenia súladu výrobku obsahujúceho jeden alebo viacero systémov AI so všetkými uplatniteľnými požiadavkami harmonizačných právnych predpisov Únie optimálnym spôsobom. Systémy AI označené ako vysokorizikové by sa mali obmedziť na tie, ktoré majú významný škodlivý vplyv na zdravie, bezpečnosť a základné práva osôb v Únii, a takéto obmedzenie by malo minimalizovať akékoľvek prípadné obmedzenie medzinárodného obchodu.
(47)
Los sistemas de IA pueden tener un efecto adverso para la salud y la seguridad de las personas, en particular cuando funcionan como componentes de seguridad de productos. En consonancia con los objetivos de la legislación de armonización de la Unión de facilitar la libre circulación de productos en el mercado interior y de velar por que solo lleguen al mercado aquellos productos que sean seguros y conformes, es importante prevenir y mitigar debidamente los riesgos de seguridad que pueda generar un producto en su conjunto debido a sus componentes digitales, entre los que pueden figurar los sistemas de IA. Por ejemplo, los robots cada vez más autónomos que se utilizan en las fábricas o con fines de asistencia y atención personal deben poder funcionar y desempeñar sus funciones de manera segura en entornos complejos. Del mismo modo, en el sector sanitario, donde puede haber repercusiones especialmente importantes en la vida y la salud, los sistemas de diagnóstico y de apoyo a las decisiones humanas, cuya sofisticación es cada vez mayor, deben ser fiables y precisos.
(47)
Systémy AI by mohli mať nepriaznivý vplyv na zdravie a bezpečnosť osôb, najmä ak takéto systémy fungujú ako bezpečnostné komponenty výrobkov. V súlade s cieľmi harmonizačných právnych predpisov Únie uľahčiť voľný pohyb výrobkov na vnútornom trhu a zabezpečiť, aby sa na trh dostali len bezpečné a inak vyhovujúce výrobky, je dôležité, aby sa riadne predchádzalo bezpečnostným rizikám, ktoré môže výrobok ako celok vytvárať svojimi digitálnymi komponentmi vrátane systémov AI, a aby sa tieto riziká náležite zmierňovali. Napríklad čoraz autonómnejšie roboty, či už v kontexte výroby alebo osobnej asistencie a starostlivosti, by mali byť schopné bezpečne fungovať a vykonávať svoje funkcie v zložitých prostrediach. Podobne v sektore zdravotníctva, kde existuje obzvlášť vysoké riziko v oblasti života a zdravia, by mali byť čoraz sofistikovanejšie diagnostické systémy a systémy podporujúce ľudské rozhodnutia spoľahlivé a presné.
(48)
La magnitud de las consecuencias adversas de un sistema de IA para los derechos fundamentales protegidos por la Carta es especialmente importante a la hora de clasificar un sistema de IA como de alto riesgo. Entre dichos derechos se incluyen el derecho a la dignidad humana, el respeto de la vida privada y familiar, la protección de datos de carácter personal, la libertad de expresión y de información, la libertad de reunión y de asociación, el derecho a la no discriminación, el derecho a la educación, la protección de los consumidores, los derechos de los trabajadores, los derechos de las personas discapacitadas, la igualdad entre hombres y mujeres, los derechos de propiedad intelectual, el derecho a la tutela judicial efectiva y a un juez imparcial, los derechos de la defensa y la presunción de inocencia, y el derecho a una buena administración. Además de esos derechos, conviene poner de relieve el hecho de que los menores poseen unos derechos específicos consagrados en el artículo 24 de la Carta y en la Convención sobre los Derechos del Niño de las Naciones Unidas, que se desarrollan con más detalle en la observación general n.o 25 de la Convención sobre los Derechos del Niño de Naciones Unidas relativa a los derechos de los niños en relación con el entorno digital. Ambos instrumentos exigen que se tengan en consideración las vulnerabilidades de los menores y que se les brinde la protección y la asistencia necesarias para su bienestar. Cuando se evalúe la gravedad del perjuicio que puede ocasionar un sistema de IA, también en lo que respecta a la salud y la seguridad de las personas, también se debe tener en cuenta el derecho fundamental a un nivel elevado de protección del medio ambiente consagrado en la Carta y aplicado en las políticas de la Unión.
(48)
Pri klasifikácii systému AI ako vysokorizikového je obzvlášť dôležitý rozsah nepriaznivého vplyvu systému AI na základné práva chránené chartou. Medzi tieto práva patrí právo na ľudskú dôstojnosť, rešpektovanie súkromného a rodinného života, ochrana osobných údajov, sloboda prejavu a právo na informácie, sloboda zhromažďovania a združovania, právo na nediskrimináciu, právo na vzdelávanie, ochrana spotrebiteľa, pracovné práva, práva osôb so zdravotným postihnutím, rodová rovnosť, práva duševného vlastníctva, právo na účinný prostriedok nápravy a na spravodlivý proces, právo na obhajobu a prezumpcia neviny a právo na dobrú správu vecí verejných. Okrem týchto práv je dôležité zdôrazniť, že deti majú osobitné práva zakotvené v článku 24 charty a v Dohovore Organizácie Spojených národov o právach dieťaťa, ďalej rozpracované vo všeobecnej poznámke č. 25 Dohovoru OSN o právach dieťaťa v súvislosti s digitálnym prostredím, ktoré si v oboch prípadoch vyžadujú zváženie zraniteľnosti detí a poskytnutie takejto ochrany a starostlivosti nevyhnutných pre ich blaho. Pri posudzovaní závažnosti ujmy, ktorú môže systém AI spôsobiť, a to aj v súvislosti so zdravím a bezpečnosťou osôb, by sa malo zohľadniť aj základné právo na vysokú úroveň ochrany životného prostredia zakotvené v charte a vykonávané v politikách Únie.
(49)
En relación con los sistemas de IA de alto riesgo que son componentes de seguridad de productos o sistemas, o que son en sí mismos productos o sistemas que entran en el ámbito de aplicación del Reglamento (CE) n.o 300/2008 del Parlamento Europeo y del Consejo (24), el Reglamento (UE) n.o 167/2013 del Parlamento Europeo y del Consejo (25), el Reglamento (UE) n.o 168/2013 del Parlamento Europeo y del Consejo (26), la Directiva 2014/90/UE del Parlamento Europeo y del Consejo (27), la Directiva (UE) 2016/797 del Parlamento Europeo y del Consejo (28), el Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo (29), el Reglamento (UE) 2018/1139 del Parlamento Europeo y del Consejo (30), y el Reglamento (UE) 2019/2144 del Parlamento Europeo y del Consejo (31), procede modificar dichos actos para garantizar que, cuando la Comisión adopte actos delegados o de ejecución pertinentes basados en ellos, tenga en cuenta los requisitos obligatorios para los sistemas de IA de alto riesgo previstos en el presente Reglamento, atendiendo a las particularidades técnicas y reglamentarias de los distintos sectores y sin interferir con los mecanismos y las autoridades de gobernanza, evaluación de la conformidad y control del cumplimiento vigentes establecidos en dichos actos.
(49)
Pokiaľ ide o vysokorizikové systémy AI, ktoré sú bezpečnostnými komponentmi výrobkov alebo systémov, alebo ktoré sú samy výrobkami alebo systémami patriacimi do rozsahu pôsobnosti nariadenia Európskeho parlamentu a Rady (ES) č. 300/2008 (24), nariadenia Európskeho parlamentu a Rady (EÚ) č. 167/2013 (25), nariadenia Európskeho parlamentu a Rady (EÚ) č. 168/2013 (26), smernice Európskeho parlamentu a Rady 2014/90/EÚ (27), smernice Európskeho parlamentu a Rady (EÚ) 2016/797 (28), nariadenia Európskeho parlamentu a Rady (EÚ) 2018/858 (29), nariadenia Európskeho parlamentu a Rady (EÚ) 2018/1139 (30) a nariadenia Európskeho parlamentu a Rady (EÚ) 2019/2144 (31), je vhodné uvedené akty zmeniť s cieľom zaistiť, aby Komisia pri prijímaní akýchkoľvek relevantných delegovaných alebo vykonávacích aktov na základe uvedených aktov zohľadňovala povinné požiadavky na vysokorizikové systémy AI stanovené v tomto nariadení na základe technických a regulačných osobitostí jednotlivých odvetví bez toho, aby zasahovala do existujúcich mechanizmov správy, posudzovania zhody a presadzovania a do orgánov zriadených v rámci uvedených aktov.
(50)
En cuanto a los sistemas de IA que son componentes de seguridad de productos, o que son productos en sí mismos, y entran dentro del ámbito de aplicación de determinados actos legislativos de armonización de la Unión enumerados en un anexo del presente Reglamento, procede clasificarlos como de alto riesgo en virtud del presente Reglamento si el producto de que se trate es sometido a un procedimiento de evaluación de la conformidad con un organismo de evaluación de la conformidad de terceros de acuerdo con dichos actos legislativos de armonización de la Unión. Esos productos son, en concreto, máquinas, juguetes, ascensores, equipo y sistemas de protección para uso en atmósferas potencialmente explosivas, equipos radioeléctricos, equipos a presión, equipos de embarcaciones de recreo, instalaciones de transporte por cable, aparatos que queman combustibles gaseosos, productos sanitarios, productos sanitarios para diagnóstico in vitro, automoción y aviación.
(50)
Pokiaľ ide o systémy AI, ktoré sú bezpečnostnými komponentmi výrobkov alebo ktoré sú samy výrobkami, ktoré patria do rozsahu pôsobnosti určitých harmonizačných právnych predpisov Únie uvedených v prílohe k tomuto nariadeniu, je vhodné klasifikovať ich podľa tohto nariadenia ako vysokorizikové, pokiaľ v prípade dotknutého výrobku vykonáva postup posudzovania zhody orgán posudzovania zhody tretej strany podľa príslušných harmonizačných právnych predpisov Únie. Medzi takéto výrobky patria najmä strojové zariadenia, hračky, výťahy, zariadenia a ochranné systémy určené na použitie v potenciálne výbušnej atmosfére, rádiové zariadenia, tlakové zariadenia, vybavenie rekreačných plavidiel, lanovkové zariadenia, spotrebiče spaľujúce plynné palivá, zdravotnícke pomôcky, diagnostické zdravotnícke pomôcky in vitro, automobilový a letecký priemysel.
(51)
Que un sistema de IA se clasifique como de alto riesgo en virtud del presente Reglamento no significa necesariamente que el producto del que sea componente de seguridad, o el propio sistema de IA como producto, se considere de «alto riesgo» conforme a los criterios establecidos en la correspondiente legislación de armonización de la Unión que se aplique al producto. Tal es el caso, en particular, de los Reglamentos (UE) 2017/745 y (UE) 2017/746, que prevén una evaluación de la conformidad de terceros de los productos de riesgo medio y alto.
(51)
Klasifikácia systému AI ako vysokorizikového podľa tohto nariadenia by nemala nevyhnutne znamenať, že sa výrobok, ktorého bezpečnostným komponentom je systém AI, alebo samotný systém AI ako výrobok považuje za vysokorizikový podľa kritérií stanovených v príslušných harmonizačných právnych predpisoch Únie, ktoré sa vzťahujú na daný výrobok. Platí to najmä pre nariadenia (EÚ) 2017/745 a (EÚ) 2017/746, kde sa pre výrobky so stredným a vysokým rizikom vyžaduje posudzovanie zhody treťou stranou.
(52)
En cuanto a los sistemas de IA independientes, a saber, aquellos sistemas de IA de alto riesgo que no son componentes de seguridad de productos, o que son productos en sí mismos, deben clasificarse como de alto riesgo si, a la luz de su finalidad prevista, presentan un alto riesgo de ser perjudiciales para la salud y la seguridad o los derechos fundamentales de las personas, teniendo en cuenta tanto la gravedad del posible perjuicio como la probabilidad de que se produzca, y se utilizan en varios ámbitos predefinidos especificados en el presente Reglamento. Para identificar dichos sistemas, se emplean la misma metodología y los mismos criterios previstos para la posible modificación futura de la lista de sistemas de IA de alto riesgo, que la Comisión debe estar facultada para adoptar, mediante actos delegados, a fin de tener en cuenta el rápido ritmo del desarrollo tecnológico, así como los posibles cambios en el uso de los sistemas de IA.
(52)
Pokiaľ ide o samostatné systémy AI, konkrétne iné vysokorizikové systémy AI ako tie, ktoré sú bezpečnostnými komponentmi výrobkov alebo ktoré sú samy výrobkami, je vhodné klasifikovať ich ako vysokorizikové, ak vzhľadom na svoj zamýšľaný účel predstavujú vysoké riziko poškodenia zdravia a bezpečnosti alebo základných práv osôb, pričom sa berie do úvahy závažnosť možnej ujmy a pravdepodobnosť jej výskytu, a ak sa využívajú vo viacerých oblastiach uvedených v tomto nariadení, ktoré sú jasne vopred vymedzené. Identifikácia týchto systémov je založená na rovnakej metodike a kritériách, aké sa predpokladajú aj v prípade akýchkoľvek budúcich zmien zoznamu vysokorizikových systémov AI, ktoré by Komisia mala byť splnomocnená prijímať prostredníctvom delegovaných aktov s cieľom zohľadniť rýchle tempo technologického vývoja, ako aj potenciálne zmeny v používaní systémov AI.
(53)
También es importante aclarar que pueden existir casos específicos en los que los sistemas de IA referidos en ámbitos predefinidos especificados en el presente Reglamento no entrañen un riesgo considerable de causar un perjuicio a los intereses jurídicos amparados por dichos ámbitos, dado que no influyen sustancialmente en la toma de decisiones o no perjudican dichos intereses sustancialmente. A efectos del presente Reglamento, por sistema de IA que no influye sustancialmente en el resultado de la toma de decisiones debe entenderse un sistema de IA que no afecta al fondo, ni por consiguiente al resultado, de la toma de decisiones, ya sea humana o automatizada. Un sistema de IA que no influye sustancialmente en el resultado de la toma de decisiones podría incluir situaciones en las que se cumplen una o varias de las siguientes condiciones. La primera de dichas condiciones debe ser que el sistema de IA esté destinado a realizar una tarea de procedimiento delimitada, como un sistema de IA que transforme datos no estructurados en datos estructurados, un sistema de IA que clasifique en categorías los documentos recibidos o un sistema de IA que se utilice para detectar duplicados entre un gran número de aplicaciones. La naturaleza de esas tareas es tan restringida y limitada que solo presentan riesgos limitados que no aumentan por la utilización de un sistema de IA en un contexto que un anexo al presente Reglamento recoja como uso de alto riesgo. La segunda condición debe ser que la tarea realizada por el sistema de IA esté destinada a mejorar el resultado de una actividad previa llevada a cabo por un ser humano, que pudiera ser pertinente a efectos de las utilizaciones de alto riesgo enumeradas en un anexo del presente Reglamento. Teniendo en cuenta esas características, el sistema de IA solo añade un nivel adicional a la actividad humana, entrañando por consiguiente un riesgo menor. Esa condición se aplicaría, por ejemplo, a los sistemas de IA destinados a mejorar el lenguaje utilizado en documentos ya redactados, por ejemplo, en lo referente al empleo de un tono profesional o de un registro lingüístico académico o a la adaptación del texto a una determinada comunicación de marca. La tercera condición debe ser que el sistema de IA esté destinado a detectar patrones de toma de decisiones o desviaciones respecto de patrones de toma de decisiones anteriores. El riesgo sería menor debido a que el sistema de IA se utiliza tras una valoración humana previamente realizada y no pretende sustituirla o influir en ella sin una revisión adecuada por parte de un ser humano. Por ejemplo, entre los sistemas de IA de este tipo, se incluyen aquellos que pueden utilizarse para comprobar a posteriori si un profesor puede haberse desviado de su patrón de calificación determinado, a fin de llamar la atención sobre posibles incoherencias o anomalías. La cuarta condición debe ser que el sistema de IA esté destinado a realizar una tarea que solo sea preparatoria de cara a una evaluación pertinente a efectos de los sistemas de IA enumerados en el anexo del presente Reglamento, con lo que la posible repercusión de los resultados de salida del sistema sería muy escasa en términos de representar un riesgo para la subsiguiente evaluación. Esa condición comprende, entre otras cosas, soluciones inteligentes para la gestión de archivos, lo que incluye funciones diversas tales como la indexación, la búsqueda, el tratamiento de texto y del habla o la vinculación de datos a otras fuentes de datos, o bien los sistemas de IA utilizados para la traducción de los documentos iniciales. En cualquier caso, debe considerarse que los sistemas de IA utilizados en casos de alto riesgo enumerados en un anexo del presente Reglamento presentan un riesgo significativo de menoscabar la salud y la seguridad o los derechos fundamentales si el sistema de IA conlleva la elaboración de perfiles en el sentido del artículo 4, punto 4, del Reglamento (UE) 2016/679, del artículo 3, punto 4, de la Directiva (UE) 2016/680 o del artículo 3, punto 5, del Reglamento (UE) 2018/1725. Para garantizar la trazabilidad y la transparencia, los proveedores que, basándose en las condiciones antes citadas, consideren que un sistema de IA no es de alto riesgo, deben elaborar la documentación de la evaluación previamente a la introducción en el mercado o la entrada en servicio de dicho sistema de IA y facilitarla a las autoridades nacionales competentes cuando estas lo soliciten. Dichos proveedores deben tener la obligación de registrar el sistema en la base de datos de la UE creada en virtud del presente Reglamento. Con el fin de proporcionar orientaciones adicionales sobre la aplicación práctica de las condiciones con arreglo a las cuales los sistemas de IA enumerados en un anexo del presente Reglamento no se consideran, con carácter excepcional, de alto riesgo, la Comisión debe, previa consulta al Consejo de IA, proporcionar directrices que especifiquen dicha aplicación práctica, completadas por una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que sean de alto riesgo y de casos de uso que no lo sean.
(53)
Takisto je dôležité upresniť, že môžu existovať osobitné prípady, v ktorých systémy AI uvedené vo vopred vymedzených oblastiach špecifikovaných v tomto nariadení nevedú k významnému riziku ujmy na právnych záujmoch chránených v týchto oblastiach, pretože podstatne neovplyvňujú rozhodovanie ani nespôsobujú týmto záujmom podstatnú ujmu. Na účely tohto nariadenia by sa mal systém AI, ktorý významne neovplyvňuje výsledok rozhodovania, chápať ako systém AI, ktorý nemá vplyv na podstatu, a teda na výsledok rozhodovania, či už ľudského alebo automatizovaného. Systém AI, ktorý významne neovplyvňuje výsledok rozhodovania, by mohol zahŕňať situácie, v ktorých je splnená jedna alebo viaceré z ďalej uvedených podmienok. Prvou takouto podmienkou by malo byť, že systém AI má plniť úzku procedurálnu úlohu, ako je systém AI, ktorý transformuje neštruktúrované údaje na štruktúrované údaje; systém AI, ktorý klasifikuje prichádzajúce dokumenty do kategórií; alebo systém AI, ktorý sa používa na odhaľovanie duplikátov medzi veľkým počtom aplikácií. Tieto úlohy sú takej úzkej a obmedzenej povahy, že predstavujú len obmedzené riziká, ktoré sa nezvýšia používaním systému AI v kontexte, ktorý sa v prílohe k tomuto nariadeniu uvádza ako vysokorizikové použitie. Druhou podmienkou by malo byť, že systém AI vykonáva úlohu s cieľom zlepšiť výsledok predtým ukončenej ľudskej činnosti, ktorá môže byť relevantná na účely vysokorizikových použití uvedených v prílohe k tomuto nariadeniu. Vzhľadom na tieto vlastnosti poskytuje systém AI len ďalšiu vrstvu k ľudskej činnosti s následne zníženým rizikom. Táto podmienka by sa vzťahovala napríklad na systémy AI, ktorých cieľom je zlepšiť jazyk používaný v predchádzajúcich dokumentoch, napríklad v súvislosti s profesionálnym tónom, akademickým štýlom jazyka alebo zosúladením textu s určitou brandovou komunikáciou. Treťou podmienkou by malo byť, že systém AI je určený na odhaľovanie vzorcov rozhodovania alebo odchýlok od predchádzajúcich vzorcov rozhodovania. Riziko by sa znížilo, pretože používanie systému AI sa riadi predtým dokončeným ľudským posúdením, ktoré nemá nahradiť ani ovplyvniť bez náležitého ľudského preskúmania. Medzi takéto systémy AI patria napríklad tie, ktoré sa vzhľadom na určitý známkovací vzorec učiteľa môžu použiť na ex post kontrolu toho, či sa učiteľ neodchýlil od známkovacieho vzorca, aby sa upozornilo na možné nezrovnalosti alebo anomálie. Štvrtou podmienkou by malo byť, že systém AI má plniť úlohu, ktorá je len prípravou na posúdenie relevantné na účely systémov AI uvedených v prílohe k tomuto nariadeniu, čím sa možný vplyv výstupu systému z hľadiska rizika pre posúdenie, ktoré sa má vykonať, výrazne zníži. Táto podmienka sa týka najmä inteligentných riešení na spracovanie súborov, ktoré zahŕňajú rôzne funkcie ako indexovanie, vyhľadávanie, spracovanie textu a reči alebo prepojenie údajov s inými zdrojmi údajov, alebo systémy AI používané na preklad pôvodných dokumentov. V každom prípade by sa systémy AI používané vo vysokorizikových prípadoch použitia uvedených v prílohe k tomuto nariadeniu mali považovať za systémy predstavujúce významné riziko ujmy na zdraví, bezpečnosti alebo základných právach, ak systém AI zahŕňa profilovanie v zmysle článku 4 bodu 4 nariadenia (EÚ) 2016/679 alebo článku 3 bodu 4 smernice (EÚ) 2016/680 alebo článku 3 bodu 5 nariadenia (EÚ) 2018/1725. S cieľom zabezpečiť vysledovateľnosť a transparentnosť by mal poskytovateľ, ktorý sa na základe vyššie uvedených podmienok domnieva, že systém AI nie je vysokorizikový, vypracovať dokumentáciu posúdenia pred uvedením tohto systému na trh alebo do prevádzky a na požiadanie by mal túto dokumentáciu poskytnúť vnútroštátnym príslušným orgánom. Takýto poskytovateľ by mal byť povinný zaregistrovať systém AI v databáze Únie zriadenej podľa tohto nariadenia. S cieľom poskytnúť ďalšie usmernenia pre praktické vykonávanie podmienok, za ktorých systémy AI uvedené v prílohe k tomuto nariadeniu výnimočne nepredstavujú vysoké riziko, by Komisia mala po konzultácii s radou pre AI poskytnúť usmernenia, v ktorých sa uvedie, že praktické vykonávanie doplnené komplexným zoznamom praktických príkladov prípadov použitia systémov AI, ktoré sú vysokorizikové, a prípadov použitia, ktoré nie sú vysokorizikové.
(54)
Dado que los datos biométricos constituyen una categoría de datos personales sensibles, procede clasificar como de alto riesgo varios casos de uso críticos de sistemas biométricos, en la medida que su utilización esté permitida con arreglo al Derecho de la Unión y nacional pertinente. Las imprecisiones técnicas de los sistemas de IA destinados a la identificación biométrica remota de las personas físicas pueden dar lugar a resultados sesgados y tener efectos discriminatorios. El riesgo de dichos resultados sesgados y efectos discriminatorios es especialmente pertinente por lo que respecta a la edad, la etnia, la raza, el sexo o la discapacidad. Por lo tanto, los sistemas de identificación biométrica remota deben clasificarse como de alto riesgo debido a los riesgos que entrañan. Quedan excluidos de dicha clasificación los sistemas de IA destinados a la verificación biométrica, que incluye la autenticación, cuyo único propósito es confirmar que una persona física concreta es quien dicha persona dice ser, así como confirmar la identidad de una persona física con la finalidad exclusiva de que tenga acceso a un servicio, desbloquee un dispositivo o tenga un acceso seguro a un local. Además, deben clasificarse como de alto riesgo los sistemas de IA destinados a ser utilizados para la categorización biométrica conforme a atributos o características sensibles protegidos en virtud del artículo 9, apartado 1, del Reglamento (UE) 2016/679 sobre la base de datos biométricos, en la medida en que no estén prohibidos en virtud del presente Reglamento, así como los sistemas de reconocimiento de emociones que no estén prohibidos con arreglo al presente Reglamento. Los sistemas biométricos destinados a ser utilizados exclusivamente a efectos de posibilitar la ciberseguridad y las medidas de protección de los datos personales no deben considerarse sistemas de IA de alto riesgo.
(54)
Keďže biometrické údaje predstavujú osobitnú kategóriu osobných údajov, je vhodné klasifikovať ako vysokorizikové niekoľko prípadov kritického použitia biometrických systémov, pokiaľ ich použitie povoľuje príslušné právo Únie a vnútroštátne právo. Technické nepresnosti systémov AI určených na diaľkovú biometrickú identifikáciu fyzických osôb môžu viesť ku skresleným výsledkom a mať diskriminačné účinky. Riziko takýchto skreslených výsledkov a diskriminačných účinkov je obzvlášť relevantné z hľadiska veku, etnickej príslušnosti, rasy, pohlavia alebo zdravotného postihnutia. Systémy diaľkovej biometrickej identifikácie by sa preto mali klasifikovať ako vysokorizikové vzhľadom na riziká, ktoré predstavujú. Takáto klasifikácia nezahŕňa systémy AI určené na biometrické overenie zahŕňajúce autentifikáciu, ktorých jediným účelom je potvrdiť, že konkrétna fyzická osoba je tou osobou, o ktorej tvrdí, že ňou je, a potvrdiť totožnosť fyzickej osoby výlučne na účely prístupu k službe, odomknutia zariadenia alebo získania bezpečnostného prístupu do priestorov. Okrem toho by sa systémy AI určené na biometrickú kategorizáciu podľa citlivých atribútov alebo charakteristík chránených podľa článku 9 ods. 1 nariadenia (EÚ) 2016/679 na základe biometrických údajov, pokiaľ nie sú zakázané podľa tohto nariadenia, a systémy na rozpoznávanie emócií, ktoré nie sú zakázané podľa tohto nariadenia, mali klasifikovať ako vysokorizikové. Biometrické systémy určené výlučne na účely umožnenia kybernetickej bezpečnosti a opatrení na ochranu osobných údajov, by sa nemali považovať za vysokorizikové systémy AI.
(55)
Por lo que respecta a la gestión y el funcionamiento de infraestructuras críticas, procede clasificar como de alto riesgo los sistemas de IA destinados a ser utilizados como componentes de seguridad en la gestión y el funcionamiento de las infraestructuras digitales críticas que se enumeran en el anexo, punto 8, de la Directiva (UE) 2022/2557; del tráfico rodado y del suministro de agua, gas, calefacción y electricidad, pues un fallo o un defecto de funcionamiento de estos componentes puede poner en peligro la vida y la salud de las personas a gran escala y alterar de manera considerable el desarrollo habitual de las actividades sociales y económicas. Los componentes de seguridad de las infraestructuras críticas, como las infraestructuras digitales críticas, son sistemas utilizados para proteger directamente la integridad física de las infraestructuras críticas o la salud y la seguridad de las personas y los bienes, pero que no son necesarios para el funcionamiento del sistema. El fallo o el defecto de funcionamiento de estos componentes podría dar lugar directamente a riesgos para la integridad física de las infraestructuras críticas y, por tanto, a riesgos para la salud y la seguridad de las personas y los bienes. Los componentes destinados a ser utilizados exclusivamente con fines de ciberseguridad no deben considerarse componentes de seguridad. Entre los componentes de seguridad de esas infraestructuras críticas cabe citar los sistemas de control de la presión del agua o los sistemas de control de las alarmas contra incendios en los centros de computación en la nube.
(55)
Pokiaľ ide o riadenie a prevádzku kritickej infraštruktúry, je vhodné klasifikovať ako vysokorizikové také systémy AI, ktoré sú určené na používanie ako bezpečnostné komponenty pri riadení a prevádzke kritickej digitálnej infraštruktúry, ako sa uvádza v bode 8 prílohy k smernici (EÚ) 2022/2557, cestnej premávky a pri dodávkach vody, plynu, tepla a elektrickej energie, keďže ich zlyhanie alebo porucha môžu ohroziť život a zdravie osôb vo veľkom rozsahu a viesť k značným narušeniam bežného vykonávania spoločenských a hospodárskych činností. Bezpečnostné komponenty kritickej infraštruktúry vrátane kritickej digitálnej infraštruktúry sú systémy používané na priamu ochranu fyzickej integrity kritickej infraštruktúry alebo zdravia a bezpečnosti osôb a majetku, ktoré však nie sú potrebné na fungovanie systému. Zlyhanie alebo porucha takýchto komponentov môže priamo viesť k rizikám pre fyzickú integritu kritickej infraštruktúry, a tým k rizikám pre zdravie a bezpečnosť osôb a majetku. Komponenty, ktoré sa majú používať výlučne na účely kybernetickej bezpečnosti, by sa nemali považovať za bezpečnostné komponenty. Príklady bezpečnostných komponentov takejto kritickej infraštruktúry môžu zahŕňať systémy monitorovania tlaku vody alebo systémy riadenia požiarneho poplachu v centrách cloud computingu.
(56)
El despliegue de sistemas de IA en el ámbito educativo es importante para fomentar una educación y formación digitales de alta calidad y para que todos los estudiantes y profesores puedan adquirir y compartir las capacidades y competencias digitales necesarias, incluidos la alfabetización mediática, y el pensamiento crítico, para participar activamente en la economía, la sociedad y los procesos democráticos. No obstante, deben clasificarse como de alto riesgo los sistemas de IA que se utilizan en la educación o la formación profesional, y en particular aquellos que determinan el acceso o la admisión, distribuyen a las personas entre distintas instituciones educativas y de formación profesional o programas de todos los niveles, evalúan los resultados del aprendizaje de las personas, evalúan el nivel apropiado de educación de una persona e influyen sustancialmente en el nivel de educación y formación que las personas recibirán o al que podrán acceder, o supervisan y detectan comportamientos prohibidos de los estudiantes durante las pruebas, ya que pueden decidir la trayectoria formativa y profesional de una persona y, en consecuencia, puede afectar a su capacidad para asegurar su subsistencia. Cuando no se diseñan y utilizan correctamente, estos sistemas pueden invadir especialmente y violar el derecho a la educación y la formación, y el derecho a no sufrir discriminación, además de perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, determinados grupos de edad, las personas con discapacidad o las personas de cierto origen racial o étnico o con una determinada orientación sexual.
(56)
Nasadzovanie systémov AI v oblasti vzdelávania je dôležité na podporu vysokokvalitného digitálneho vzdelávania a odbornej prípravy a na to, aby sa všetkým vzdelávajúcim sa osobám a učiteľom umožnilo získať a zdieľať potrebné digitálne zručnosti a kompetencie vrátane mediálnej gramotnosti a kritického myslenia, aby mohli zohrávať aktívnu úlohu v hospodárstve, spoločnosti a demokratických procesoch. Systémy AI používané v oblasti vzdelávania alebo odbornej prípravy, obzvlášť na určovanie prístupu alebo prijatia, na prideľovanie osôb do inštitúcií alebo programov vzdelávania a odbornej prípravy na všetkých stupňoch, na hodnotenie učebných výsledkov osôb, na posúdenie primeranej úrovne vzdelania pre jednotlivca a podstatné ovplyvňovanie úrovne vzdelávania a odbornej prípravy, ktoré jednotlivci dostanú alebo ku ktorým budú mať prístup, alebo na jeho monitorovanie a odhaľovanie zakázaného správania študentov počas testov by sa mali klasifikovať ako vysokorizikové systémy AI, pretože môžu určovať vzdelávací a profesijný priebeh života osoby, a tým môžu ovplyvňovať jej schopnosť zabezpečiť si živobytie. Ak sú takéto systémy dizajnované a používané nesprávne, môžu byť obzvlášť rušivé a môžu porušovať právo na vzdelanie a odbornú prípravu, ako aj právo nebyť diskriminovaný, a tým zachovávať zaužívané vzorce diskriminácie, napríklad žien, určitých vekových skupín, osôb so zdravotným postihnutím alebo osôb určitého rasového alebo etnického pôvodu alebo s určitou sexuálnou orientáciou.
(57)
También deben clasificarse como de alto riesgo los sistemas de IA que se utilizan en los ámbitos del empleo, la gestión de los trabajadores y el acceso al autoempleo, en particular para la contratación y la selección de personal, para la toma de decisiones que afecten a las condiciones de las relaciones de índole laboral, la promoción y la rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales y para la supervisión o evaluación de las personas en el marco de las relaciones contractuales de índole laboral, dado que pueden afectar de un modo considerable a las futuras perspectivas laborales, a los medios de subsistencia de dichas personas y a los derechos de los trabajadores. Las relaciones contractuales de índole laboral deben incluir, de manera significativa, a los empleados y las personas que prestan servicios a través de plataformas, como indica el programa de trabajo de la Comisión para 2021. Dichos sistemas pueden perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, determinados grupos de edad, las personas con discapacidad o las personas de orígenes raciales o étnicos concretos o con una orientación sexual determinada, durante todo el proceso de contratación y en la evaluación, promoción o retención de personas en las relaciones contractuales de índole laboral. Los sistemas de IA empleados para controlar el rendimiento y el comportamiento de estas personas también pueden socavar sus derechos fundamentales a la protección de los datos personales y a la intimidad.
(57)
Ako vysokorizikové by sa mali klasifikovať aj systémy AI používané v oblasti zamestnania, pri riadení pracovníkov a prístupe k samostatnej zárobkovej činnosti, najmä pri nábore a výbere osôb, pri prijímaní rozhodnutí ovplyvňujúcich vzťah súvisiaci s pracovnými podmienkami, pri kariérnom postupe v zamestnaní a ukončení zmluvného pracovnoprávneho vzťahu, pri prideľovaní úloh na základe individuálneho správania, osobných čŕt alebo charakteristík a pri monitorovaní alebo hodnotení osôb v zmluvných pracovnoprávnych vzťahoch, pretože tieto systémy môžu významne ovplyvniť budúce kariérne vyhliadky a živobytie týchto osôb a práva pracovníkov. Príslušné zmluvné pracovnoprávne vzťahy by mali zmysluplne zahŕňať zamestnancov a osoby poskytujúce služby prostredníctvom platforiem, ako sa uvádza v pracovnom programe Komisie na rok 2021. Takéto systémy môžu počas celého procesu prijímania do zamestnania a počas hodnotenia, povyšovania alebo udržiavania osôb v zmluvných pracovnoprávnych vzťahoch zachovávať zaužívané vzorce diskriminácie, napríklad žien, určitých vekových skupín, osôb so zdravotným postihnutím alebo osôb určitého rasového alebo etnického pôvodu alebo sexuálnej orientácie. Systémy AI používané na monitorovanie výkonu a správania týchto osôb môžu mať vplyv aj na ich základné práva na ochranu údajov a súkromia.
(58)
El acceso a determinados servicios y prestaciones esenciales, de carácter público y privado, necesarios para que las personas puedan participar plenamente en la sociedad o mejorar su nivel de vida, y el disfrute de dichos servicios y prestaciones, es otro ámbito en el que conviene prestar especial atención a la utilización de sistemas de IA. En particular, las personas físicas que solicitan a las autoridades públicas o reciben de estas prestaciones y servicios esenciales de asistencia pública, a saber, servicios de asistencia sanitaria, prestaciones de seguridad social, servicios sociales que garantizan una protección en casos como la maternidad, la enfermedad, los accidentes laborales, la dependencia o la vejez y la pérdida de empleo, asistencia social y ayudas a la vivienda, suelen depender de dichas prestaciones y servicios y, por lo general, se encuentran en una posición de vulnerabilidad respecto de las autoridades responsables. La utilización de sistemas de IA para decidir si las autoridades deben conceder, denegar, reducir o revocar dichas prestaciones y servicios o reclamar su devolución, lo que incluye decidir, por ejemplo, si los beneficiarios tienen legítimamente derecho a dichas prestaciones y servicios, podría tener un efecto considerable en los medios de subsistencia de las personas y vulnerar sus derechos fundamentales, como el derecho a la protección social, a la no discriminación, a la dignidad humana o a la tutela judicial efectiva y, por lo tanto, deben clasificarse como de alto riesgo. No obstante, el presente Reglamento no debe obstaculizar el desarrollo y el uso de enfoques innovadores en la Administración, que podrían beneficiarse de una mayor utilización de sistemas de IA conformes y seguros, siempre y cuando dichos sistemas no supongan un alto riesgo para las personas jurídicas y físicas. Además, deben clasificarse como de alto riesgo los sistemas de IA usados para evaluar la calificación crediticia o solvencia de las personas físicas, ya que deciden si dichas personas pueden acceder a recursos financieros o servicios esenciales como la vivienda, la electricidad y los servicios de telecomunicaciones. Los sistemas de IA usados con esos fines pueden discriminar a determinadas personas o colectivos y perpetuar patrones históricos de discriminación, como por motivos de origen racial o étnico, género, discapacidad, edad u orientación sexual, o generar nuevas formas de discriminación. No obstante, los sistemas de IA previstos por el Derecho de la Unión con vistas a detectar fraudes en la oferta de servicios financieros y, a efectos prudenciales, para calcular los requisitos de capital de las entidades de crédito y las empresas de seguros no deben considerarse de alto riesgo en virtud del presente Reglamento. Además, los sistemas de IA destinados a ser utilizados para la evaluación de riesgos y la fijación de precios en relación con las personas físicas en el caso de los seguros de vida y de salud también pueden afectar de un modo considerable a los medios de subsistencia de las personas y, si no se diseñan, desarrollan y utilizan debidamente, pueden vulnerar sus derechos fundamentales y pueden tener graves consecuencias para la vida y la salud de las personas, como la exclusión financiera y la discriminación. Por último, los sistemas de IA empleados para evaluar y clasificar llamadas de emergencia de personas físicas o el envío o el establecimiento de prioridades en el envío de servicios de primera intervención en situaciones de emergencia, incluidos policía, bomberos y servicios de asistencia médica, así como sistemas de triaje de pacientes para la asistencia sanitaria de emergencia, también deben considerarse de alto riesgo, dado que adoptan decisiones en situaciones sumamente críticas para la vida y la salud de las personas y de sus bienes.
(58)
Ďalšou oblasťou, v ktorej si využívanie systémov AI zaslúži osobitnú pozornosť, je prístup k určitým základným súkromným a verejným službám a dávkam, ktoré sú potrebné na to, aby sa ľudia mohli plne zapojiť do spoločnosti alebo si mohli zlepšiť životnú úroveň, a ich využívanie. Najmä fyzické osoby, ktoré žiadajú orgány verejnej moci o základné dávky a služby verejnej pomoci alebo ktoré ich od týchto orgánov dostávajú, konkrétne služby zdravotnej starostlivosti, dávky sociálneho zabezpečenia, sociálne služby poskytujúce ochranu v prípadoch, ako je materstvo, choroba, pracovné úrazy, závislosť alebo staroba a strata zamestnania a sociálna pomoc a pomoc pri bývaní, sú zvyčajne závislé od týchto dávok a služieb a sú vo vzťahu k zodpovedným orgánom v zraniteľnom postavení. Ak sa systémy AI používajú na určenie toho, či by orgány mali takéto dávky a služby poskytnúť, zamietnuť, znížiť, zrušiť alebo žiadať o ich vrátenie, vrátane toho, či majú poberatelia oprávnený nárok na takéto dávky alebo služby, takéto systémy môžu mať významný vplyv na živobytie osôb a môžu porušovať ich základné práva, ako je právo na sociálnu ochranu, nediskrimináciu, ľudskú dôstojnosť alebo účinný prostriedok nápravy, a mali by sa preto klasifikovať ako vysokorizikové. Toto nariadenie by však nemalo brániť vývoju a využívaniu inovačných prístupov vo verejnej správe, pre ktorú by mohlo byť širšie využívanie vyhovujúcich a bezpečných systémov AI prospešné, za predpokladu, že tieto systémy nepredstavujú vysoké riziko pre právnické a fyzické osoby. Ako vysokorizikové by sa okrem toho mali klasifikovať aj systémy AI používané na bodové hodnotenie kreditného rizika alebo hodnotenie úverovej bonity fyzických osôb, pretože určujú prístup týchto osôb k finančným zdrojom alebo základným službám, ako sú bývanie, elektrická energia a telekomunikačné služby. Systémy AI používané na takéto účely môžu viesť k diskriminácii osôb alebo skupín a môžu zachovávať zaužívané vzorce diskriminácie, napríklad na základe rasového alebo etnického pôvodu, rodu, zdravotných postihnutí, veku alebo sexuálnej orientácie, alebo môžu vytvárať nové formy diskriminačných vplyvov. Systémy AI stanovené v práve Únie na účely odhaľovania podvodov pri ponúkaní finančných služieb a na prudenciálne účely výpočtu kapitálových požiadaviek úverových inštitúcií a poisťovní by sa však podľa tohto nariadenia nemali považovať za vysokorizikové. Okrem toho systémy AI, ktoré sa majú používať na posudzovanie rizika a stanovovanie cien v súvislosti s fyzickými osobami na účely zdravotného a životného poistenia, môžu mať tiež významný vplyv na živobytie osôb, a ak nie sú riadne dizajnované, vyvinuté a používané, môžu porušovať ich základné práva a viesť k vážnym dôsledkom pre život a zdravie ľudí vrátane finančného vylúčenia a diskriminácie. Napokon, ako vysokorizikové by sa mali klasifikovať aj systémy AI používané na hodnotenie a klasifikáciu tiesňových volaní fyzických osôb alebo na vysielanie alebo prioritizáciu vysielania záchranných služieb prvej reakcie, vrátane polície, hasičov a zdravotnej pomoci, ako aj systémy triedenia pacientov v rámci pohotovostnej zdravotnej starostlivosti, pretože prijímajú rozhodnutia v situáciách, ktoré sú veľmi kritické z hľadiska života a zdravia osôb a ich majetku.
(59)
Dado su papel y su responsabilidad, las actuaciones de las autoridades garantes del cumplimiento del Derecho que implican determinados usos de los sistemas de IA se caracterizan por un importante desequilibrio de poder y pueden dar lugar a la vigilancia, la detención o la privación de libertad de una persona física, así como tener otros efectos negativos sobre los derechos fundamentales consagrados en la Carta. En particular, si el sistema de IA no está entrenado con datos de buena calidad, no cumple los requisitos adecuados en términos de rendimiento, de precisión o de solidez, o no se diseña y prueba debidamente antes de introducirlo en el mercado o ponerlo en servicio, es posible que señale a personas de manera discriminatoria, incorrecta o injusta. Además, podría impedir el ejercicio de importantes derechos procesales fundamentales, como el derecho a la tutela judicial efectiva y a un juez imparcial, así como el derecho a la defensa y a la presunción de inocencia, sobre todo cuando dichos sistemas de IA no sean lo suficientemente transparentes y explicables ni estén suficientemente bien documentados. Por consiguiente, en la medida en que su uso esté permitido conforme al Derecho de la Unión y nacional pertinente, procede clasificar como de alto riesgo varios sistemas de IA destinados a ser utilizados con fines de garantía del cumplimiento del Derecho cuando su precisión, fiabilidad y transparencia sean especialmente importantes para evitar consecuencias adversas, conservar la confianza de la población y garantizar la rendición de cuentas y unas vías de recurso efectivas. En vista de la naturaleza de las actividades y de los riesgos conexos, entre dichos sistemas de IA de alto riesgo deben incluirse, en particular, los sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en nombre de estas, o por las instituciones, órganos u organismos de la Unión en apoyo de las primeras, para evaluar el riesgo de que una persona física sea víctima de delitos, como los polígrafos y otras herramientas similares, para evaluar la fiabilidad de las pruebas durante la investigación o el enjuiciamiento de delitos y, en la medida en que no esté prohibido conforme al presente Reglamento, para evaluar el riesgo de que una persona física cometa un delito o reincida, no solo sobre la base de la elaboración de perfiles de personas físicas o la evaluación de rasgos y características de la personalidad o comportamientos delictivos pasados de personas físicas o grupos de personas, o para elaborar perfiles durante la detección, la investigación o el enjuiciamiento de delitos. Los sistemas de IA destinados específicamente a ser utilizados en procesos administrativos por las autoridades fiscales y aduaneras y las unidades de inteligencia financiera que desempeñan tareas administrativas de análisis de información de conformidad con el Derecho de la Unión en materia de lucha contra el blanqueo de capitales no deben clasificarse como sistemas de IA de alto riesgo usados por las autoridades garantes del cumplimiento del Derecho con el fin de prevenir, detectar, investigar y enjuiciar delitos. El uso de herramientas de IA por parte de las autoridades garantes del cumplimiento del Derecho y otras autoridades pertinentes no debe convertirse en un factor de desigualdad o exclusión. No debe ignorarse el impacto del uso de herramientas de IA en los derechos de defensa de los sospechosos, en particular la dificultad para obtener información significativa sobre el funcionamiento de dichos sistemas y la consiguiente dificultad para impugnar sus resultados ante los tribunales, en particular por parte de las personas físicas investigadas.
(59)
Konanie orgánov presadzovania práva zahŕňajúce určité použitia systémov AI sa vzhľadom na ich úlohu a zodpovednosť vyznačuje značným stupňom nerovnováhy moci a môže viesť k sledovaniu, zadržaniu alebo pozbaveniu slobody fyzickej osoby, ako aj k iným nepriaznivým vplyvom na základné práva zaručené chartou. Najmä ak systém AI nie je trénovaný na vysokokvalitných údajoch, nespĺňa primerané požiadavky, pokiaľ ide o jeho výkon, presnosť alebo spoľahlivosť, alebo nie je pred uvedením na trh alebo do prevádzky riadne dizajnovaný a otestovaný, môže ľudí selektovať diskriminačným alebo inak nesprávnym či nespravodlivým spôsobom. Okrem toho by mohlo byť obmedzené uplatňovanie dôležitých procesných základných práv, ako je právo na účinný prostriedok nápravy a na spravodlivý proces, ako aj právo na obhajobu a prezumpcia neviny, najmä ak takéto systémy AI nie sú dostatočne transparentné, vysvetliteľné a zdokumentované. Preto je vhodné klasifikovať ako vysokorizikové viaceré systémy AI, pokiaľ je ich používanie povolené na základe relevantného práva Únie alebo vnútroštátneho práva, určené na používanie v kontexte presadzovania práva, kde je presnosť, spoľahlivosť a transparentnosť obzvlášť dôležitá, aby sa zabránilo nepriaznivým vplyvom, zachovala dôvera verejnosti a zabezpečila zodpovednosť a účinná náprava. Vzhľadom na povahu predmetných činností a s nimi súvisiace riziká by tieto vysokorizikové systémy AI mali zahŕňať najmä systémy AI určené na používanie orgánmi presadzovania práva alebo v ich mene alebo inštitúciami, orgánmi, úradmi alebo agentúrami Únie na podporu orgánov presadzovania práva na posúdenie rizika, že sa fyzická osoba stane obeťou trestných činov, ako sú polygrafy a podobné nástroje, na hodnotenie spoľahlivosti dôkazov v priebehu vyšetrovania alebo stíhania trestných činov, a pokiaľ sa to týmto nariadením nezakazuje, aj na posúdenie rizika, že fyzická osoba spácha alebo opakovane spácha trestný čin, a to nielen na základe profilovania fyzických osôb, alebo na základe posúdenia osobnostných čŕt a charakteristík alebo trestnej činnosti fyzických osôb alebo skupín v minulosti, na profilovanie v priebehu odhaľovania, vyšetrovania alebo stíhania trestných činov. Systémy AI, ktoré sú osobitne určené na používanie v správnych konaniach daňovými a colnými orgánmi, ako aj finančnými spravodajskými jednotkami vykonávajúcimi administratívne úlohy spočívajúce v analýze informácií podľa právnych predpisov Únie v oblasti boja proti praniu špinavých peňazí, by sa nemali klasifikovať ako vysokorizikové systémy AI používané orgánmi presadzovania práva na účely predchádzania trestným činom, ich odhaľovania, vyšetrovania a stíhania. Používanie nástrojov AI orgánmi presadzovania práva a inými relevantnými orgánmi by sa nemalo stať faktorom nerovnosti alebo vylúčenia. Vplyv používania nástrojov AI na právo podozrivých osôb na obhajobu by sa nemal ignorovať, predovšetkým pokiaľ ide o ťažkosti pri získavaní zmysluplných informácií o fungovaní takýchto systémov a z toho vyplývajúce ťažkosti pri napadnutí ich výsledkov na súde, najmä zo strany vyšetrovaných fyzických osôb.
(60)
Los sistemas de IA empleados en la migración, el asilo y la gestión del control fronterizo afectan a personas que con frecuencia se encuentran en una situación especialmente vulnerable y que dependen del resultado de las actuaciones de las autoridades públicas competentes. Por este motivo, es sumamente importante que los sistemas de IA que se utilicen en estos contextos sean precisos, no discriminatorios y transparentes, a fin de garantizar que se respeten los derechos fundamentales de las personas afectadas y, en particular, su derecho a la libre circulación, a la no discriminación, a la intimidad personal y la protección de los datos personales, a la protección internacional y a una buena administración. Por lo tanto, procede clasificar como de alto riesgo, en la medida en que su utilización esté permitida en virtud del Derecho de la Unión y nacional, aquellos sistemas de IA destinados a ser utilizados por las autoridades públicas competentes, o en su nombre, o por las instituciones, órganos u organismos de la Unión que realizan tareas en el ámbito de la migración, el asilo y la gestión del control fronterizo como polígrafos y herramientas similares, para evaluar determinados riesgos que presenten las personas físicas que entren en el territorio de un Estado miembro o que soliciten un visado o asilo, para ayudar a las autoridades públicas competentes a examinar, con inclusión de la evaluación conexa de la fiabilidad de las pruebas, las solicitudes de asilo, visado y permiso de residencia, así como las reclamaciones conexas en relación con el objetivo de determinar si las personas físicas solicitantes reúnen los requisitos necesarios para que se conceda su solicitud, a efectos de detectar, reconocer o identificar a las personas físicas en el contexto de la migración, el asilo y la gestión del control fronterizo, con excepción de la verificación de los documentos de viaje. Los sistemas de IA en el ámbito de la migración, el asilo y la gestión del control fronterizo sujetos al presente Reglamento deben cumplir los requisitos procedimentales pertinentes establecidos por el Reglamento (CE) n.o 810/2009 del Parlamento Europeo y del Consejo (32), la Directiva 2013/32/UE del Parlamento Europeo y del Consejo (33) y otro Derecho de la Unión pertinente. El empleo de los sistemas de IA en la migración, el asilo y la gestión del control fronterizo no debe, en ningún caso, ser utilizado por los Estados miembros o las instituciones, órganos u organismos de la Unión como medio para eludir sus obligaciones internacionales en virtud de la Convención de las Naciones Unidas sobre el Estatuto de los Refugiados, hecha en Ginebra el 28 de julio de 1951, modificada por el Protocolo de 31 de enero de 1967. Tampoco debe ser utilizado para infringir en modo alguno el principio de no devolución, ni para negar unas vías jurídicas seguras y efectivas de acceso al territorio de la Unión, incluido el derecho a la protección internacional.
(60)
Systémy AI používané v oblastiach migrácie, azylu a riadenia kontroly hraníc majú vplyv na osoby, ktoré sú často v mimoriadne zraniteľnom postavení a ktoré sú závislé od výsledku konania príslušných orgánov verejnej moci. Presnosť, nediskriminačný charakter a transparentnosť systémov AI používaných v tomto kontexte sú preto mimoriadne dôležité na zaručenie dodržiavania základných práv dotknutých osôb, najmä ich práva na voľný pohyb, nediskrimináciu, ochranu súkromia a osobných údajov, medzinárodnú ochranu a dobrú správu vecí verejných. Je preto vhodné klasifikovať ako vysokorizikové tie systémy AI, pokiaľ je ich používanie povolené na základe relevantného práva Únie alebo vnútroštátneho práva, ktoré majú používať príslušné orgány verejnej moci alebo sa majú používať v ich mene, alebo ktoré majú používať inštitúcie, orgány, úrady alebo agentúry Únie poverené úlohami v oblasti migrácie, azylu a riadenia kontroly hraníc, ako napríklad polygrafy a podobné nástroje, na posudzovanie určitých rizík, ktoré predstavujú fyzické osoby vstupujúce na územie členského štátu alebo žiadajúce o vízum alebo azyl, na pomoc príslušným orgánom verejnej moci pri skúmaní žiadostí o azyl, víza a povolenia na pobyt, vrátane súvisiaceho posúdenia spoľahlivosti dôkazov, a súvisiacich sťažností, pokiaľ ide o cieľ zistiť oprávnenosť fyzických osôb žiadajúcich o určitý status, na účely odhaľovania, rozpoznávania alebo identifikácie fyzických osôb v kontexte migrácie, azylu a riadenia kontroly hraníc s výnimkou overovania cestovných dokladov. Systémy AI v oblasti migrácie, azylu a riadenia kontroly hraníc, na ktoré sa vzťahuje toto nariadenie, by mali spĺňať príslušné procedurálne požiadavky stanovené v nariadení Európskeho parlamentu a Rady (ES) č. 810/2009 (32), smernici Európskeho parlamentu a Rady 2013/32/EÚ (33) a iných príslušných právnych predpisoch Únie. Používanie systémov AI v oblasti migrácie, azylu a riadenia kontroly hraníc by členské štáty alebo inštitúcie, orgány, úrady alebo agentúry Únie za žiadnych okolností nemali využívať ako prostriedok na obchádzanie svojich medzinárodných záväzkov podľa Dohovoru OSN o právnom postavení utečencov podpísaného v Ženeve 28. júla 1951 a zmeneného protokolom z 31. januára 1967. Tieto systémy by sa nemali používať ani na to, aby sa akýmkoľvek spôsobom porušovala zásada zákazu vyhostenia alebo vrátenia, alebo aby sa odopierali bezpečné a účinné zákonné spôsoby vstupu na územie Únie vrátane práva na medzinárodnú ochranu.
(61)
Deben clasificarse como de alto riesgo determinados sistemas de IA destinados a la administración de justicia y los procesos democráticos, dado que pueden tener efectos potencialmente importantes para la democracia, el Estado de Derecho, las libertades individuales y el derecho a la tutela judicial efectiva y a un juez imparcial. En particular, a fin de hacer frente al riesgo de posibles sesgos, errores y opacidades, procede clasificar como de alto riesgo aquellos sistemas de IA destinados a ser utilizados por una autoridad judicial o en su nombre para ayudar a las autoridades judiciales a investigar e interpretar los hechos y el Derecho y a aplicar la ley a unos hechos concretos. También deben considerarse de alto riesgo los sistemas de IA destinados a ser utilizados por los organismos de resolución alternativa de litigios con esos fines, cuando los resultados de los procedimientos de resolución alternativa de litigios surtan efectos jurídicos para las partes. La utilización de herramientas de IA puede apoyar el poder de decisión de los jueces o la independencia judicial, pero no debe substituirlas: la toma de decisiones finales debe seguir siendo una actividad humana. No obstante, la clasificación de los sistemas de IA como de alto riesgo no debe hacerse extensiva a los sistemas de IA destinados a actividades administrativas meramente accesorias que no afectan a la administración de justicia propiamente dicha en casos concretos, como la anonimización o seudonimización de resoluciones judiciales, documentos o datos, la comunicación entre los miembros del personal o las tareas administrativas.
(61)
Niektoré systémy AI určené na výkon spravodlivosti a demokratických procesov by sa mali klasifikovať ako vysokorizikové vzhľadom na ich potenciálne významný vplyv na demokraciu, právny štát, osobné slobody, ako aj právo na účinný prostriedok nápravy a na spravodlivý proces. Ako vysokorizikové je vhodné kvalifikovať systémy AI určené na použitie zo strany justičného orgánu alebo v jeho mene na pomoc justičným orgánom pri skúmaní a výklade skutkových okolností a práva a pri uplatňovaní práva na konkrétny súbor skutkových okolností, najmä z dôvodu riešenia rizík možného skreslenia, chýb a nepriehľadnosti. Systémy AI, ktoré majú používať subjekty alternatívneho riešenia sporov na tieto účely, by sa takisto mali považovať za vysokorizikové, ak výsledky konania o alternatívnom riešení sporov majú pre strany právne účinky. Používanie nástrojov AI môže podporiť rozhodovaciu právomoc sudcov alebo nezávislosť súdnictva, ale nemalo by ju nahrádzať: konečné rozhodovanie musí zostať ľudskou činnosťou. Kvalifikácia systémov AI ako vysokorizikových by sa však nemala vzťahovať na systémy AI určené na čisto pomocné administratívne činnosti, ktoré nemajú vplyv na samotný výkon spravodlivosti v jednotlivých prípadoch, ako napríklad anonymizácia alebo pseudonymizácia súdnych rozhodnutí, dokumentov alebo údajov, komunikácia medzi zamestnancami alebo administratívne úlohy.
(62)
Sin perjuicio de las normas previstas en el Reglamento (UE) 2024/900 del Parlamento Europeo y del Consejo (34), y a fin de hacer frente a los riesgos de injerencia externa indebida en el derecho de voto consagrado en el artículo 39 de la Carta, y de efectos adversos sobre la democracia y el Estado de Derecho, deben clasificarse como sistemas de IA de alto riesgo los sistemas de IA destinados a ser utilizados para influir en el resultado de una elección o un referéndum, o en el comportamiento electoral de las personas físicas en el ejercicio de su voto en elecciones o referendos, con excepción de los sistemas de IA a cuyos resultados de salida las personas físicas no están directamente expuestas, como las herramientas utilizadas para organizar, optimizar y estructurar campañas políticas desde un punto de vista administrativo y logístico.
(62)
Bez toho, aby boli dotknuté pravidlá stanovené v nariadení Európskeho parlamentu a Rady (EÚ) 2024/900 (34), a s cieľom riešiť riziká neprimeraného vonkajšieho zasahovania do práva voliť zakotveného v článku 39 charty a riziká neprimeraných účinkov na demokraciu a právny štát by sa systémy AI, ktoré sa majú používať na ovplyvňovanie výsledku volieb alebo referenda alebo volebného správania fyzických osôb pri výkone ich hlasovania vo voľbách alebo referendách, mali klasifikovať ako vysokorizikové systémy AI s výnimkou systémov AI, ktorých výstupom nie sú fyzické osoby priamo vystavené, ako sú nástroje používané na organizovanie, optimalizáciu a štruktúrovanie politických kampaní z administratívneho a logistického hľadiska.
(63)
El hecho de que un sistema de IA sea clasificado como un sistema de IA de alto riesgo en virtud del presente Reglamento no debe interpretarse como indicador de que su uso sea lícito con arreglo a otros actos del Derecho de la Unión o del Derecho nacional compatible con el Derecho de la Unión, por ejemplo, en materia de protección de los datos personales o la utilización de polígrafos y herramientas similares u otros sistemas para detectar el estado emocional de las personas físicas. Todo uso de ese tipo debe seguir realizándose exclusivamente en consonancia con los requisitos oportunos derivados de la Carta y de los actos aplicables del Derecho derivado de la Unión y del Derecho nacional. No debe entenderse que el presente Reglamento constituye un fundamento jurídico para el tratamiento de datos personales, incluidas las categorías especiales de datos personales, en su caso, salvo que el presente Reglamento disponga específicamente otra cosa.
(63)
Skutočnosť, že systém AI sa podľa tohto nariadenia klasifikuje ako vysokorizikový systém AI, by sa nemala vykladať ako naznačujúca, že používanie tohto systému je zákonné podľa iných aktov práva Únie alebo vnútroštátneho práva zlučiteľného s právom Únie, ako napríklad práva v oblasti ochrany osobných údajov, používania polygrafov a podobných nástrojov alebo iných systémov na zisťovanie emocionálneho stavu fyzických osôb. Akékoľvek takéto použitie by sa malo naďalej vykonávať výlučne v súlade s uplatniteľnými požiadavkami vyplývajúcimi z charty a z uplatniteľných aktov sekundárneho práva Únie a vnútroštátneho práva. Toto nariadenie by sa nemalo vykladať tak, že poskytuje právny základ pre spracúvanie osobných údajov v relevantných prípadoch vrátane osobitných kategórií osobných údajov, pokiaľ sa v tomto nariadení výslovne neustanovuje inak.
(64)
Con el objetivo de mitigar los riesgos que presentan los sistemas de IA de alto riesgo que se introducen en el mercado o se ponen en servicio, y para garantizar un alto nivel de fiabilidad, deben aplicarse a los sistemas de IA de alto riesgo ciertos requisitos obligatorios que tengan en cuenta la finalidad prevista y el contexto del uso del sistema de IA y estén en consonancia con el sistema de gestión de riesgos que debe establecer el proveedor. Las medidas adoptadas por los proveedores para cumplir los requisitos obligatorios del presente Reglamento deben tener en cuenta el estado actual de la técnica generalmente reconocido en materia de IA, ser proporcionadas y eficaces para alcanzar los objetivos del presente Reglamento. Sobre la base del nuevo marco legislativo, como se aclara en la Comunicación de la Comisión titulada «“Guía azul” sobre la aplicación de la normativa europea relativa a los productos, de 2022», la norma general es que más de un acto jurídico de la legislación de armonización de la Unión puede ser aplicable a un producto, ya que la comercialización o la puesta en servicio solamente puede producirse cuando el producto cumple toda la legislación de armonización de la Unión aplicable. Los peligros de los sistemas de IA cubiertos por los requisitos del presente Reglamento se refieren a aspectos diferentes de los contemplados en la legislación de armonización de la Unión existente y, por consiguiente, los requisitos del presente Reglamento completarían el conjunto existente de legislación de armonización de la Unión. Por ejemplo, las máquinas o los productos sanitarios que incorporan un sistema de IA pueden presentar riesgos de los que no se ocupan los requisitos esenciales de salud y seguridad establecidos en la legislación armonizada de la Unión pertinente, ya que esa legislación sectorial no aborda los riesgos específicos de los sistemas de IA. Esto exige una aplicación simultánea y complementaria de diversos actos legislativos. A fin de garantizar la coherencia y evitar una carga administrativa innecesaria y costes innecesarios, los proveedores de un producto que contenga uno o varios sistemas de IA de alto riesgo, a los que se apliquen los requisitos del presente Reglamento y de los actos legislativos de armonización de la Unión basados en el nuevo marco legislativo y enumerados en un anexo del presente Reglamento, deben ser flexibles en lo que respecta a las decisiones operativas relativas a la manera de garantizar la conformidad de un producto que contenga uno o varios sistemas de IA con todos los requisitos aplicables de la legislación armonizada de la Unión de manera óptima. Esa flexibilidad podría significar, por ejemplo, la decisión del proveedor de integrar una parte de los procesos de prueba y notificación necesarios, así como la información y la documentación exigidas en virtud del presente Reglamento, en la documentación y los procedimientos ya existentes exigidos en virtud de los actos legislativos de armonización de la Unión vigentes basados en el nuevo marco legislativo y enumerados en un anexo del presente Reglamento. Esto no debe socavar en modo alguno la obligación del proveedor de cumplir todos los requisitos aplicables.
(64)
S cieľom zmierniť riziká, ktoré vyplývajú z vysokorizikových systémov AI uvedených na trh alebo do prevádzky, a zabezpečiť vysokú úroveň dôveryhodnosti, by sa na vysokorizikové systémy AI mali uplatňovať určité povinné požiadavky, pričom by sa mal zohľadniť zamýšľaný účel a kontext používania systému AI a podľa systému riadenia rizík, ktorý má zaviesť poskytovateľ. Opatrenia prijaté poskytovateľmi na dosiahnutie súladu s povinnými požiadavkami tohto nariadenia by mali zohľadňovať všeobecne uznávaný aktuálny stav vývoja AI a mali by byť primerané a účinné na splnenie cieľov tohto nariadenia. Na základe nového legislatívneho rámca, ako sa objasňuje v oznámení Komisie s názvom „Modrá príručka na vykonávanie právnych predpisov EÚ týkajúcich sa výrobkov 2022“, všeobecným pravidlom je, že viac ako jeden právny akt z harmonizačných právnych predpisov Únie sa môže uplatňovať na jeden výrobok, keďže sprístupnenie alebo uvedenie do prevádzky sa môže uskutočniť len vtedy, keď je výrobok v súlade so všetkými uplatniteľnými harmonizačnými právnymi predpismi Únie. Nebezpečenstvá systémov AI, na ktoré sa vzťahujú požiadavky tohto nariadenia, sa týkajú iných aspektov ako existujúce harmonizačné právne predpisy Únie, a preto by požiadavky tohto nariadenia dopĺňali existujúci súbor harmonizačných právnych predpisov Únie. Napríklad strojové zariadenia alebo zdravotnícke pomôcky obsahujúce systém AI by mohli predstavovať riziká, ktoré sa neriešia v základných zdravotných a bezpečnostných požiadavkách stanovených v príslušných harmonizovaných právnych predpisoch Únie, keďže toto odvetvové právo sa nezaoberá rizikami špecifickými pre systémy AI. Je preto potrebné súbežné a komplementárne uplatňovanie rôznych legislatívnych aktov. S cieľom zabezpečiť konzistentnosť a zabrániť zbytočnému administratívnemu zaťaženiu a nákladom by poskytovatelia výrobku, ktorý obsahuje jeden alebo viacero vysokorizikových systémov AI, na ktoré sa vzťahujú požiadavky tohto nariadenia a požiadavky harmonizačných právnych predpisov Únie založených na novom legislatívnom rámci a uvedených v prílohe k tomuto nariadeniu, mali mať flexibilitu, pokiaľ ide o operačné rozhodnutia o tom, ako zabezpečiť súlad výrobku obsahujúceho jeden alebo viacero systémov AI so všetkými uplatniteľnými požiadavkami daných harmonizovaných právnych predpisov Únie optimálnym spôsobom. Uvedená flexibilita by mohla znamenať napríklad rozhodnutie poskytovateľa začleniť časť potrebných postupov testovania a podávania správ, informácií a dokumentácie požadovaných podľa tohto nariadenia do existujúcej dokumentácie a postupov požadovaných podľa existujúcich harmonizačných právnych predpisov Únie založených na novom legislatívnom rámci a uvedených v prílohe k tomuto nariadeniu. To by v žiadnom prípade nemalo oslabiť povinnosť poskytovateľa dodržiavať všetky uplatniteľné požiadavky.
(65)
El sistema de gestión de riesgos debe consistir en un proceso iterativo continuo que sea planificado y ejecutado durante todo el ciclo de vida del sistema de IA de alto riesgo. Dicho proceso debe tener por objeto detectar y mitigar los riesgos pertinentes de los sistemas de IA para la salud, la seguridad y los derechos fundamentales. El sistema de gestión de riesgos debe revisarse y actualizarse periódicamente para garantizar su eficacia continua, así como la justificación y documentación de cualesquiera decisiones y acciones significativas adoptadas con arreglo al presente Reglamento. Este proceso debe garantizar que el proveedor determine los riesgos o efectos negativos y aplique medidas de mitigación de los riesgos conocidos y razonablemente previsibles de los sistemas de IA para la salud, la seguridad y los derechos fundamentales, habida cuenta de su finalidad prevista y de su uso indebido razonablemente previsible, incluidos los posibles riesgos derivados de la interacción entre el sistema de IA y el entorno en el que opera. El sistema de gestión de riesgos debe adoptar las medidas de gestión de riesgos más adecuadas a la luz del estado actual de la técnica en materia de IA. Al determinar las medidas de gestión de riesgos más adecuadas, el proveedor debe documentar y explicar las elecciones realizadas y, cuando proceda, contar con la participación de expertos y partes interesadas externas. Al determinar el uso indebido razonablemente previsible de los sistemas de IA de alto riesgo, el proveedor debe tener en cuenta los usos de los sistemas de IA que, aunque no estén directamente cubiertos por la finalidad prevista ni establecidos en las instrucciones de uso, cabe esperar razonablemente que se deriven de un comportamiento humano fácilmente previsible en el contexto de las características específicas y del uso de un sistema de IA concreto. Debe incluirse en las instrucciones de uso que sean facilitadas por el proveedor cualquier circunstancia conocida o previsible, asociada a la utilización del sistema de IA de alto riesgo conforme a su finalidad prevista o a un uso indebido razonablemente previsible, que pueda dar lugar a riesgos para la salud y la seguridad o los derechos fundamentales. Con ello se pretende garantizar que el responsable del despliegue sea consciente de estos riesgos y los tenga en cuenta al utilizar el sistema de IA de alto riesgo. La identificación y la aplicación de medidas de reducción del riesgo en caso de uso indebido previsible con arreglo al presente Reglamento no deben suponer la exigencia, para su acometida, de entrenamiento adicional específico para el sistema de IA de alto riesgo por parte del proveedor para hacer frente a usos indebidos previsibles. No obstante, se anima a los proveedores a considerar dichas medidas de entrenamiento adicionales para mitigar los usos indebidos razonablemente previsibles, cuando resulte necesario y oportuno.
(65)
Systém riadenia rizík by mal pozostávať z nepretržitého iteratívneho procesu plánovaného a prebiehajúceho počas celého životného cyklu vysokorizikového systému AI. Tento proces by mal byť zameraný na identifikáciu a zmiernenie relevantných rizík systémov AI v oblasti zdravia, bezpečnosti a základných práv. Systém riadenia rizík by sa mal pravidelne preskúmavať a aktualizovať, aby sa zabezpečila jeho trvalá účinnosť, ako aj odôvodnenie a dokumentácia všetkých významných rozhodnutí a opatrení prijatých podľa tohto nariadenia. Týmto procesom by sa malo zabezpečiť, aby poskytovateľ identifikoval riziká alebo nepriaznivé vplyvy a vykonal zmierňujúce opatrenia zamerané na známe a odôvodnene predvídateľné riziká systémov AI pre zdravie, bezpečnosť a základné práva vzhľadom na ich zamýšľaný účel a rozumne predvídateľné nesprávne použitie vrátane možných rizík vyplývajúcich z interakcie medzi systémom AI a prostredím, v ktorom funguje. Systém riadenia rizík by mal prijať najvhodnejšie opatrenia na riadenie rizík vzhľadom na aktuálny stav vývoja AI. Pri určovaní najvhodnejších opatrení na riadenie rizík by mal poskytovateľ zdokumentovať a vysvetliť prijaté rozhodnutia a v prípade potreby by mal zapojiť odborníkov a externé zainteresované strany. Pri identifikácii odôvodnene predvídateľného nesprávneho použitia vysokorizikových systémov AI by sa poskytovateľ mal zaoberať použitím systémov AI, na ktoré sa síce priamo nevzťahuje zamýšľaný účel a ktoré sú stanovené v návode na použitie, možno však odôvodnene očakávať, že budú výsledkom ľahko predvídateľného ľudského správania v kontexte osobitných vlastností a používania konkrétneho systému AI. Všetky známe alebo predvídateľné okolnosti súvisiace s používaním vysokorizikového systému AI v súlade s jeho zamýšľaným účelom alebo za podmienok odôvodnene predvídateľného nesprávneho použitia, ktoré môžu viesť k rizikám pre zdravie a bezpečnosť alebo pre základné práva, by sa mali zahrnúť do návodu na použitie, ktorý poskytuje poskytovateľ. Cieľom je zabezpečiť, aby ich nasadzujúci subjekt poznal a zohľadnil pri používaní vysokorizikového systému AI. Identifikácia a vykonávanie opatrení na zmiernenie rizika predvídateľného nesprávneho použitia podľa tohto nariadenia by si nemali vyžadovať osobitnú dodatočnú odbornú prípravu zo strany poskytovateľa pre vysokorizikový systém AI na riešenie predvídateľného nesprávneho použitia. Poskytovatelia sa však nabádajú, aby zvážili takéto dodatočné opatrenia odbornej prípravy s cieľom zmierniť odôvodnene predvídateľné nesprávne použitie, ak je to potrebné a vhodné.
(66)
Deben aplicarse a los sistemas de IA de alto riesgo requisitos referentes a la gestión de riesgos, la calidad y la pertinencia de los conjuntos de datos utilizados, la documentación técnica y la conservación de registros, la transparencia y la comunicación de información a los responsables del despliegue, la supervisión humana, la solidez, la precisión y la ciberseguridad. Dichos requisitos son necesarios para mitigar de forma efectiva los riesgos para la salud, la seguridad y los derechos fundamentales. Al no disponerse razonablemente de otras medidas menos restrictivas del comercio, dichos requisitos no son restricciones injustificadas al comercio.
(66)
Požiadavky by sa mali vzťahovať na vysokorizikové systémy AI, pokiaľ ide o riadenie rizík, kvalitu a relevantnosť použitých súborov údajov, technickú dokumentáciu a uchovávanie záznamov, transparentnosť a poskytovanie informácií nasadzujúcim subjektom, ľudský dohľad a spoľahlivosť, presnosť a kybernetickú bezpečnosť. Tieto požiadavky sú potrebné na účinné zmiernenie rizík pre zdravie, bezpečnosť a základné práva. Keďže nie sú primerane dostupné žiadne iné opatrenia menej obmedzujúce obchod, nie sú uvedené požiadavky neodôvodnenými obmedzeniami obchodu.
(67)
Los datos de alta calidad y el acceso a datos de alta calidad desempeñan un papel esencial a la hora de proporcionar una estructura y garantizar el funcionamiento de muchos sistemas de IA, en especial cuando se emplean técnicas que implican el entrenamiento de modelos, con vistas a garantizar que el sistema de IA de alto riesgo funcione del modo previsto y en condiciones de seguridad y no se convierta en una fuente de algún tipo de discriminación prohibida por el Derecho de la Unión. Es preciso instaurar prácticas adecuadas de gestión y gobernanza de datos para lograr que los conjuntos de datos para el entrenamiento, la validación y la prueba sean de alta calidad. Los conjuntos de datos para el entrenamiento, la validación y la prueba, incluidas las etiquetas, deben ser pertinentes, lo suficientemente representativos y, en la mayor medida posible, estar libres de errores y ser completos en vista de la finalidad prevista del sistema. A fin de facilitar el cumplimiento del Derecho de la Unión en materia de protección de datos, como el Reglamento (UE) 2016/679, las prácticas de gestión y gobernanza de datos deben incluir, en el caso de los datos personales, la transparencia sobre el fin original de la recopilación de datos. Los conjuntos de datos deben tener las propiedades estadísticas adecuadas, también en lo que respecta a las personas o los colectivos de personas en relación con los que esté previsto utilizar el sistema de IA de alto riesgo, prestando una atención especial a la mitigación de los posibles sesgos en los conjuntos de datos que puedan afectar a la salud y la seguridad de las personas físicas, tener repercusiones negativas en los derechos fundamentales o dar lugar a algún tipo de discriminación prohibida por el Derecho de la Unión, especialmente cuando los datos de salida influyan en la información de entrada de futuras operaciones (bucles de retroalimentación). Los sesgos, por ejemplo, pueden ser inherentes a los conjuntos de datos subyacentes, especialmente cuando se utilizan datos históricos, o generados cuando los sistemas se despliegan en entornos del mundo real. Los resultados de los sistemas de IA dependen de dichos sesgos inherentes, que tienden a aumentar gradualmente y, por tanto, perpetúan y amplifican la discriminación existente, en particular con respecto a las personas pertenecientes a determinados colectivos vulnerables, incluidos colectivos raciales o étnicos. El requisito de que los conjuntos de datos, en la mayor medida posible, sean completos y estén libres de errores no debe afectar al uso de técnicas de protección de la intimidad en el contexto del desarrollo y la prueba de sistemas de IA. En particular, los conjuntos de datos deben tener en cuenta, en la medida en que lo exija su finalidad prevista, los rasgos, características o elementos particulares del entorno geográfico, contextual, conductual o funcional específico en el que esté previsto que se utilice el sistema de IA. Los requisitos relacionados con la gobernanza de datos pueden cumplirse recurriendo a terceros que ofrezcan servicios certificados de cumplimiento, incluida la verificación de la gobernanza de datos, la integridad del conjunto de datos y las prácticas de entrenamiento, validación y prueba de datos, en la medida en que se garantice el cumplimiento de los requisitos en materia de datos del presente Reglamento.
(67)
Pre poskytovanie štruktúry a zabezpečovanie výkonu mnohých systémov AI zohrávajú kľúčovú úlohu vysokokvalitné údaje a prístup k nim, najmä ak sa využívajú techniky zahŕňajúce trénovanie modelov s cieľom zabezpečiť, aby vysokorizikový systém AI fungoval podľa zamýšľaného účelu a bezpečne a aby sa nestal zdrojom diskriminácie zakázanej právom Únie. Súbory vysokokvalitných trénovacích, validačných a testovacích údajov si vyžadujú vykonávanie primeraných postupov správy a riadenia údajov. Súbory údajov na trénovanie, validáciu a testovanie vrátane štítkov by mali byť relevantné, dostatočne reprezentatívne a v čo najväčšej možnej miere bez chýb a úplné vzhľadom na zamýšľaný účel systému. S cieľom uľahčiť dodržiavanie právnych predpisov Únie v oblasti ochrany údajov, ako je nariadenie (EÚ) 2016/679, by postupy správy a riadenia údajov mali v prípade osobných údajov zahŕňať transparentnosť v súvislosti s pôvodným účelom zberu údajov. Súbory údajov by mali mať aj primerané štatistické vlastnosti, a to aj pokiaľ ide o osoby alebo skupiny osôb, v súvislosti s ktorými sa má vysokorizikový systém AI používať, s osobitným dôrazom na zmiernenie možného skreslenia v súboroch údajov, ktoré by mohlo ovplyvniť zdravie a bezpečnosť osôb, mať negatívny vplyv na základné práva alebo viesť k diskriminácii zakázanej podľa práva Únie, najmä ak výstupy údajov ovplyvňujú vstupy pre budúce operácie (uzavretý kruh spätnej väzby). Skreslenie môže byť napríklad inherentné v základných súboroch údajov, najmä ak sa používajú historické údaje alebo údaje vygenerované pri implementácii systémov v reálnych podmienkach. Výsledky poskytované systémami AI by mohli byť ovplyvnené takýmto inherentným skreslením, ktoré má tendenciu postupne sa zvyšovať, a tým aj zachovávať a prehlbovať existujúcu diskrimináciu, najmä v prípade osôb patriacich k určitým zraniteľným skupinám vrátane rasových a etnických skupín. Požiadavka, aby boli súbory údajov v čo najväčšej miere úplné a bez chýb, by nemala mať v súvislosti s vývojom a testovaním systémov AI vplyv na používanie techník na zachovanie súkromia. Súbory údajov by mali v rozsahu, v akom si to vyžaduje zamýšľaný účel, zohľadňovať najmä znaky, charakteristiky alebo prvky, ktoré sú špecifické pre konkrétne geografické, kontextuálne, behaviorálne alebo funkčné podmienky, za ktorých sa má systém AI používať. Požiadavky týkajúce sa správy údajov možno splniť využitím tretích strán, ktoré ponúkajú certifikované služby dodržiavania predpisov vrátane overovania správy údajov, integrity súborov údajov a postupov trénovania, validácie a testovania údajov, pokiaľ je zabezpečený súlad s požiadavkami na údaje stanovenými v tomto nariadení.
(68)
Para poder desarrollar y evaluar sistemas de IA de alto riesgo, determinados agentes, tales como proveedores, organismos notificados y otras entidades pertinentes, como centros europeos de innovación digital, instalaciones de ensayo y experimentación e investigadores, deben tener acceso a conjuntos de datos de alta calidad en sus campos de actividad relacionados con el presente Reglamento y deben poder utilizarlos. Los espacios comunes europeos de datos establecidos por la Comisión y la facilitación del intercambio de datos entre empresas y con los Gobiernos en favor del interés público serán esenciales para brindar un acceso fiable, responsable y no discriminatorio a datos de alta calidad con los que entrenar, validar y probar los sistemas de IA. Por ejemplo, en el ámbito de la salud, el espacio europeo de datos sanitarios facilitará el acceso no discriminatorio a datos sanitarios y el entrenamiento, a partir de esos conjuntos de datos, de algoritmos de IA de una manera segura, oportuna, transparente, fiable y que respete la intimidad, y contando con la debida gobernanza institucional. Las autoridades competentes pertinentes, incluidas las sectoriales, que proporcionan acceso a datos o lo facilitan también pueden brindar apoyo al suministro de datos de alta calidad con los que entrenar, validar y probar los sistemas de IA.
(68)
Pokiaľ ide o vývoj a posudzovanie vysokorizikových systémov AI, niektorí aktéri, ako sú poskytovatelia, notifikované osoby a iné príslušné subjekty, ako napríklad centrá digitálnych inovácií, testovacie a experimentálne zariadenia a výskumní pracovníci, by mali mať prístup k súborom vysokokvalitných údajov a využívať ich v rámci oblastí svojich činností, ktoré súvisia s týmto nariadením. Pri poskytovaní dôveryhodného, zodpovedného a nediskriminačného prístupu k vysokokvalitným údajom na účely trénovania, validácie a testovania systémov AI budú mať zásadný význam spoločné európske dátové priestory zriadené Komisiou a uľahčenie výmeny údajov medzi podnikmi a s verejnou správou vo verejnom záujme. Napríklad v oblasti zdravia uľahčí európsky priestor pre údaje týkajúce sa zdravia nediskriminačný prístup k údajom týkajúcim sa zdravia a trénovanie algoritmov AI na týchto súboroch údajov, a to bezpečným, včasným, transparentným a dôveryhodným spôsobom chrániacim súkromie, pričom sa zabezpečí primerané inštitucionálne riadenie. Relevantné príslušné orgány vrátane sektorových orgánov, ktoré poskytujú alebo podporujú prístup k údajom, môžu takisto podporovať poskytovanie vysokokvalitných údajov na trénovanie, validáciu a testovanie systémov AI.
(69)
El derecho a la intimidad y a la protección de datos personales debe garantizarse a lo largo de todo el ciclo de vida del sistema de IA. A este respecto, los principios de minimización de datos y de protección de datos desde el diseño y por defecto, establecidos en el Derecho de la Unión en materia de protección de datos, son aplicables cuando se tratan datos personales. Las medidas adoptadas por los proveedores para garantizar el cumplimiento de estos principios podrán incluir no solo la anonimización y el cifrado, sino también el uso de una tecnología que permita llevar los algoritmos a los datos y el entrenamiento de los sistemas de IA sin que sea necesaria la transmisión entre las partes ni la copia de los datos brutos o estructurados, sin perjuicio de los requisitos en materia de gobernanza de datos establecidos en el presente Reglamento.
(69)
Právo na súkromie a ochranu osobných údajov musí byť zaručené počas celého životného cyklu systému AI. V tejto súvislosti sú pri spracúvaní údajov uplatniteľné zásady špecificky navrhnutej a štandardnej minimalizácie údajov a ochrany údajov stanovené v právnych predpisoch Únie o ochrane údajov. Opatrenia prijaté poskytovateľmi na zabezpečenie súladu s týmito zásadami môžu zahŕňať nielen anonymizáciu a šifrovanie, ale aj používanie technológie, ktorá umožňuje uplatňovanie algoritmov na údaje a umožňuje trénovanie systémov AI bez prenosu medzi stranami alebo kopírovania samotných nespracovaných alebo štruktúrovaných údajov bez toho, aby boli dotknuté požiadavky na správu údajov stanovené v tomto nariadení.
(70)
A fin de proteger los derechos de terceros frente a la discriminación que podría provocar el sesgo de los sistemas de IA, los proveedores deben —con carácter excepcional, en la medida en que sea estrictamente necesario para garantizar la detección y corrección de los sesgos asociados a los sistemas de IA de alto riesgo, con sujeción a las garantías adecuadas para los derechos y libertades fundamentales de las personas físicas y tras la aplicación de todas las condiciones aplicables establecidas en el presente Reglamento, además de las condiciones establecidas en los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y la Directiva (UE) 2016/680— ser capaces de tratar también categorías especiales de datos personales, como cuestión de interés público esencial en el sentido del artículo 9, apartado 2, letra g), del Reglamento (UE) 2016/679 y del artículo 10, apartado 2, letra g), del Reglamento (UE) 2018/1725.
(70)
S cieľom chrániť právo iných osôb pred diskrimináciou, ktorá by mohla byť dôsledkom skreslenia v systémoch AI, by poskytovatelia mali výnimočne v rozsahu, v akom je to nevyhnutne potrebné na účely zabezpečenia zisťovania zaujatosti a nápravy v súvislosti s vysokorizikovými systémami AI, s výhradou primeraných záruk základných práv a slobôd fyzických osôb a po uplatnení všetkých uplatniteľných podmienok stanovených v tomto nariadení popri podmienkach stanovených v nariadeniach (EÚ) 2016/679 a (EÚ) 2018/1725 a smernici (EÚ) 2016/680, mať možnosť spracúvať aj osobitné kategórie osobných údajov ako záležitosť podstatného verejného záujmu v zmysle článku 9 ods. 2 písm. g) nariadenia (EÚ) 2016/679 a článku 10 ods. 2 písm. g) nariadenia (EÚ) 2018/1725.
(71)
Para permitir la trazabilidad de los sistemas de IA de alto riesgo, verificar si cumplen los requisitos previstos en el presente Reglamento, así como vigilar su funcionamiento y llevar a cabo la vigilancia poscomercialización, resulta esencial disponer de información comprensible sobre el modo en que se han desarrollado y sobre su funcionamiento durante toda su vida útil. A tal fin, es preciso llevar registros y disponer de documentación técnica que contenga la información necesaria para evaluar si el sistema de IA de que se trate cumple los requisitos pertinentes y facilitar la vigilancia poscomercialización. Dicha información debe incluir las características generales, las capacidades y las limitaciones del sistema y los algoritmos, datos y procesos de entrenamiento, prueba y validación empleados, así como documentación sobre el sistema de gestión de riesgos pertinente, elaborada de manera clara y completa. La documentación técnica debe mantenerse adecuadamente actualizada durante toda la vida útil del sistema de IA. Además, los sistemas de IA de alto riesgo deben permitir técnicamente el registro automático de acontecimientos, mediante archivos de registro, durante toda la vida útil del sistema.
(71)
Na umožnenie vysledovateľnosti týchto systémov, overenie súladu s požiadavkami podľa tohto nariadenia, ako aj monitorovanie ich prevádzky a ich monitorovanie po uvedení na trh je nevyhnutné mať zrozumiteľné informácie o tom, ako boli vysokorizikové systémy AI vyvinuté a ako fungujú počas celej svojej životnosti. To si vyžaduje vedenie záznamov a dostupnosť technickej dokumentácie obsahujúcej informácie, ktoré sú potrebné na posúdenie súladu systému AI s príslušnými požiadavkami a uľahčenie ich monitorovania po uvedení na trh. Takéto informácie by mali zahŕňať všeobecné charakteristiky, spôsobilosti a obmedzenia systému, algoritmy, údaje, postupy trénovania, testovania a validácie, ktoré boli použité, ako aj dokumentáciu o príslušnom systéme riadenia rizík vypracovanú jasne a komplexne. Technická dokumentácia by sa mala náležite aktualizovať počas celého životného cyklu systému AI. Vysokorizikové systémy AI by mali okrem toho technicky umožňovať automatické zaznamenávanie udalostí prostredníctvom logov počas celej životnosti systému.
(72)
A fin de abordar las preocupaciones relacionadas con la opacidad y complejidad de determinados sistemas de IA y ayudar a los responsables del despliegue a cumplir sus obligaciones en virtud del presente Reglamento, debe exigirse transparencia respecto de los sistemas de IA de alto riesgo antes de su introducción en el mercado o su puesta en servicio. Los sistemas de IA de alto riesgo deben diseñarse de modo que permitan a los responsables del despliegue comprender la manera en que el sistema de IA funciona, evaluar su funcionalidad y comprender sus fortalezas y limitaciones. Los sistemas de IA de alto riesgo deben ir acompañados de la información adecuada en forma de instrucciones de uso. Dicha información debe incluir las características, las capacidades y las limitaciones del funcionamiento del sistema de IA. Estas comprenderían la información sobre las posibles circunstancias conocidas y previsibles relacionadas con el uso del sistema de IA de alto riesgo, incluida la actuación del responsable del despliegue capaz de influir en el comportamiento y el funcionamiento del sistema, en cuyo marco el sistema de IA puede dar lugar a riesgos para la salud, la seguridad y los derechos fundamentales, sobre los cambios que el proveedor haya predeterminado y evaluado para comprobar su conformidad y sobre las medidas pertinentes de supervisión humana, incluidas las medidas para facilitar la interpretación de los resultados de salida del sistema de IA por parte de los responsables del despliegue. La transparencia, incluidas las instrucciones de uso que acompañan a los sistemas de IA, debe ayudar a los responsables del despliegue a utilizar el sistema y tomar decisiones con conocimiento de causa. Los responsables del despliegue deben, entre otras cosas, estar en mejores condiciones para elegir correctamente el sistema que pretenden utilizar a la luz de las obligaciones que les son aplicables, estar informados sobre los usos previstos y excluidos y utilizar el sistema de IA correctamente y según proceda. A fin de mejorar la legibilidad y la accesibilidad de la información incluida en las instrucciones de uso, cuando proceda, deben incluirse ejemplos ilustrativos, por ejemplo sobre las limitaciones y sobre los usos previstos y excluidos del sistema de IA. Los proveedores deben garantizar que toda la documentación, incluidas las instrucciones de uso, contenga información significativa, exhaustiva, accesible y comprensible, que tenga en cuenta las necesidades y los conocimientos previsibles de los responsables del despliegue destinatarios. Las instrucciones de uso deben estar disponibles en una lengua fácilmente comprensible para los responsables del despliegue destinatarios, según lo que decida el Estado miembro de que se trate.
(72)
S cieľom riešiť obavy súvisiace s neprehľadnosťou a zložitosťou určitých systémov AI a pomôcť nasadzujúcim subjektom plniť si povinnosti podľa tohto nariadenia by sa v prípade vysokorizikových systémov AI mala pred ich uvedením na trh alebo do prevádzky vyžadovať transparentnosť. Vysokorizikové systémy AI by mali byť dizajnované tak, aby umožnili nasadzujúcim subjektom pochopiť, ako systém AI funguje, vyhodnotiť jeho funkčnosť a pochopiť jeho silné stránky a obmedzenia. K vysokorizikovým systémom AI by mali byť priložené vhodné informácie vo forme návodu na použitie. Takéto informácie by mali zahŕňať charakteristiky, spôsobilosti a obmedzenia výkonu systému AI. Tie by zahŕňali informácie o možných známych a predvídateľných okolnostiach súvisiacich s používaním vysokorizikového systému AI vrátane činností nasadzujúcich subjektov, ktoré môžu ovplyvniť správanie a výkon systému, pri ktorých môže systém AI viesť k rizikám pre zdravie, bezpečnosť a základné práva, o zmenách, ktoré poskytovateľ vopred určil a posúdil z hľadiska zhody, a o príslušných opatreniach ľudského dohľadu vrátane opatrení na uľahčenie výkladu výstupov systému AI nasadzujúcimi subjektmi. Transparentnosť vrátane sprievodného návodu na použitie by mala pomáhať nasadzujúcim subjektom pri používaní systému a podporovať ich informované rozhodovanie. Nasadzujúce subjekty by okrem iného mali mať lepšiu pozíciu na to, aby si mohli správne vybrať systém, ktorý majú v úmysle používať vzhľadom na povinnosti, ktoré sa na nich vzťahujú, mali by sa vzdelávať o zamýšľaných a vylúčených použitiach a používať systém AI správne a náležite. S cieľom zlepšiť čitateľnosť a prístupnosť informácií uvedených v návode na použitie by sa v prípade potreby mali uviesť názorné príklady, napríklad pokiaľ ide o obmedzenia a zamýšľané a vylúčené použitia systému AI. Poskytovatelia by mali zabezpečiť, aby všetka dokumentácia vrátane návodu na použitie obsahovala zmysluplné, komplexné, prístupné a zrozumiteľné informácie, pričom sa zohľadnia potreby a predvídateľné znalosti cieľových nasadzujúcich subjektov. Návod na použitie by mal byť k dispozícii v jazyku, ktorý je podľa dotknutého členského štátu ľahko zrozumiteľný pre cieľový nasadzujúci subjekt.
(73)
Los sistemas de IA de alto riesgo deben diseñarse y desarrollarse de tal modo que las personas físicas puedan supervisar su funcionamiento, así como asegurarse de que se usan según lo previsto y de que sus repercusiones se abordan a lo largo del ciclo de vida del sistema. A tal fin, el proveedor del sistema debe definir las medidas adecuadas de supervisión humana antes de su introducción en el mercado o puesta en servicio. Cuando proceda, dichas medidas deben garantizar, en concreto, que el sistema esté sujeto a limitaciones operativas incorporadas en el propio sistema que este no pueda desactivar, que responda al operador humano y que las personas físicas a quienes se haya encomendado la supervisión humana posean las competencias, la formación y la autoridad necesarias para desempeñar esa función. También es esencial, según proceda, garantizar que los sistemas de IA de alto riesgo incluyan mecanismos destinados a orientar e informar a las personas físicas a las que se haya asignado la supervisión humana para que tomen decisiones con conocimiento de causa acerca de si intervenir, cuándo hacerlo y de qué manera, a fin de evitar consecuencias negativas o riesgos, o de detener el sistema si no funciona según lo previsto. Teniendo en cuenta las enormes consecuencias para las personas en caso de una correspondencia incorrecta efectuada por determinados sistemas de identificación biométrica, conviene establecer un requisito de supervisión humana reforzada para dichos sistemas, de modo que el responsable del despliegue no pueda actuar ni tomar ninguna decisión basándose en la identificación generada por el sistema, salvo si al menos dos personas físicas la han verificado y confirmado por separado. Dichas personas podrían proceder de una o varias entidades e incluir a la persona que maneja o utiliza el sistema. Este requisito no debe suponer una carga ni retrasos innecesarios y podría bastar con que las verificaciones que las distintas personas efectúen por separado se registren automáticamente en los registros generados por el sistema. Dadas las especificidades de los ámbitos de la garantía del cumplimiento del Derecho, la migración, el control fronterizo y el asilo, ese requisito no debe aplicarse cuando el Derecho nacional o de la Unión considere que su aplicación es desproporcionada.
(73)
Vysokorizikové systémy AI by mali byť dizajnované a vyvinuté tak, aby fyzické osoby mohli dohliadať na ich fungovanie, zabezpečiť, aby sa používali podľa zámeru a aby sa ich vplyvy riešili počas životného cyklu systému. Na tento účel by mal poskytovateľ systému určiť pred jeho uvedením na trh alebo do prevádzky vhodné opatrenia na zabezpečenie ľudského dohľadu. Takýmito opatreniami by sa malo prípadne zaručiť najmä to, že do systému budú zabudované prevádzkové obmedzenia, ktoré samotný systém nedokáže potlačiť, a že systém bude reagovať na ľudského operátora a fyzické osoby, ktorým bol zverený ľudský dohľad, budú mať potrebnú spôsobilosť, odbornú prípravu a právomoc vykonávať túto úlohu. Takisto je podľa potreby nevyhnutné zabezpečiť, aby vysokorizikové systémy AI zahŕňali mechanizmy na usmernenie a informovanie fyzickej osoby, ktorej bol pridelený ľudský dohľad, aby mohla prijímať informované rozhodnutia, či, kedy a ako zasiahnuť s cieľom vyhnúť sa negatívnym dôsledkom alebo rizikám, alebo zastaviť systém, ak nefunguje tak, ako sa plánovalo. Vzhľadom na významné dôsledky pre osoby v prípade nesprávneho stanovenia zhody určitými systémami biometrickej identifikácie je vhodné stanoviť požiadavku posilneného ľudského dohľadu nad týmito systémami, aby nasadzujúci subjekt nemohol prijať žiadne opatrenie ani rozhodnutie na základe identifikácie vyplývajúcej zo systému, pokiaľ to samostatne neoverili a nepotvrdili aspoň dve fyzické osoby. Tieto osoby by mohli byť z jedného alebo viacerých subjektov a mohli by zahŕňať osobu, ktorá prevádzkuje alebo používa systém. Táto požiadavka by nemala spôsobovať zbytočnú záťaž alebo oneskorenia a mohlo by stačiť, aby sa samostatné overenia uvedenými týmito jednotlivými osobami automaticky zaznamenávali do logov generovaných systémom. Vzhľadom na osobitosti oblastí presadzovania práva, migrácie, kontroly hraníc a azylu by sa táto požiadavka nemala uplatňovať, keď sa podľa práva Únie alebo vnútroštátneho práva uplatňovanie uvedenej požiadavky považuje za neprimerané.
(74)
Los sistemas de IA de alto riesgo deben funcionar de manera uniforme durante todo su ciclo de vida y presentar un nivel adecuado de precisión, solidez y ciberseguridad, a la luz de su finalidad prevista y con arreglo al estado actual de la técnica generalmente reconocido. Se anima a la Comisión y las organizaciones y partes interesadas pertinentes a que tengan debidamente en cuenta la mitigación de los riesgos y las repercusiones negativas del sistema de IA. El nivel previsto de los parámetros de funcionamiento debe declararse en las instrucciones de uso que acompañen a los sistemas de IA. Se insta a los proveedores a que comuniquen dicha información a los responsables del despliegue de manera clara y fácilmente comprensible, sin malentendidos ni afirmaciones engañosas. El Derecho de la Unión en materia de metrología legal, incluidas las Directivas 2014/31/UE (35) y 2014/32/UE (36) del Parlamento Europeo y del Consejo, tiene por objeto garantizar la precisión de las mediciones y contribuir a la transparencia y la equidad de las transacciones comerciales. En ese contexto, en cooperación con las partes interesadas y las organizaciones pertinentes, como las autoridades de metrología y de evaluación comparativa, la Comisión debe fomentar, según proceda, el desarrollo de parámetros de referencia y metodologías de medición para los sistemas de IA. Al hacerlo, la Comisión debe tomar nota de los socios internacionales que trabajan en la metrología y los indicadores de medición pertinentes relacionados con la IA y colaborar con ellos.
(74)
Vysokorizikové systémy AI by mali fungovať konzistentne počas celého svojho životného cyklu a mali by spĺňať primeranú úroveň presnosti, spoľahlivosti a kybernetickej bezpečnosti vzhľadom na ich zamýšľaný účel a v súlade so všeobecne uznávaným aktuálnym stavom vývoja. Komisia a relevantné organizácie a zainteresované strany sa nabádajú, aby náležite zvážili zmierňovanie rizík a negatívne vplyvy systému AI. Očakávaná úroveň parametrov výkonu by sa mala uviesť v sprievodnom návode na použitie. Poskytovatelia sa vyzývajú, aby uvedené informácie oznamovali nasadzujúcim subjektom jasným a ľahko zrozumiteľným spôsobom bez nezrozumiteľností alebo zavádzajúcich vyhlásení. Cieľom práva Únie v oblasti legálnej metrológie vrátane smerníc Európskeho parlamentu a Rady 2014/31/EÚ (35) a 2014/32/EÚ (36) je zabezpečiť presnosť meraní a pomôcť pri zabezpečovaní transparentnosti a spravodlivosti obchodných transakcií. V uvedenej súvislosti by Komisia v spolupráci s príslušnými zainteresovanými stranami a organizáciou, ako sú orgány v oblasti metrológie a referenčného porovnávania, mala podľa potreby podporovať vypracovanie referenčných hodnôt a metodík merania pre systémy AI. Komisia by pritom mala vziať na vedomie činnosť medzinárodných partnerov pracujúcich v oblasti metrológie a príslušných ukazovateľov merania súvisiacich s AI a spolupracovať s nimi.
(75)
La solidez técnica es un requisito clave para los sistemas de IA de alto riesgo, que deben ser resilientes en relación con los comportamientos perjudiciales o indeseables por otros motivos que puedan derivarse de limitaciones en los sistemas o del entorno en el que estos funcionan (p. ej., errores, fallos, incoherencias o situaciones inesperadas). Por consiguiente, deben adoptarse medidas técnicas y organizativas para garantizar la solidez de los sistemas de IA de alto riesgo, por ejemplo mediante el diseño y desarrollo de soluciones técnicas adecuadas para prevenir o reducir al mínimo ese comportamiento perjudicial o indeseable. Estas soluciones técnicas pueden incluir, por ejemplo, mecanismos que permitan al sistema interrumpir de forma segura su funcionamiento (planes de prevención contra fallos) en presencia de determinadas anomalías o cuando el funcionamiento tenga lugar fuera de determinados límites predeterminados. El hecho de no adoptar medidas de protección frente a estos riesgos podría tener consecuencias para la seguridad o afectar de manera negativa a los derechos fundamentales, por ejemplo, debido a decisiones equivocadas o resultados de salida erróneos o sesgados generados por el sistema de IA.
(75)
Technická spoľahlivosť je kľúčovou požiadavkou pre vysokorizikové systémy AI. Mali by byť odolné voči škodlivému alebo inak nežiaducemu správaniu, ktoré môže vyplynúť z obmedzení systémov alebo prostredia, v ktorom systémy fungujú (napríklad chyby, poruchy, nezrovnalosti, neočakávané situácie). Preto by sa mali prijať technické a organizačné opatrenia na zabezpečenie spoľahlivosti vysokorizikových systémov AI, napríklad dizajnovaním a vývojom vhodných technických riešení na prevenciu alebo minimalizáciu škodlivého alebo inak nežiaduceho správania. Toto technické riešenie môže zahŕňať napríklad mechanizmy umožňujúce systému bezpečne prerušiť svoju prevádzku (plány pre prípad zlyhania) za určitých anomálií alebo ak sa prevádzka uskutočňuje mimo určitých vopred stanovených hraníc. Neschopnosť chrániť pred týmito rizikami by mohla mať vplyv na bezpečnosť alebo negatívne ovplyvniť základné práva, napríklad v dôsledku chybných rozhodnutí alebo nesprávnych alebo skreslených výstupov vygenerovaných systémom AI.
(76)
La ciberseguridad es fundamental para garantizar que los sistemas de IA resistan a las actuaciones de terceros maliciosos que, aprovechando las vulnerabilidades del sistema, traten de alterar su uso, comportamiento o funcionamiento o de poner en peligro sus propiedades de seguridad. Los ciberataques contra sistemas de IA pueden dirigirse contra activos específicos de la IA, como los conjuntos de datos de entrenamiento (p. ej., envenenamiento de datos) o los modelos entrenados (p. ej., ataques adversarios o inferencia de pertenencia), o aprovechar las vulnerabilidades de los activos digitales del sistema de IA o la infraestructura de TIC subyacente. Por lo tanto, para garantizar un nivel de ciberseguridad adecuado a los riesgos, los proveedores de sistemas de IA de alto riesgo deben adoptar medidas adecuadas, como los controles de seguridad, teniendo también en cuenta, cuando proceda, la infraestructura de TIC subyacente.
(76)
Kybernetická bezpečnosť zohráva kľúčovú úlohu pri zabezpečovaní odolnosti systémov AI voči pokusom o zmenu ich použitia, správania, výkonnosti alebo o ohrozenie ich bezpečnostných vlastností tretími stranami, ktoré so škodlivým úmyslom zneužívajú zraniteľné miesta systému. Kybernetické útoky na systémy AI môžu využívať aktíva špecifické pre AI, ako sú súbory trénovacích údajov (napríklad otrávenie údajov) alebo trénované modely (napríklad nepriateľské útoky alebo zasahovanie do členstva), alebo zneužívať zraniteľné miesta digitálnych aktív systému AI alebo základnej infraštruktúry informačných a komunikačných technológií. Na zabezpečenie úrovne kybernetickej bezpečnosti primeranej rizikám by preto poskytovatelia vysokorizikových systémov AI mali prijať vhodné opatrenia ako napríklad bezpečnostné kontroly a náležite pritom zohľadniť základnú infraštruktúru informačných a komunikačných technológií.
(77)
Sin perjuicio de los requisitos relacionados con la solidez y la precisión establecidos en el presente Reglamento, los sistemas de IA de alto riesgo que entren en el ámbito de aplicación de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, de conformidad con dicho reglamento, pueden demostrar el cumplimiento con los requisitos de ciberseguridad del presente Reglamento mediante el cumplimiento de los requisitos esenciales de ciberseguridad establecidos en dicho reglamento. Cuando los sistemas de IA de alto riesgo cumplan los requisitos esenciales de ciberseguridad de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, debe presumirse que cumplen los requisitos de ciberseguridad del presente Reglamento en la medida en que la satisfacción de esos requisitos se demuestre en la declaración UE de conformidad de emitida con arreglo a dicho reglamento, o partes de esta. A tal fin, la evaluación de los riesgos de ciberseguridad asociados a un producto con elementos digitales clasificado como un sistema de IA de alto riesgo con arreglo al presente Reglamento, realizada en virtud de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, debe tener en cuenta los riesgos para la ciberresiliencia de un sistema de IA por lo que respecta a los intentos de terceros no autorizados de alterar su uso, comportamiento o funcionamiento, incluidas las vulnerabilidades específicas de la IA, como el envenenamiento de datos o los ataques adversarios, así como, en su caso, los riesgos para los derechos fundamentales, tal como exige el presente Reglamento.
(77)
Bez toho, aby boli dotknuté požiadavky týkajúce sa spoľahlivosti a presnosti stanovené v tomto nariadení, môžu vysokorizikové systémy AI, ktoré patria do rozsahu pôsobnosti nariadenia Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami, v súlade s uvedeným nariadením preukázať súlad s kybernetickobezpečnostnými požiadavkami tohto nariadenia splnením základných požiadaviek kybernetickej bezpečnosti stanovených v uvedenom nariadení. Ak vysokorizikové systémy AI spĺňajú základné požiadavky nariadenia Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami, mali by sa považovať za systémy spĺňajúce požiadavky kybernetickej bezpečnosti stanovené v tomto nariadení, pokiaľ sa splnenie týchto požiadaviek preukáže v EÚ vyhlásení o zhode alebo jeho častiach vydanom podľa uvedeného nariadenia. Na tento účel by sa v posúdení kybernetickobezpečnostných rizík spojených s produktom s digitálnymi prvkami klasifikovanými ako vysokorizikový systém AI podľa tohto nariadenia, ktoré sa vykonáva podľa nariadenia Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami, mali zohľadniť riziká pre kybernetickú odolnosť systému AI, pokiaľ ide o pokusy neoprávnených tretích strán zmeniť jeho používanie, správanie alebo výkon vrátane zraniteľností špecifických pre AI, ako sú otrávenie údajov alebo nepriateľské útoky, ako aj prípadné riziká pre základné práva, ako sa vyžaduje v tomto nariadení.
(78)
El procedimiento de evaluación de la conformidad establecido en el presente Reglamento debe aplicarse en relación con los requisitos esenciales de ciberseguridad de un producto con elementos digitales regulado por un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales y clasificado como sistema de IA de alto riesgo con arreglo al presente Reglamento. Sin embargo, esta norma no debe dar lugar a una reducción del nivel de garantía necesario para los productos críticos con elementos digitales sujetos a un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales. Por consiguiente, no obstante lo dispuesto en esta norma, los sistemas de IA de alto riesgo que entran dentro del ámbito de aplicación del presente Reglamento y que también se consideran productos críticos importantes con elementos digitales en virtud de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, y a los que se aplica el procedimiento de evaluación de la conformidad fundamentado en un control interno que se establece en un anexo del presente Reglamento, están sujetos a lo dispuesto en un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales en materia de evaluación de la conformidad por lo que se refiere a los requisitos esenciales de ciberseguridad de dicho reglamento. En tal caso, en relación con todos los demás aspectos que entren en el ámbito de aplicación del presente Reglamento, debe aplicarse lo dispuesto en el anexo VI del presente Reglamento en materia de evaluación de la conformidad fundamentada en un control interno. Habida cuenta de los conocimientos y la experiencia de la Agencia de la Unión Europea para la Ciberseguridad (ENISA) en materia de política de ciberseguridad y de las tareas que se le encomiendan en virtud del Reglamento (UE) 2019/881 del Parlamento Europeo y del Consejo (37), la Comisión debe cooperar con ENISA en las cuestiones relacionadas con la ciberseguridad de los sistemas de IA.
(78)
Postup posudzovania zhody stanovený v tomto nariadení by sa mal uplatňovať v súvislosti so základnými požiadavkami kybernetickej bezpečnosti produktu s digitálnymi prvkami, na ktorý sa vzťahuje nariadenie Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami a ktorý je podľa tohto nariadenia klasifikovaný ako vysokorizikový systém AI. Toto pravidlo by však nemalo viesť k zníženiu potrebnej úrovne záruky pre kritické produkty s digitálnymi prvkami, na ktoré sa vzťahuje nariadenie Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami. Odchylne od tohto pravidla by preto vysokorizikové systémy AI, ktoré patria do rozsahu pôsobnosti nariadenia a zároveň sú kvalifikované ako významné a kritické produkty s digitálnymi prvkami podľa nariadenia Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami a na ktoré sa uplatňuje postup posudzovania zhody na základe vnútornej kontroly stanovený v prílohe k tomuto nariadeniu, mali podliehať ustanoveniam nariadenia Európskeho parlamentu a Rady o horizontálnych požiadavkách kybernetickej bezpečnosti pre produkty s digitálnymi prvkami týkajúcim sa posudzovania zhody, pokiaľ ide o základné požiadavky uvedeného nariadenia na kybernetickú bezpečnosť. V tomto prípade by sa na všetky ostatné aspekty, na ktoré sa vzťahuje toto nariadenie, mali uplatňovať príslušné ustanovenia o posudzovaní zhody na základe vnútornej kontroly stanovené v prílohe k tomuto nariadeniu. Na základe poznatkov a odborných znalostí agentúry ENISA v oblasti politiky kybernetickej bezpečnosti a úloh pridelených agentúre ENISA podľa nariadenia Európskeho parlamentu a Rady (EÚ) 2019/881 (37) by Komisia mala spolupracovať s agentúrou ENISA v otázkach týkajúcich sa kybernetickej bezpečnosti systémov AI.
(79)
Conviene que una persona física o jurídica concreta, definida como el proveedor, asuma la responsabilidad asociada a la introducción en el mercado o la puesta en servicio de un sistema de IA de alto riesgo, con independencia de si dicha persona física o jurídica es o no quien diseñó o desarrolló el sistema.
(79)
Je vhodné, aby konkrétna fyzická alebo právnická osoba vymedzená ako poskytovateľ prevzala zodpovednosť za uvedenie vysokorizikového systému AI na trh alebo do prevádzky bez ohľadu na to, či je táto fyzická alebo právnická osoba osobou, ktorá systém dizajnovala alebo vyvinula.
(80)
Como signatarios de la Convención sobre los Derechos de las Personas con Discapacidad, la Unión y todos los Estados miembros están legalmente obligados a proteger a las personas con discapacidad contra la discriminación y a promover su igualdad, a garantizar que las personas con discapacidad tengan acceso, en igualdad de condiciones con las demás, a las tecnologías y sistemas de la información y las comunicaciones, y a garantizar el respeto a la intimidad de las personas con discapacidad. Habida cuenta de la importancia y el uso crecientes de los sistemas de IA, la aplicación de los principios de diseño universal a todas las nuevas tecnologías y servicios debe garantizar el acceso pleno e igualitario de todas las personas a las que puedan afectar las tecnologías de IA o que puedan utilizar dichas tecnologías, incluidas las personas con discapacidad, de forma que se tenga plenamente en cuenta su dignidad y diversidad inherentes. Por ello es esencial que los proveedores garanticen el pleno cumplimiento de los requisitos de accesibilidad, incluidas la Directiva (UE) 2016/2102 del Parlamento Europeo y del Consejo (38) y la Directiva (UE) 2019/882. Los proveedores deben garantizar el cumplimiento de estos requisitos desde el diseño. Por consiguiente, las medidas necesarias deben integrarse en la medida de lo posible en el diseño de los sistemas de IA de alto riesgo.
(80)
Únia a členské štáty sú ako signatári Dohovoru OSN o právach osôb so zdravotným postihnutím právne zaviazané chrániť osoby so zdravotným postihnutím pred diskrimináciou a podporovať ich rovnosť, zabezpečiť, aby osoby so zdravotným postihnutím mali rovnaký prístup k informačným a komunikačným technológiám a systémom ako ostatní, a zabezpečiť rešpektovanie súkromia osôb so zdravotným postihnutím. Vzhľadom na rastúci význam a využívanie systémov AI by sa uplatňovaním zásad univerzálneho dizajnu na všetky nové technológie a služby mal zabezpečiť úplný a rovnaký prístup pre každého, koho sa technológie AI potenciálne týkajú alebo kto ich používa, vrátane osôb so zdravotným postihnutím, a to spôsobom, ktorý plne zohľadňuje ich prirodzenú dôstojnosť a rozmanitosť. Preto je nevyhnutné, aby poskytovatelia zabezpečili úplný súlad s požiadavkami na prístupnosť vrátane smernice Európskeho parlamentu a Rady (EÚ) 2016/2102 (38) a smernice (EÚ) 2019/882. Poskytovatelia by mali zabezpečiť súlad s týmito požiadavkami už v štádiu návrhu. Potrebné opatrenia by sa preto mali čo najviac začleniť do dizajnu vysokorizikového systému AI.
(81)
El proveedor debe instaurar un sistema de gestión de la calidad sólido, velar por que se siga el procedimiento de evaluación de la conformidad necesario, elaborar la documentación pertinente y establecer un sistema de vigilancia poscomercialización sólido. Los proveedores de sistemas de IA de alto riesgo que estén sujetos a obligaciones relativas a los sistemas de gestión de la calidad con arreglo al Derecho sectorial pertinente de la Unión deben tener la posibilidad de integrar los elementos del sistema de gestión de la calidad establecido en el presente Reglamento en el sistema de gestión de la calidad establecido en dicho Derecho sectorial de la Unión. La complementariedad entre el presente Reglamento y el Derecho sectorial vigente de la Unión también debe tenerse en cuenta en las futuras actividades de normalización o en las orientaciones adoptadas por la Comisión al respecto. Las autoridades públicas que pongan en servicio sistemas de IA de alto riesgo para su propio uso pueden aprobar y aplicar las normas que regulen el sistema de gestión de la calidad en el marco del sistema de gestión de la calidad adoptado a escala nacional o regional, según proceda, teniendo en cuenta las particularidades del sector y las competencias y la organización de la autoridad pública de que se trate.
(81)
Poskytovateľ by mal zaviesť spoľahlivý systém riadenia kvality, zabezpečiť dokončenie požadovaného postupu posudzovania zhody, vypracovať príslušnú dokumentáciu a vytvoriť spoľahlivý systém monitorovania po uvedení na trh. Poskytovatelia vysokorizikových systémov AI, na ktorých sa vzťahujú povinnosti týkajúce sa systémov riadenia kvality podľa príslušných odvetvových právnych predpisov Únie, by mali mať možnosť zahrnúť prvky systému riadenia kvality stanoveného v tomto nariadení ako súčasť existujúceho systému riadenia kvality stanoveného v uvedených iných odvetvových právnych predpisov Únie. Pri budúcich normalizačných činnostiach alebo usmerneniach prijatých Komisiou by sa mala zohľadniť aj komplementárnosť medzi týmto nariadením a existujúcim odvetvovým právom Únie. Orgány verejnej moci, ktoré uvádzajú do prevádzky vysokorizikové systémy AI pre vlastnú potrebu, môžu prijať a vykonávať pravidlá systému riadenia kvality ako súčasť systému riadenia kvality prijatého na vnútroštátnej prípadne regionálnej úrovni, pričom zohľadnia osobitosti odvetvia a právomoci a organizáciu dotknutého orgánu verejnej moci.
(82)
Para permitir la ejecución del presente Reglamento y ofrecer igualdad de condiciones a los operadores, es importante velar por que una persona establecida en la Unión pueda, en cualquier circunstancia, facilitar a las autoridades toda la información necesaria sobre la conformidad de un sistema de IA, teniendo en cuenta las distintas formas en que se pueden ofrecer productos digitales. Por lo tanto, antes de comercializar sus sistemas de IA en la Unión, los proveedores establecidos fuera de su territorio deben designar, mediante un mandato escrito, a un representante autorizado que se encuentre en la Unión. El representante autorizado desempeña un papel fundamental a la hora de velar por la conformidad de los sistemas de IA de alto riesgo introducidos en el mercado o puestos en servicio en la Unión por esos proveedores no establecidos en la Unión y servir de persona de contacto establecida en la Unión.
(82)
S cieľom umožniť presadzovanie tohto nariadenia a vytvoriť rovnaké podmienky pre prevádzkovateľov je pri zohľadnení rôznych foriem sprístupňovania digitálnych produktov dôležité zabezpečiť, aby osoba usadená v Únii mohla za každých okolností poskytnúť orgánom všetky potrebné informácie o súlade systému AI. Preto poskytovatelia usadení v tretích krajinách by mali vymenovať písomným mandátom pred sprístupnením svojich systémov AI v Únii splnomocneného zástupcu usadeného v Únii. V prípade poskytovateľov, ktorí nie sú usadení v Únii, zohráva tento splnomocnený zástupca kľúčovú úlohu pri zabezpečovaní súladu vysokorizikových systémov AI uvedených na trh alebo do prevádzky v Únii týmito poskytovateľmi a slúži ako ich kontaktná osoba usadená v Únii.
(83)
Teniendo en cuenta la naturaleza y la complejidad de la cadena de valor de los sistemas de IA y de conformidad con el nuevo marco legislativo, es esencial garantizar la seguridad jurídica y facilitar el cumplimiento del presente Reglamento. Por ello es necesario aclarar la función y las obligaciones específicas de los operadores pertinentes de toda dicha cadena de valor, como los importadores y los distribuidores, que pueden contribuir al desarrollo de sistemas de IA. En determinadas situaciones, esos operadores pueden desempeñar más de una función al mismo tiempo y, por lo tanto, deben cumplir de forma acumulativa todas las obligaciones pertinentes asociadas a dichas funciones. Por ejemplo, un operador puede actuar como distribuidor e importador al mismo tiempo.
(83)
Vzhľadom na povahu a zložitosť hodnotového reťazca systémov AI a v súlade s novým legislatívnym rámcom je nevyhnutné zabezpečiť právnu istotu a uľahčiť súlad s týmto nariadením. Preto je potrebné objasniť úlohu a osobitné povinnosti príslušných prevádzkovateľov v uvedenom hodnotovom reťazci, ako sú dovozcovia a distribútori, ktorí môžu prispievať k vývoju systémov AI. V určitých situáciách by takíto prevádzkovatelia mohli konať vo viac ako jednej role súčasne, a preto by mali kumulatívne plniť všetky príslušné povinnosti spojené s týmito rolami. Prevádzkovateľ by napríklad mohol konať súčasne ako distribútor a dovozca.
(84)
Para garantizar la seguridad jurídica, es necesario aclarar que, en determinadas condiciones específicas, debe considerarse proveedor de un sistema de IA de alto riesgo a cualquier distribuidor, importador, responsable del despliegue u otro tercero que, por tanto, debe asumir todas las obligaciones pertinentes. Este sería el caso si, por ejemplo, esa persona pone su nombre o marca en un sistema de IA de alto riesgo ya introducido en el mercado o puesto en servicio, sin perjuicio de los acuerdos contractuales que estipulen otra distribución de las obligaciones. Este también sería el caso si dicha parte modifica sustancialmente un sistema de IA de alto riesgo que ya se haya introducido en el mercado o puesto en servicio de tal manera que el sistema modificado siga siendo un sistema de IA de alto riesgo de conformidad con el presente Reglamento, o si modifica la finalidad prevista de un sistema de IA, como un sistema de IA de uso general, que ya se haya introducido en el mercado o puesto en servicio y que no esté clasificado como sistema de alto riesgo, de tal manera que el sistema modificado pase a ser un sistema de IA de alto riesgo de conformidad con el presente Reglamento. Esas disposiciones deben aplicarse sin perjuicio de las disposiciones más específicas establecidas en determinados actos legislativos de armonización de la Unión basados en el nuevo marco legislativo que se deben aplicar en conjunción con el presente Reglamento. Por ejemplo, el artículo 16, apartado 2, del Reglamento (UE) 2017/745, que establece que determinados cambios no deben considerarse modificaciones de un producto que puedan afectar al cumplimiento de los requisitos aplicables, debe seguir aplicándose a los sistemas de IA de alto riesgo que sean productos sanitarios en el sentido de dicho Reglamento.
(84)
V záujme zabezpečenia právnej istoty je potrebné objasniť, že za určitých osobitných podmienok by sa každý distribútor, dovozca, nasadzujúci subjekt alebo iná tretia strana mali považovať za poskytovateľa vysokorizikového systému AI, a preto by mali prevziať všetky príslušné povinnosti. Bolo by to tak v prípade, ak by táto strana uviedla svoje meno alebo ochrannú známku na vysokorizikovom systéme AI, ktorý už bol uvedený na trh alebo do prevádzky, bez toho, aby boli dotknuté zmluvné dojednania, v ktorých sa stanovuje, že povinnosti sú pridelené inak. Bolo by to tak aj v prípade, ak táto strana vykoná podstatnú zmenu vysokorizikového systému AI, ktorý už bol uvedený na trh alebo už do prevádzky, a to tak, že zostane vysokorizikovým systémom AI v súlade s týmto nariadením, alebo ak zmení zamýšľaný účel systému AI vrátane systému AI na všeobecné účely, ktorý nebol klasifikovaný ako vysokorizikový a už bol uvedený na trh alebo do prevádzky, a to tak, že systém AI sa stane vysokorizikovým systémom AI v súlade s týmto nariadením. Uvedené ustanovenia by sa mali uplatňovať bez toho, aby boli dotknuté konkrétnejšie ustanovenia zavedené v určitých harmonizačných právnych predpisoch Únie založených na novom legislatívnom rámci, spolu s ktorými by sa malo uplatňovať toto nariadenie. Napríklad článok 16 ods. 2 nariadenia (EÚ) 2017/745, v ktorom sa stanovuje, že určité zmeny by sa nemali považovať za úpravy pomôcky, ktoré by mohli ovplyvniť jej súlad s uplatniteľnými požiadavkami, by sa mal naďalej uplatňovať na vysokorizikové systémy AI, ktoré sú zdravotníckymi pomôckami v zmysle uvedeného nariadenia.
(85)
Los sistemas de IA de uso general pueden utilizarse como sistemas de IA de alto riesgo por sí solos o ser componentes de sistemas de IA de alto riesgo. Así pues, debido a su particular naturaleza y a fin de garantizar un reparto equitativo de responsabilidades a lo largo de toda la cadena de valor, los proveedores de tales sistemas, con independencia de que estos sistemas puedan ser utilizados como sistemas de IA de alto riesgo por sí solos por otros proveedores o como componentes de sistemas de IA de alto riesgo, y salvo que se disponga otra cosa en el presente Reglamento, deben cooperar estrechamente con los proveedores de los sistemas de IA de alto riesgo correspondientes para que estos puedan cumplir las obligaciones pertinentes en virtud del presente Reglamento, así como con las autoridades competentes establecidas en virtud del presente Reglamento.
(85)
Systémy AI na všeobecné účely sa môžu používať ako vysokorizikové systémy AI samy osebe alebo môžu byť komponentmi iných vysokorizikových systémov AI. Vzhľadom na osobitnú povahu systémov AI na všeobecné účely a s cieľom zabezpečiť spravodlivé rozdelenie zodpovednosti v rámci hodnotového reťazca AI by poskytovatelia takýchto systémov mali bez ohľadu na to, či ich iní poskytovatelia používajú ako vysokorizikové systémy AI ako také alebo ako komponenty vysokorizikových systémov AI, a ak sa nestanovuje inak v tomto nariadení, mali úzko spolupracovať s poskytovateľmi príslušných vysokorizikových systémov AI s cieľom umožniť ich súlad s príslušnými povinnosťami podľa tohto nariadenia a spolupracovať aj s príslušnými orgánmi zriadenými podľa tohto nariadenia.
(86)
Cuando, con arreglo a las condiciones establecidas en el presente Reglamento, el proveedor que introdujo inicialmente el sistema de IA en el mercado o lo puso en servicio ya no deba considerarse el proveedor a los efectos del presente Reglamento, y cuando dicho proveedor no haya excluido expresamente la transformación del sistema de IA en un sistema de IA de alto riesgo, el primer proveedor debe, no obstante, cooperar estrechamente, facilitar la información necesaria y proporcionar el acceso técnico u otra asistencia que quepa esperar razonablemente y que sean necesarios para el cumplimiento de las obligaciones establecidas en el presente Reglamento, en particular en lo que respecta al cumplimiento de la evaluación de la conformidad de los sistemas de IA de alto riesgo.
(86)
Ak by sa za podmienok stanovených v tomto nariadení poskytovateľ, ktorý pôvodne uviedol systém AI na trh alebo do prevádzky, už nemal považovať za poskytovateľa na účely tohto nariadenia a ak tento poskytovateľ výslovne nevylúčil zmenu systému AI na vysokorizikový systém AI, tento bývalý poskytovateľ by mal napriek tomu úzko spolupracovať a sprístupniť potrebné informácie a poskytnúť odôvodnene očakávaný technický prístup a inú pomoc, ktoré sú potrebné na splnenie povinností stanovených v tomto nariadení, najmä pokiaľ ide o súlad s posudzovaním zhody vysokorizikových systémov AI.
(87)
Además, cuando un sistema de IA de alto riesgo que sea un componente de seguridad de un producto que entre dentro del ámbito de aplicación de un acto legislativo de armonización de la Unión basado en el nuevo marco legislativo no se introduzca en el mercado ni se ponga en servicio de forma independiente del producto, el fabricante del producto, tal como se define en el acto legislativo pertinente, debe cumplir las obligaciones que el presente Reglamento impone al proveedor y, en particular, debe garantizar que el sistema de IA integrado en el producto final cumpla los requisitos del presente Reglamento.
(87)
Ak sa navyše vysokorizikový systém AI, ktorý je bezpečnostným komponentom výrobku, ktorý patrí do rozsahu pôsobnosti harmonizačných právnych predpisov Únie založených na novom legislatívnom rámci, neuvádza na trh ani do prevádzky nezávisle od daného výrobku, výrobca výrobku vymedzený v uvedených právnych predpisoch by mal dodržiavať povinnosti poskytovateľa stanovené v tomto nariadení a mal by najmä zabezpečiť, aby systém AI zabudovaný do konečného výrobku spĺňal požiadavky tohto nariadenia.
(88)
A lo largo de la cadena de valor de la IA, numerosas partes suministran a menudo no solo sistemas, herramientas y servicios de IA, sino también componentes o procesos que el proveedor incorpora al sistema de IA con diversos objetivos, como el entrenamiento de modelos, el reentrenamiento de modelos, la prueba y evaluación de modelos, la integración en el software u otros aspectos del desarrollo de modelos. Dichas partes desempeñan un papel importante en la cadena de valor en relación con el proveedor del sistema de IA de alto riesgo en el que se integran sus sistemas, herramientas, servicios, componentes o procesos de IA, y deben proporcionar a dicho proveedor, mediante acuerdo escrito, la información, las capacidades, el acceso técnico y demás asistencia que sean necesarios habida cuenta del estado actual de la técnica generalmente reconocido, a fin de que el proveedor pueda cumplir íntegramente las obligaciones establecidas en el presente Reglamento, sin comprometer sus propios derechos de propiedad intelectual e industrial o secretos comerciales.
(88)
V rámci hodnotového reťazca AI viaceré strany často dodávajú systémy, nástroje a služby AI, ale aj komponenty alebo procesy, ktoré poskytovateľ začlení do systému AI s rôznymi cieľmi vrátane trénovania modelov, pretrénovania modelov, testovania a hodnotenia modelov, integrácie do softvéru alebo iných aspektov vývoja modelu. Uvedené strany zohrávajú dôležitú úlohu v hodnotovom reťazci vo vzťahu k poskytovateľovi vysokorizikového systému AI, do ktorého sú ich systémy, nástroje, služby, komponenty alebo procesy AI integrované, a mali by tomuto poskytovateľovi poskytnúť na základe písomnej dohody potrebné informácie, spôsobilosti, technický prístup a inú pomoc na základe všeobecne uznávaného aktuálneho stavu vývoja, aby si tento poskytovateľ mohol v plnej miere plniť povinnosti stanovené v tomto nariadení, a to bez toho, aby boli ohrozené ich vlastné práva duševného vlastníctva alebo obchodné tajomstvá.
(89)
A los terceros que ponen a disposición del público herramientas, servicios, procesos o componentes de IA que no sean modelos de IA de uso general no se les debe imponer la obligación de cumplir los requisitos relativos a las responsabilidades a lo largo de la cadena de valor de la IA, en particular por lo que respecta al proveedor que haya utilizado o integrado dichas herramientas, servicios, procesos o componentes de IA, cuando el acceso a dichas herramientas, servicios, procesos o componentes de IA esté sujeto a una licencia libre y de código abierto. No obstante, se debe animar a los desarrolladores de herramientas, servicios, procesos o componentes de IA libres y de código abierto que no sean modelos de IA de uso general a que apliquen prácticas de documentación ampliamente adoptadas, como tarjetas de modelo y hojas de datos, como una forma de acelerar el intercambio de información a lo largo de la cadena de valor de la IA, permitiendo la promoción en la Unión de sistemas de IA fiables.
(89)
Tretie strany, ktoré sprístupňujú verejnosti nástroje, služby, procesy, alebo komponenty AI iné ako modely AI na všeobecné účely, by nemali byť povinné dodržiavať požiadavky zamerané na povinnosti v celom hodnotovom reťazci AI, najmä voči poskytovateľovi, ktorý ich použil alebo integroval, ak sa tieto nástroje, služby, procesy alebo komponenty AI sprístupňujú na základe bezplatnej licencie s otvoreným zdrojovým kódom. Vývojári nástrojov, služieb, procesov, alebo komponentov AI iných ako modely AI na všeobecné účely, dostupných zdarma a s otvoreným zdrojovým kódom, by sa mali nabádať, aby implementovali všeobecne prijaté postupy pre dokumentáciu, ako sú vzorové karty a údajové hárky, ako spôsob urýchlenia výmeny informácií v rámci hodnotového reťazca AI, čím sa umožní podpora dôveryhodných systémov AI v Únii.
(90)
La Comisión podría elaborar y recomendar cláusulas contractuales tipo, de carácter voluntario, entre los proveedores de sistemas de IA de alto riesgo y los terceros que suministren herramientas, servicios, componentes o procesos que se utilicen o integren en los sistemas de IA de alto riesgo, a fin de facilitar la cooperación a lo largo de la cadena de valor. Cuando elabore estas cláusulas contractuales tipo de carácter voluntario, la Comisión también debe tener en cuenta los posibles requisitos contractuales aplicables en determinados sectores o modelos de negocio.
(90)
Komisia by mohla vypracovať a odporučiť nezáväzné vzorové zmluvné podmienky medzi poskytovateľmi vysokorizikových systémov AI a tretími stranami, ktoré dodávajú nástroje, služby, komponenty alebo procesy, ktoré sa používajú vo vysokorizikových systémoch AI alebo integrujú do takýchto systémov, s cieľom uľahčiť spoluprácu v celom hodnotovom reťazci. Pri vypracúvaní nezáväzných vzorových zmluvných podmienok by Komisia mala zohľadniť možné zmluvné požiadavky uplatniteľné v konkrétnych odvetviach alebo obchodných prípadoch.
(91)
Habida cuenta de las características de los sistemas de IA y de los riesgos que su uso lleva aparejado para la seguridad y los derechos fundamentales, también en lo que respecta a la necesidad de garantizar la correcta vigilancia del funcionamiento de un sistema de IA en un entorno real, conviene establecer las responsabilidades específicas de los responsables del despliegue. En particular, los responsables del despliegue deben adoptar las medidas técnicas y organizativas adecuadas para garantizar que utilizan los sistemas de IA de alto riesgo conforme a las instrucciones de uso. Además, es preciso definir otras obligaciones en relación con la vigilancia del funcionamiento de los sistemas de IA y la conservación de registros, según proceda. Asimismo, los responsables del despliegue deben garantizar que las personas encargadas de poner en práctica las instrucciones de uso y la supervisión humana establecidas en el presente Reglamento tengan las competencias necesarias, en particular un nivel adecuado de alfabetización, formación y autoridad en materia de IA para desempeñar adecuadamente dichas tareas. Dichas obligaciones deben entenderse sin perjuicio de otras obligaciones que tenga el responsable del despliegue en relación con los sistemas de IA de alto riesgo con arreglo al Derecho nacional o de la Unión.
(91)
Vzhľadom na povahu systémov AI a riziká pre bezpečnosť a základné práva, ktoré môžu súvisieť s ich používaním, a to aj pokiaľ ide o potrebu zabezpečiť riadne monitorovanie výkonu systému AI v reálnom prostredí, je vhodné stanoviť osobitné povinnosti nasadzujúce subjekty. Nasadzujúce subjekty by hlavne mali prijať technické a organizačné opatrenia s cieľom zabezpečiť, že používajú vysokorizikové systémy AI v súlade s návodom na použitie a mali by sa stanoviť určité ďalšie povinnosti, pokiaľ ide o monitorovanie fungovania systémov AI a prípadne aj vedenie záznamov. Nasadzujúce subjekty by okrem toho mali zabezpečiť, aby osoby poverené implementáciou návodu na použitie a vykonávaním ľudského dohľadu, ako sa stanovuje v tomto nariadení, mali potrebnú spôsobilosť, najmä primeranú úroveň gramotnosti v oblasti AI, odbornú prípravu a právomoc riadne plniť tieto úlohy. Týmito povinnosťami by nemali byť dotknuté iné povinnosti nasadzujúcich subjektov v súvislosti s vysokorizikovými systémami AI podľa práva Únie alebo vnútroštátneho práva.
(92)
El presente Reglamento se entiende sin perjuicio de la obligación de los empleadores de informar o de informar y consultar a los trabajadores o a sus representantes, en virtud del Derecho o las prácticas nacionales o de la Unión, incluida la Directiva 2002/14/CE del Parlamento Europeo y del Consejo (39), sobre la decisión de poner en servicio o utilizar sistemas de IA. Se debe velar por que se informe a los trabajadores y a sus representantes sobre el despliegue previsto de sistemas de IA de alto riesgo en el lugar de trabajo incluso aunque no se cumplan las condiciones de las citadas obligaciones de información o de información y consulta previstas en otros instrumentos jurídicos. Además, este derecho de información es accesorio y necesario para el objetivo de protección de los derechos fundamentales que subyace al presente Reglamento. Por consiguiente, debe establecerse en el presente Reglamento un requisito de información a tal efecto, sin que dicho requisito afecte a ningún derecho vigente de los trabajadores.
(92)
Týmto nariadením nie sú dotknuté povinnosti zamestnávateľov informovať pracovníkov alebo ich zástupcov a konzultovať s nimi podľa práva a praxe Únie alebo vnútroštátneho práva a praxe vrátane smernice Európskeho parlamentu a Rady 2002/14/ES (39), pokiaľ ide o rozhodnutia o uvedení do prevádzky alebo používaní systémov AI. Naďalej je potrebné zabezpečiť informovanie pracovníkov a ich zástupcov o plánovanom nasadení vysokorizikových systémov AI na pracovisku, keď nie sú splnené podmienky pre uvedené informovanie alebo informačné a konzultačné povinnosti stanovené v iných právnych nástrojoch. Takéto právo na informácie je navyše doplnkové a nevyhnutné z hľadiska cieľa ochrany základných práv, ktorý je základom tohto nariadenia. Preto by sa v tomto nariadení mala stanoviť požiadavka na informácie na tento účel bez toho, aby boli dotknuté akékoľvek existujúce práva pracovníkov.
(93)
Aunque los riesgos relacionados con los sistemas de IA pueden derivarse de su diseño, también pueden derivarse riesgos del uso que se hace de ellos. Por ello, los responsables del despliegue de un sistema de IA de alto riesgo desempeñan un papel fundamental a la hora de garantizar la protección de los derechos fundamentales, como complemento de las obligaciones del proveedor al desarrollar el sistema de IA. Los responsables del despliegue se encuentran en una posición óptima para comprender el uso concreto que se le dará al sistema de IA de alto riesgo y pueden, por lo tanto, detectar potenciales riesgos significativos que no se previeron en la fase de desarrollo, al tener un conocimiento más preciso del contexto de uso y de las personas o los colectivos de personas que probablemente se vean afectados, entre los que se incluyen colectivos vulnerables. Los responsables del despliegue de los sistemas de IA de alto riesgo que se enumeran en un anexo del presente Reglamento también desempeñan un papel fundamental a la hora de informar a las personas físicas y, cuando tomen decisiones o ayuden a tomar decisiones relacionadas con personas físicas, deben, en su caso, informar a las personas físicas de que son objeto de la utilización de un sistema de IA de alto riesgo. Esta información debe incluir la finalidad prevista y el tipo de decisiones que se toman. El responsable del despliegue también debe informar a las personas físicas de su derecho a una explicación con arreglo al presente Reglamento. Por lo que respecta a los sistemas de IA de alto riesgo que se utilizan a efectos de la garantía del cumplimiento del Derecho, esa obligación debe ejecutarse de conformidad con el artículo 13 de la Directiva (UE) 2016/680.
(93)
Aj keď riziká súvisiace so systémami AI môžu vyplývať zo spôsobu, akým sú tieto systémy dizajnované, riziká môžu vyplývať aj z toho, ako sa tieto systémy AI používajú. Subjekty nasadzujúce vysokorizikový systém AI preto zohrávajú rozhodujúcu úlohu pri zabezpečovaní ochrany základných práv a dopĺňajú povinnosti poskytovateľa pri vývoji systému AI. Nasadzujúce subjekty majú najlepšie predpoklady na to, aby pochopili, ako sa bude vysokorizikový systém AI konkrétne používať, preto môžu identifikovať potenciálne významné riziká, ktoré sa vo fáze vývoja nepredpokladali, a to vďaka presnejším znalostiam kontextu používania, osôb alebo skupín osôb, ktorých sa to môže týkať, vrátane zraniteľných skupín. Subjekty nasadzujúce vysokorizikové systémy AI uvedené v prílohe k tomuto nariadeniu zároveň zohrávajú kritickú úlohu pri informovaní fyzických osôb a pri prijímaní rozhodnutí alebo prípadne pri pomoci s prijímaním rozhodnutí týkajúcich sa fyzických osôb by mali informovať fyzické osoby o tom, že sa na ne vzťahuje použitie vysokorizikového systému AI. Tieto informácie zahŕňajú zamýšľaný účel a typ rozhodnutí, ktoré prijímajú. Nasadzujúci subjekt by mal takisto informovať fyzické osoby o ich práve na vysvetlenie stanovenom v tomto nariadení. Pokiaľ ide o vysokorizikové systémy AI používané na účely presadzovania práva, uvedená povinnosť by sa mala implementovať v súlade s článkom 13 smernice (EÚ) 2016/680.
(94)
Todo tratamiento de datos biométricos que se produzca en el marco de la utilización de un sistema de IA para la identificación biométrica con fines de garantía del cumplimiento del Derecho debe cumplir lo dispuesto en el artículo 10 de la Directiva (UE) 2016/680, que permite dicho tratamiento solo cuando sea estrictamente necesario, con sujeción a las salvaguardias adecuadas para los derechos y libertades del interesado y cuando así lo autorice el Derecho de la Unión o de los Estados miembros. Dicho uso, cuando esté autorizado, también debe respetar los principios establecidos en el artículo 4, apartado 1, de la Directiva (UE) 2016/680, como, entre otros, que el tratamiento sea lícito y leal, la transparencia, la limitación de la finalidad, la exactitud y la limitación del plazo de conservación.
(94)
Každé spracúvanie biometrických údajov pri používaní systémov AI na biometrickú identifikáciu na účely presadzovania práva musí byť v súlade s článkom 10 smernice (EÚ) 2016/680, ktorý umožňuje takéto spracúvanie len vtedy, keď je to nevyhnutne potrebné, s výhradou primeraných záruk ochrany práv a slobôd dotknutej osoby a ak je to povolené právom Únie alebo členského štátu. Pri takomto používaní, ak je povolené, sa musia dodržiavať aj zásady stanovené v článku 4 ods. 1 smernice (EÚ) 2016/680 vrátane zákonnosti, spravodlivosti a transparentnosti, obmedzenia účelu, presnosti a obmedzenia uchovávania.
(95)
Sin perjuicio del Derecho de la Unión aplicable, en particular el Reglamento (UE) 2016/679 y la Directiva (UE) 2016/680, teniendo en cuenta el carácter intrusivo de los sistemas de identificación biométrica remota en diferido, el uso de este tipo de sistemas debe estar sujeto a garantías. Los sistemas de identificación biométrica remota en diferido deben utilizarse siempre de manera proporcionada y legítima, en la medida de lo estrictamente necesario y, por ende, de forma selectiva por lo que respecta a las personas que deben identificarse, la ubicación y el alcance temporal y a partir de un conjunto limitado de datos de grabaciones de vídeo obtenidas legalmente. En cualquier caso, los sistemas de identificación biométrica remota en diferido no deben utilizarse en el marco de la garantía del cumplimiento del Derecho de tal forma que se produzca una vigilancia indiscriminada. Las condiciones para la identificación biométrica remota en diferido en ningún caso deben servir para eludir las condiciones de la prohibición y las estrictas excepciones aplicables a la identificación biométrica remota en tiempo real.
(95)
Bez toho, aby bolo dotknuté uplatniteľné právo Únie, najmä nariadenie (EÚ) 2016/679 a smernica (EÚ) 2016/680, vzhľadom na rušivý charakter systémov následnej diaľkovej biometrickej identifikácie, by používanie systémov následnej diaľkovej biometrickej identifikácie malo podliehať zárukám. Systémy následnej diaľkovej biometrickej identifikácie by sa mali vždy používať spôsobom, ktorý je primeraný, legitímny a nevyhnutne potrebný, a teda cielený, pokiaľ ide o osoby, ktoré sa majú identifikovať, miesto a časový rozsah a mali by vychádzať z uzavretého súboru údajov zo zákonne získaných videozáznamov. V každom prípade by sa systémy následnej diaľkovej biometrickej identifikácie nemali používať v rámci presadzovania práva s cieľom viesť k nerozlišujúcemu sledovaniu. Podmienky pre následnú diaľkovú biometrickú identifikáciu by v žiadnom prípade nemali poskytovať základ na obchádzanie podmienok zákazu a prísnych výnimiek pre diaľkovú biometrickú identifikáciu v reálnom čase.
(96)
A fin de garantizar eficazmente la protección de los derechos fundamentales, los responsables del despliegue de sistemas de IA de alto riesgo que sean organismos de Derecho público, o las entidades privadas que presten servicios públicos y los responsables del despliegue de determinados sistemas de IA de alto riesgo enumerados en un anexo del presente Reglamento, como las entidades bancarias o de seguros, deben llevar a cabo una evaluación de impacto relativa a los derechos fundamentales antes de su puesta en funcionamiento. Algunos servicios importantes para las personas que son de carácter público también pueden ser prestados por entidades privadas. Las entidades privadas que prestan estos servicios públicos se vinculan a funciones de interés público, por ejemplo, en el ámbito de la educación, la asistencia sanitaria, los servicios sociales, la vivienda y la administración de justicia. El objetivo de la evaluación de impacto relativa a los derechos fundamentales es que el responsable del despliegue determine los riesgos específicos para los derechos de las personas o colectivos de personas que probablemente se vean afectados y defina las medidas que deben adoptarse en caso de que se materialicen dichos riesgos. La evaluación de impacto debe llevarse a cabo antes del despliegue del sistema de IA de alto riesgo y debe actualizarse cuando el responsable del despliegue considere que alguno de los factores pertinentes ha cambiado. La evaluación de impacto debe determinar los procesos pertinentes del responsable del despliegue en los que se utilizará el sistema de IA de alto riesgo en consonancia con su finalidad prevista y debe incluir una descripción del plazo de tiempo y la frecuencia en que se pretende utilizar el sistema, así como de las categorías concretas de personas físicas y de colectivos de personas que probablemente se vean afectados por el uso del sistema de IA de alto riesgo en ese contexto de uso específico. La evaluación también debe determinar los riesgos de perjuicio específicos que probablemente afecten a los derechos fundamentales de dichas personas o colectivos. Al llevar a cabo esta evaluación, el responsable del despliegue debe tener en cuenta la información pertinente para una evaluación adecuada del impacto, lo que incluye, por ejemplo, la información facilitada por el proveedor del sistema de IA de alto riesgo en las instrucciones de uso. A la luz de los riesgos detectados, los responsables del despliegue deben determinar las medidas que han de adoptarse en caso de que se materialicen dichos riesgos, entre las que se incluyen, por ejemplo, sistemas de gobernanza para ese contexto de uso específico, como los mecanismos de supervisión humana con arreglo a las instrucciones de uso, los procedimientos de tramitación de reclamaciones y de recurso, ya que podrían ser fundamentales para mitigar los riesgos para los derechos fundamentales en casos de uso concretos. Tras llevar a cabo dicha evaluación de impacto, el responsable del despliegue debe notificarlo a la autoridad de vigilancia del mercado pertinente. Cuando proceda, para recopilar la información pertinente necesaria para llevar a cabo la evaluación de impacto, los responsables del despliegue de un sistema de IA de alto riesgo, en particular cuando el sistema de IA se utilice en el sector público, pueden contar con la participación de las partes interesadas pertinentes, como, por ejemplo, los representantes de colectivos de personas que probablemente se vean afectados por el sistema de IA, expertos independientes u organizaciones de la sociedad civil, en la realización de dichas evaluaciones de impacto y en el diseño de las medidas que deben adoptarse en caso de materialización de los riesgos. La Oficina Europea de Inteligencia Artificial (en lo sucesivo, «Oficina de IA») debe elaborar un modelo de cuestionario con el fin de facilitar el cumplimiento y reducir la carga administrativa para los responsables del despliegue.
(96)
S cieľom účinne zabezpečiť ochranu základných práv by subjekty nasadzujúce vysokorizikové systémy AI, ktoré sú subjektmi, ktoré sa spravujú verejným právom, alebo súkromnými subjektmi poskytujúcimi verejné služby a subjekty nasadzujúce určité vysokorizikové systémy AI uvedené v zozname v prílohe k tomuto nariadeniu, ako sú bankové alebo poisťovacie subjekty, mali pred ich uvedením do používania vykonať posúdenie vplyvu na základné práva. Služby dôležité pre jednotlivcov, ktoré sú verejného charakteru, môžu poskytovať aj súkromné subjekty. Súkromné subjekty poskytujúce takéto verejné služby sú spojené s úlohami vo verejnom záujme, ako napríklad v oblastiach vzdelávania, zdravotnej starostlivosti, sociálnych služieb, bývania, výkonu spravodlivosti. Cieľom posúdenia vplyvu na základné práva je, aby nasadzujúci subjekt identifikoval konkrétne riziká pre práva jednotlivcov alebo skupín jednotlivcov, ktorí by mohli byť dotknutí, a určiť opatrenia, ktoré sa majú prijať v prípade naplnenia uvedených rizík. Posúdenie vplyvu by sa malo vykonať pred nasadením vysokorizikového systému AI a malo by sa aktualizovať, keď nasadzujúci subjekt usúdi, že sa niektorý z relevantných faktorov zmenil. V posúdení vplyvu by sa mali určiť príslušné procesy nasadzujúceho subjektu, v ktorých sa bude vysokorizikový systém AI používať v súlade s jeho zamýšľaným účelom, a malo by obsahovať opis obdobia a frekvencie, v ktorých sa má systém používať, ako aj konkrétnych kategórií fyzických osôb a skupín, ktoré by mohli byť ovplyvnené v konkrétnom kontexte používania. Posúdenie by malo zahŕňať aj identifikáciu osobitných rizík ujmy, ktoré by mohli mať vplyv na základné práva uvedených osôb alebo skupín. Pri vykonávaní tohto posúdenia by nasadzujúci subjekt mal zohľadniť informácie relevantné pre riadne posúdenie vplyvu, okrem iného vrátane informácií, ktoré poskytovateľ vysokorizikového systému AI poskytol v návode na použitie. Vzhľadom na zistené riziká by nasadzujúce subjekty mali určiť opatrenia, ktoré sa majú prijať v prípade naplnenia uvedených rizík, vrátane napríklad mechanizmov správy a riadenia v tomto konkrétnom kontexte používania, ako sú mechanizmy ľudského dohľadu podľa návodu na použitie alebo postupy vybavovania sťažností a nápravy, keďže by mohli byť nápomocné pri zmierňovaní rizík pre základné práva v konkrétnych prípadoch použitia. Po vykonaní uvedeného posúdenia vplyvu by nasadzujúci subjekt mal informovať príslušný orgán dohľadu nad trhom. Na zhromažďovanie relevantných informácií potrebných na vykonanie posúdenia vplyvu by subjekty nasadzujúce vysokorizikový systém AI, najmä ak sa systémy AI používajú vo verejnom sektore, mohli do vykonávania takýchto posúdení vplyvu a koncipovania opatrení, ktoré sa majú prijať v prípade naplnenia rizík, zapojiť príslušné zainteresované strany vrátane zástupcov skupín osôb, ktoré by mohli byť ovplyvnené systémom AI, nezávislých expertov a organizácie občianskej spoločnosti. Európsky úrad pre umelú inteligenciu (ďalej len „úrad pre AI“) by mal vypracovať vzor dotazníka s cieľom uľahčiť dodržiavanie predpisov a znížiť administratívne zaťaženie nasadzujúcich subjektov.
(97)
El concepto de modelos de IA de uso general debe definirse claramente y diferenciarse del concepto de sistemas de IA con el fin de garantizar la seguridad jurídica. La definición debe basarse en las características funcionales esenciales de un modelo de IA de uso general, en particular la generalidad y la capacidad de realizar de manera competente una amplia variedad de tareas diferenciadas. Estos modelos suelen entrenarse usando grandes volúmenes de datos y a través de diversos métodos, como el aprendizaje autosupervisado, no supervisado o por refuerzo. Los modelos de IA de uso general pueden introducirse en el mercado de diversas maneras, por ejemplo, a través de bibliotecas, interfaces de programación de aplicaciones (API), como descarga directa o como copia física. Estos modelos pueden modificarse o perfeccionarse y transformarse en nuevos modelos. Aunque los modelos de IA son componentes esenciales de los sistemas de IA, no constituyen por sí mismos sistemas de IA. Los modelos de IA requieren que se les añadan otros componentes, como, por ejemplo, una interfaz de usuario, para convertirse en sistemas de IA. Los modelos de IA suelen estar integrados en los sistemas de IA y formar parte de dichos sistemas. El presente Reglamento establece normas específicas para los modelos de IA de uso general y para los modelos de IA de uso general que entrañan riesgos sistémicos, que deben aplicarse también cuando estos modelos estén integrados en un sistema de IA o formen parte de un sistema de IA. Debe entenderse que las obligaciones de los proveedores de modelos de IA de uso general deben aplicarse una vez que los modelos de IA de uso general se introduzcan en el mercado. Cuando el proveedor de un modelo de IA de uso general integre un modelo propio en un sistema de IA propio que se comercialice o ponga en servicio, se debe considerar que dicho modelo se ha introducido en el mercado y, por tanto, se deben seguir aplicando las obligaciones establecidas en el presente Reglamento en relación con los modelos, además de las establecidas en relación con los sistemas de IA. En cualquier caso, las obligaciones establecidas en relación con los modelos no deben aplicarse cuando un modelo propio se utilice en procesos puramente internos que no sean esenciales para suministrar un producto o un servicio a un tercero y los derechos de las personas físicas no se vean afectados. Teniendo en cuenta su potencial para causar efectos negativos importantes, los modelos de IA de uso general con riesgo sistémico deben estar siempre sujetos a las obligaciones pertinentes establecidas en el presente Reglamento. La definición no debe incluir los modelos de IA utilizados antes de su introducción en el mercado únicamente para actividades de investigación, desarrollo y creación de prototipos. Lo anterior se entiende sin perjuicio de la obligación de cumplir lo dispuesto en el presente Reglamento cuando, tras haber realizado dichas actividades, el modelo se introduzca en el mercado.
(97)
Pojem modely AI na všeobecné účely by sa mal jasne vymedziť a oddeliť od pojmu systémy AI, aby sa umožnila právna istota. Toto vymedzenie by malo byť založené na kľúčových funkčných charakteristikách modelu AI na všeobecné účely, najmä na všeobecnej povahe a spôsobilosti kompetentne vykonávať širokú škálu rôznych úloh. Tieto modely sa zvyčajne trénujú na veľkých množstvách údajov prostredníctvom rôznych metód, ako je učenie sa pod vlastným dohľadom, učenie sa bez dohľadu alebo posilňovacie učenie. Modely AI na všeobecné účely sa môžu uvádzať na trh rôznymi spôsobmi, a to aj prostredníctvom knižníc, aplikačných programovacích rozhraní, priamym sťahovaním alebo fyzickým kopírovaním. Tieto modely sa môžu ďalej upravovať alebo dolaďovať na nové modely. Hoci sú modely AI základnými komponentmi systémov AI, samy osebe nepredstavujú systémy AI. Modely AI si vyžadujú pridanie ďalších komponentov, ako je napríklad používateľské rozhranie, aby sa z nich stali systémy AI. Modely AI sú zvyčajne integrované do systémov AI a tvoria ich súčasť. V tomto nariadení sa stanovujú osobitné pravidlá pre modely AI na všeobecné účely a modely AI na všeobecné účely, ktoré predstavujú systémové riziká, ktoré by sa mali uplatňovať aj vtedy, keď sú tieto modely integrované do systému AI alebo tvoria jeho súčasť. Malo by byť zrejmé, že povinnosti poskytovateľov modelov AI na všeobecné účely by sa mali uplatňovať po uvedení modelov AI na všeobecné účely na trh. Ak poskytovateľ modelu AI na všeobecné účely integruje vlastný model do svojho vlastného systému AI, ktorý je sprístupnený na trhu alebo do prevádzky, tento model by sa mal považovať za uvedený na trh, a preto by sa povinnosti stanovené v tomto nariadení pre modely mali naďalej uplatňovať popri povinnostiach týkajúcich sa systémov AI. Povinnosti stanovené pre modely by sa v žiadnom prípade nemali uplatňovať, ak sa vlastný model používa na čisto vnútorné procesy, ktoré nie sú nevyhnutné na poskytovanie výrobku alebo služby tretím stranám, a práva fyzických osôb nie sú dotknuté. Vzhľadom na ich potenciálne výrazne negatívne účinky by sa na modely AI na všeobecné účely so systémovým rizikom mali vždy vzťahovať príslušné povinnosti podľa tohto nariadenia. Vymedzenie pojmu by sa nemalo vzťahovať na modely AI používané pred ich uvedením na trh výlučne na účely činností v oblasti výskumu, vývoja a vytvárania prototypov. Týmto nie je dotknutá povinnosť dodržiavať toto nariadenie, keď sa po uskutočnení týchto činností uvádza model na trh.
(98)
Aunque la generalidad de un modelo también podría determinarse, entre otras cosas, mediante una serie de parámetros, debe considerarse que los modelos que tengan al menos mil millones de parámetros y se hayan entrenado con un gran volumen de datos utilizando la autosupervisión a escala presentan un grado significativo de generalidad y realizan de manera competente una amplia variedad de tareas diferenciadas.
(98)
Zatiaľ čo všeobecná povaha modelu by sa mohla okrem iného určiť aj na základe viacerých parametrov, modely s aspoň miliardou parametrov a trénované s veľkým množstvom údajov s využitím vlastného dohľadu vo veľkom rozsahu by sa mali považovať za modely, ktoré vykazujú významnú všeobecnú povahu a kompetentne vykonávajú širokú škálu osobitných úloh.
(99)
Los grandes modelos de IA generativa son un ejemplo típico de un modelo de IA de uso general, ya que permiten la generación flexible de contenidos, por ejemplo, en formato de texto, audio, imágenes o vídeo, que pueden adaptarse fácilmente a una amplia gama de tareas diferenciadas.
(99)
Veľké generatívne modely AI sú typickým príkladom modelu AI na všeobecné účely vzhľadom na to, že umožňujú flexibilnú tvorbu obsahu napríklad vo forme textu, zvuku, obrázkov alebo videa, pričom dokážu ľahko zvládnuť širokú škálu osobitných úloh.
(100)
Cuando un modelo de IA de uso general esté integrado en un sistema de IA o forme parte de él, este sistema debe considerarse un sistema de IA de uso general cuando, debido a esta integración, el sistema tenga la capacidad de servir a diversos fines. Un sistema de IA de uso general puede utilizarse directamente e integrarse en otros sistemas de IA.
(100)
Ak je model AI na všeobecné účely integrovaný do systému AI alebo je jeho súčasťou, tento systém by sa mal považovať za systém AI na všeobecné účely, ak je tento systém v dôsledku tejto integrácie spôsobilý slúžiť na rôzne účely. Systém AI na všeobecné účely sa môže používať priamo alebo môže byť integrovaný do iných systémov AI.
(101)
Los proveedores de modelos de IA de uso general tienen una función y una responsabilidad particulares a lo largo de la cadena de valor de la IA, ya que los modelos que suministran pueden constituir la base de diversos sistemas de etapas posteriores, que a menudo son suministrados por proveedores posteriores que necesitan entender bien los modelos y sus capacidades, tanto para permitir la integración de dichos modelos en sus productos como para cumplir sus obligaciones en virtud del presente Reglamento o de otros reglamentos. Por consiguiente, deben establecerse medidas de transparencia proporcionadas, lo que incluye elaborar documentación y mantenerla actualizada y facilitar información sobre el modelo de IA de uso general para su uso por parte de los proveedores posteriores. El proveedor del modelo de IA de uso general debe elaborar y mantener actualizada la documentación técnica con el fin de ponerla a disposición, previa solicitud, de la Oficina de IA y de las autoridades nacionales competentes. Los elementos mínimos que debe contener dicha documentación deben establecerse en anexos específicos del presente Reglamento. La Comisión debe estar facultada para modificar dichos anexos mediante actos delegados en función de los avances tecnológicos.
(101)
Poskytovatelia modelov AI na všeobecné účely majú osobitnú úlohu a zodpovednosť v hodnotovom reťazci AI, keďže modely, ktoré poskytujú, môžu tvoriť základ pre celý rad nadväzujúcich systémov, ktoré často poskytujú nadväzujúci poskytovatelia, čo si vyžaduje dobré pochopenie modelov a ich spôsobilostí, a to s cieľom umožniť integráciu takýchto modelov do ich výrobkov, ako aj plniť svoje povinnosti podľa tohto alebo iných nariadení. Preto by sa mali stanoviť primerané opatrenia v oblasti transparentnosti vrátane vypracovania a aktualizácie dokumentácie a poskytovania informácií o modeli AI na všeobecné účely na jeho používanie nadväzujúcimi poskytovateľmi. Poskytovateľ modelu AI na všeobecné účely by mal vypracovať a aktualizovať technickú dokumentáciu na účely jej sprístupnenia na požiadanie úradu pre AI a vnútroštátnym príslušným orgánom. V osobitných prílohách k tomuto nariadeniu by sa mal stanoviť minimálny súbor prvkov, ktoré sa majú zahrnúť do takejto dokumentácie. Vzhľadom na nepretržitý technologický vývoj by Komisia mala byť oprávnená meniť uvedené prílohy prostredníctvom delegovaných aktov.
(102)
El software y los datos, incluidos los modelos, divulgados con arreglo a una licencia libre y de código abierto que permita compartirlos abiertamente y que los usuarios puedan acceder a ellos, o a versiones modificadas de dicho software y dichos datos, o utilizarlos, modificarlos y redistribuirlos libremente, pueden contribuir a la investigación y la innovación en el mercado y pueden ofrecer importantes oportunidades de crecimiento para la economía de la Unión. Debe considerarse que los modelos de IA de uso general divulgados con arreglo a una licencia libre y de código abierto garantizan altos niveles de transparencia y apertura si sus parámetros, incluidos los pesos, la información sobre la arquitectura del modelo y la información sobre el uso del modelo, se ponen a disposición del público. La licencia debe considerarse libre y de código abierto cuando permita a los usuarios ejecutar, copiar, distribuir, estudiar, modificar y mejorar el software y los datos, incluidos los modelos a condición de que se cite al proveedor original del modelo, si se respetan unas condiciones de distribución idénticas o comparables.
(102)
Softvér a údaje vrátane modelov, ktoré sa vydávajú na základe bezplatnej licencie s otvoreným zdrojovým kódom, ktorá umožňuje ich otvorené zdieľanie a v rámci ktorej majú používatelia voľný prístup k nim alebo ich upraveným verziám, môžu ich voľne používať, upravovať a redistribuovať, majú potenciál prispieť k výskumu a inovácii na trhu a poskytnúť hospodárstvu Únie významné príležitosti na rast. Modely AI na všeobecné účely, ktoré sa vydávajú na základe bezplatných licencií s otvoreným zdrojovým kódom, by sa mali považovať za zabezpečujúce vysokú úroveň transparentnosti a otvorenosti, ak sú ich parametre vrátane váh, informácií o architektúre modelu a informácií o používaní modelu verejne dostupné. Licencia by sa mala považovať za bezplatnú a s otvoreným zdrojovým kódom aj vtedy, keď umožňuje používateľom prevádzkovať, kopírovať, distribuovať, študovať, meniť a zlepšovať softvér a údaje vrátane modelov pod podmienkou, že sa pôvodnému poskytovateľovi modelu pripíše kredit a že sa dodržia rovnaké alebo porovnateľné podmienky distribúcie.
(103)
Los componentes de IA libres y de código abierto comprenden el software y los datos, incluidos los modelos y los modelos de IA de uso general, las herramientas, los servicios y los procesos de un sistema de IA. Los componentes de IA libres y de código abierto pueden suministrarse a través de diferentes canales, lo que incluye la posibilidad de desarrollarlos en repositorios abiertos. A los efectos del presente Reglamento, los componentes de IA que se suministren a cambio de una contraprestación o que se moneticen de cualquier otro modo, como, por ejemplo, mediante la prestación de apoyo técnico u otros servicios en relación con el componente de IA, ya sea a través de una plataforma de software o por otros medios, o mediante el uso de datos personales con fines que no se refieran exclusivamente a la mejora de la seguridad, la compatibilidad o la interoperabilidad del software, salvo si se trata de operaciones entre microempresas, no deben poder acogerse a las excepciones previstas para los componentes de IA libres y de código abierto. La disponibilidad de un componente de IA a través de repositorios abiertos no debe constituir, de por sí, una monetización.
(103)
Bezplatné komponenty AI s otvoreným zdrojovým kódom zahŕňajú softvér a údaje vrátane modelov a modelov AI na všeobecné účely, nástrojov, služieb alebo procesov systému AI. Bezplatné komponenty AI s otvoreným zdrojovým kódom možno poskytovať prostredníctvom rôznych kanálov vrátane ich vývoja v otvorených archívoch. Na účely tohto nariadenia by sa na komponenty AI, ktoré sa poskytujú za odplatu alebo inak speňažujú, a to aj prostredníctvom poskytovania technickej podpory alebo iných služieb, vrátane softvérovej platformy, ktoré súvisia s komponentom AI, alebo použitia osobných údajov z iných dôvodov než výlučne na zlepšenie bezpečnosti, kompatibility alebo interoperability softvéru, s výnimkou transakcií medzi mikropodnikmi, nemali vzťahovať výnimky poskytované bezplatným komponentom AI s otvoreným zdrojovým kódom. Sprístupnenie komponentov AI prostredníctvom otvorených archívov by samo osebe nemalo predstavovať speňaženie.
(104)
Los proveedores de modelos de IA de uso general divulgados con arreglo a una licencia libre y de código abierto cuyos parámetros, incluidos los pesos, la información sobre la arquitectura del modelo y la información sobre el uso del modelo, se ponen a disposición del público deben estar sujetos a excepciones por lo que respecta a los requisitos de transparencia que se imponen a los modelos de IA de uso general, a menos que pueda considerarse que presentan un riesgo sistémico, en cuyo caso la circunstancia de que el modelo sea transparente y vaya acompañado de una licencia de código abierto no debe considerarse una razón suficiente para que quede exento del cumplimiento de las obligaciones establecidas en el presente Reglamento. En cualquier caso, dado que la divulgación de modelos de IA de uso general con arreglo a una licencia libre y de código abierto no necesariamente revela información sustancial sobre el conjunto de datos utilizado para entrenar el modelo o realizar ajustes en relación con este ni sobre la manera en que se garantizó el cumplimiento del Derecho en materia de derechos de autor, la excepción prevista para los modelos de IA de uso general en relación con el cumplimiento de los requisitos de transparencia no debe eximir de la obligación de presentar un resumen del contenido utilizado para el entrenamiento del modelo ni de la obligación de adoptar directrices para el cumplimiento del Derecho de la Unión en materia de derechos de autor, en particular para identificar y respetar la reserva de derechos prevista en el artículo 4, apartado 3, de la Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo (40).
(104)
Poskytovatelia modelov AI na všeobecné účely, ktoré sa vydávajú na základe bezplatnej licencie s otvoreným zdrojovým kódom a ktorých parametre vrátane váh, informácií o architektúre modelu a informácií o používaní modelu sú verejne dostupné, by mali podliehať výnimkám, pokiaľ ide o požiadavky na transparentnosť týkajúce sa modelov AI na všeobecné účely, pokiaľ ich nemožno považovať za modely predstavujúce systémové riziko, pričom v takom prípade by sa okolnosť, že model je transparentný a sprevádzaný licenciou s otvoreným zdrojovým kódom, nemala považovať za dostatočný dôvod na vylúčenie dodržiavania povinností podľa tohto nariadenia. V každom prípade vzhľadom na to, že pri vydávaní modelov AI na všeobecné účely na základe bezplatnej licencie s otvoreným zdrojovým kódom sa nemusia nevyhnutne odhaliť podstatné informácie o súbore údajov použitom na trénovanie alebo doladenie modelu a o tom, ako sa tým zabezpečilo dodržiavanie autorského práva, výnimka stanovená pre modely AI na všeobecné účely z dodržiavania požiadaviek týkajúcich sa transparentnosti by sa nemala týkať povinnosti predložiť zhrnutie obsahu použitého na trénovanie modelu a povinnosti zaviesť politiku dodržiavania autorského práva Únie, najmä s cieľom identifikovať a rešpektovať výhrady práv vyjadrené podľa článku 4 ods. 3 smernice Európskeho parlamentu a Rady (EÚ) 2019/790 (40).
(105)
Los modelos de IA de uso general, en particular los grandes modelos de IA generativos, capaces de generar texto, imágenes y otros contenidos, presentan unas oportunidades de innovación únicas, pero también representan un desafío para los artistas, autores y demás creadores y para la manera en que se crea, distribuye, utiliza y consume su contenido creativo. El desarrollo y el entrenamiento de estos modelos requiere acceder a grandes cantidades de texto, imágenes, vídeos y otros datos. Las técnicas de prospección de textos y datos pueden utilizarse ampliamente en este contexto para la recuperación y el análisis de tales contenidos, que pueden estar protegidos por derechos de autor y derechos afines. Todo uso de contenidos protegidos por derechos de autor requiere la autorización del titular de los derechos de que se trate, salvo que se apliquen las excepciones y limitaciones pertinentes en materia de derechos de autor. La Directiva (UE) 2019/790 introdujo excepciones y limitaciones que permiten reproducciones y extracciones de obras y otras prestaciones con fines de prospección de textos y datos en determinadas circunstancias. Con arreglo a estas normas, los titulares de derechos pueden optar por reservarse sus derechos en relación con sus obras u otras prestaciones para evitar la prospección de textos y datos, salvo que su finalidad sea la investigación científica. Cuando el titular del derecho se haya reservado de manera adecuada el derecho de exclusión, los proveedores de modelos de IA de uso general deben obtener su autorización para llevar a cabo una prospección de textos y datos con dichas obras.
(105)
Modely AI na všeobecné účely, najmä veľké generatívne modely AI schopné generovať text, obrázky a iný obsah, predstavujú jedinečné inovačné príležitosti, ale aj výzvy pre umelcov, autorov a iných tvorcov a pre spôsob, akým sa ich tvorivý obsah vytvára, distribuuje, používa a spotrebúva. Vývoj a trénovanie takýchto modelov si vyžaduje prístup k obrovskému množstvu textov, obrázkov, videí a iných údajov. Techniky hĺbkovej analýzy textov a údajov sa môžu v tejto súvislosti vo veľkej miere používať na vyhľadávanie a analýzu takéhoto obsahu, ktorý môže byť chránený autorským právom a s ním súvisiacimi právami. Akékoľvek použitie obsahu chráneného autorským právom si vyžaduje povolenie príslušného nositeľa práv, pokiaľ sa neuplatňujú príslušné výnimky a obmedzenia autorského práva. Smernicou (EÚ) 2019/790 sa zaviedli výnimky a obmedzenia, ktoré za určitých podmienok umožňujú rozmnožovanie a extrakciu diel alebo iných predmetov ochrany na účely hĺbkovej analýzy textov a údajov. Podľa týchto pravidiel sa nositelia práv môžu rozhodnúť vyhradiť svoje práva na svoje diela alebo iné predmety ochrany s cieľom zabrániť hĺbkovej analýze textov a údajov, pokiaľ sa to neuskutočňuje na účely vedeckého výskumu. Ak boli práva na neposkytnutie prístupu výslovne vyhradené vhodným spôsobom, poskytovatelia modelov AI na všeobecné účely musia získať povolenie nositeľov práv, ak chcú vykonať hĺbkovú analýzu textov a údajov v súvislosti s takýmito dielami.
(106)
Los proveedores que introduzcan modelos de IA de uso general en el mercado de la Unión deben garantizar el cumplimiento de las obligaciones pertinentes establecidas en el presente Reglamento. A tal fin, los proveedores de modelos de IA de uso general deben adoptar directrices para el cumplimiento del Derecho de la Unión en materia de derechos de autor y derechos afines, en particular para detectar y cumplir la reserva de derechos expresada por los titulares de derechos con arreglo al artículo 4, apartado 3, de la Directiva (UE) 2019/790. Todo proveedor que introduzca un modelo de IA de uso general en el mercado de la Unión debe cumplir esta obligación, independientemente de la jurisdicción en la que tengan lugar los actos pertinentes en materia de derechos de autor que sustentan el entrenamiento de dichos modelos de IA de uso general. Esta medida es necesaria para garantizar unas condiciones de competencia equitativas entre los proveedores de modelos de IA de uso general que impidan que un proveedor obtenga una ventaja competitiva en el mercado de la Unión aplicando normas en materia de derechos de autor menos estrictas que las establecidas en la Unión.
(106)
Poskytovatelia, ktorí uvádzajú modely AI na všeobecné účely na trh Únie, by mali zabezpečiť súlad s príslušnými povinnosťami stanovenými v tomto nariadení. Na tento účel by poskytovatelia modelov AI na všeobecné účely mali zaviesť politiku dodržiavania práva Únie v oblasti autorského práva a s ním súvisiacich práv, najmä s cieľom identifikovať a dodržiavať výhradu práv vyjadrenú nositeľmi práv podľa článku 4 ods. 3 smernice (EÚ) 2019/790. Každý poskytovateľ, ktorý uvádza model AI na všeobecné účely na trh Únie, by mal splniť túto povinnosť bez ohľadu na jurisdikciu, v ktorej sa uskutočňujú akty týkajúce sa autorských práv, ktoré sú základom trénovania uvedených modelov AI na všeobecné účely. Je to potrebné na zabezpečenie rovnakých podmienok medzi poskytovateľmi modelov AI na všeobecné účely, v rámci ktorých by žiadny poskytovateľ nemal mať možnosť získať konkurenčnú výhodu na trhu Únie uplatňovaním nižších noriem v oblasti autorských práv, ako sú normy stanovené v Únii.
(107)
Con el fin de aumentar la transparencia en relación con los datos utilizados en el entrenamiento previo y el entrenamiento de los modelos de IA de uso general, incluidos los textos y los datos protegidos por el Derecho en materia de derechos de autor, procede que los proveedores de dichos modelos elaboren y pongan a disposición del público un resumen suficientemente detallado de los contenidos utilizados para el entrenamiento del modelo de IA de uso general. Este resumen debe tener debidamente en cuenta la necesidad de proteger los secretos comerciales y la información empresarial confidencial y, al mismo tiempo, debe ser exhaustivo en general en su alcance en vez de técnicamente detallado, a fin de facilitar que las partes con intereses legítimos, incluidos los titulares de derechos de autor, ejerzan y hagan cumplir sus derechos en virtud del Derecho de la Unión, por ejemplo, enumerando los principales conjuntos o recopilaciones de datos que hayan servido para entrenar al modelo, como los grandes archivos de datos o bases de datos privados o públicos, y proporcionando una explicación descriptiva sobre otras fuentes de datos utilizadas. Conviene que la Oficina de IA proporcione un modelo para el resumen, que debe ser sencillo y eficaz y permitir que el proveedor proporcione el resumen requerido en forma descriptiva.
(107)
S cieľom zvýšiť transparentnosť údajov, ktoré sa používajú pri predbežnom trénovaní a trénovaní modelov AI na všeobecné účely vrátane textu a údajov chránených autorským právom, je vhodné, aby poskytovatelia takýchto modelov vypracovali a zverejnili dostatočne podrobné zhrnutie obsahu použitého na trénovanie modelu AI na všeobecné účely. Pri náležitom zohľadnení potreby chrániť obchodné tajomstvo a dôverné obchodné informácie by toto zhrnutie malo byť vo všeobecnosti komplexné, pokiaľ ide o jeho rozsah pôsobnosti, a nie technicky podrobné, aby sa stranám s oprávnenými záujmami vrátane nositeľov autorských práv uľahčilo uplatňovanie a presadzovanie ich práv podľa práva Únie, napríklad uvedením hlavných zbierok alebo súborov údajov, ktoré boli súčasťou trénovania modelu, ako sú veľké súkromné alebo verejné databázy alebo archívy údajov, a poskytnutím opisného vysvetlenia k iným použitým zdrojom údajov. Je vhodné, aby úrad pre AI poskytol vzor zhrnutia, ktorý by mal byť jednoduchý, efektívny a mal by poskytovateľovi umožniť poskytnúť požadované zhrnutie v opisnej forme.
(108)
Por lo que se refiere a las obligaciones impuestas a los proveedores de modelos de IA de uso general de adoptar directrices para el cumplimiento del Derecho de la Unión en materia de derechos de autor y de poner a disposición del público un resumen de los contenidos utilizados para el entrenamiento, la Oficina de IA debe supervisar si el proveedor ha cumplido dichas obligaciones sin verificar ni proceder a una evaluación obra por obra de los datos de entrenamiento en cuanto al respeto de los derechos de autor. El presente Reglamento no afecta al cumplimiento de las normas en materia de derechos de autor previstas en el Derecho de la Unión.
(108)
Pokiaľ ide o povinnosti uložené poskytovateľom modelov AI na všeobecné účely zaviesť politiku dodržiavania autorského práva Únie a zverejniť zhrnutie obsahu použitého na trénovanie, úrad pre AI by mal monitorovať, či poskytovateľ splnil tieto povinnosti bez toho, aby overil trénovacie údaje alebo pristúpil k ich posúdeniu podľa jednotlivých diel, pokiaľ ide o dodržiavanie autorských práv. Toto nariadenie nemá vplyv na presadzovanie pravidiel v oblasti autorského práva, ako sa stanovuje v práve Únie.
(109)
El cumplimiento de las obligaciones aplicables a los proveedores de modelos de IA de uso general debe ser proporcionado y adecuado al tipo de proveedor de modelos. Debe eximirse de la obligación de cumplimiento a las personas que desarrollan o utilizan modelos con fines no profesionales o de investigación científica. No obstante, debe animarse a estas personas a cumplir voluntariamente estos requisitos. Sin perjuicio del Derecho de la Unión en materia de derechos de autor, el cumplimiento de esas obligaciones debe tener debidamente en cuenta el tamaño del proveedor y permitir formas simplificadas de cumplimiento para las pymes, incluidas las empresas emergentes, que no deben suponer un coste excesivo ni desincentivar el uso de dichos modelos. En caso de que se modifique o ajuste un modelo, las obligaciones de los proveedores de modelos de IA de uso general deben limitarse a esa modificación o esos ajustes, por ejemplo, complementando la documentación técnica ya existente con información sobre las modificaciones, incluidas las nuevas fuentes de datos de entrenamiento, para cumplir las obligaciones relacionadas con la cadena de valor establecidas en el presente Reglamento.
(109)
Dodržiavanie povinností, ktoré sa vzťahujú na poskytovateľov modelov AI na všeobecné účely by malo byť primerané a proporcionálne vzhľadom na typ poskytovateľa modelu, s výnimkou potreby dodržiavania predpisov v prípade osôb, ktoré vyvíjajú alebo používajú modely na neprofesionálne alebo vedecké výskumné účely, ktoré by sa však mali nabádať, aby tieto požiadavky dodržiavali dobrovoľne. Bez toho, aby bolo dotknuté autorské právo Únie, by sa pri dodržiavaní uvedených povinností mala náležite zohľadniť veľkosť poskytovateľa a mali by sa umožniť zjednodušené spôsoby dodržiavania predpisov pre MSP vrátane startupov, ktoré by nemali predstavovať nadmerné náklady a odrádzať od používania takýchto modelov. V prípade úpravy alebo doladenia modelu by sa povinnosti poskytovateľov modelov AI na všeobecné účely mali obmedziť na túto úpravu alebo doladenie, napríklad doplnením už existujúcej technickej dokumentácie informáciami o úpravách vrátane nových zdrojov tréningových údajov ako prostriedku na splnenie povinností týkajúcich sa hodnotového reťazca stanovených v tomto nariadení.
(110)
Los modelos de IA de uso general pueden plantear riesgos sistémicos, por ejemplo, cualquier efecto negativo real o razonablemente previsible en relación con accidentes graves, perturbaciones de sectores críticos y consecuencias graves para la salud y la seguridad públicas, cualquier efecto negativo real o razonablemente previsible sobre los procesos democráticos y la seguridad pública y económica o la difusión de contenidos ilícitos, falsos o discriminatorios. Debe entenderse que los riesgos sistémicos aumentan con las capacidades y el alcance de los modelos, pueden surgir durante todo el ciclo de vida del modelo y se ven influidos por las condiciones de uso indebido, la fiabilidad del modelo, la equidad y la seguridad del modelo, el nivel de autonomía del modelo, su acceso a herramientas, modalidades novedosas o combinadas, las estrategias de divulgación y distribución, la posibilidad de eliminar las salvaguardias y otros factores. En particular, los enfoques internacionales han establecido hasta la fecha la necesidad de prestar atención a los riesgos derivados de posibles usos indebidos intencionados o de problemas en materia de control relacionados con la armonización con la intención humana no deseados, a los riesgos químicos, biológicos, radiológicos y nucleares, como las maneras en que las barreras a la entrada pueden reducirse, también para el desarrollo, el diseño, la adquisición o el uso de armas, a las cibercapacidades ofensivas, como las maneras en que pueden propiciarse el descubrimiento, la explotación o el uso operativo de vulnerabilidades, a los efectos de la interacción y el uso de herramientas, incluida, por ejemplo, la capacidad de controlar sistemas físicos e interferir en el funcionamiento de infraestructuras críticas, a los riesgos derivados del hecho que los modelos hagan copias de sí mismos o se «autorrepliquen» o entrenen a otros modelos, a las maneras en que los modelos pueden dar lugar a sesgos dañinos y discriminación que entrañan riesgos para las personas, las comunidades o las sociedades, a la facilitación de la desinformación o el menoscabo de la intimidad, que suponen una amenaza para los valores democráticos y los derechos humanos, al riesgo de que un acontecimiento concreto dé lugar a una reacción en cadena con efectos negativos considerables que podrían afectar incluso a una ciudad entera, un ámbito de actividad entero o una comunidad entera.
(110)
Modely AI na všeobecné účely by mohli predstavovať systémové riziká, ktoré zahŕňajú okrem iného akékoľvek skutočné alebo odôvodnene predvídateľné negatívne účinky v súvislosti so závažnými nehodami, narušeniami kritických odvetví a závažnými dôsledkami pre verejné zdravie a bezpečnosť; akékoľvek skutočné alebo odôvodnene predvídateľné negatívne účinky na demokratické procesy, verejnú a hospodársku bezpečnosť; šírenie nezákonného, falošného alebo diskriminačného obsahu. Systémové riziká by sa mali chápať tak, že sa zvyšujú spôsobilosťami modelu a dosahom modelu, môžu vzniknúť počas celého životného cyklu modelu a sú ovplyvnené podmienkami nesprávneho použitia, spoľahlivosťou modelu, spravodlivosťou modelu a bezpečnosťou modelu, úrovňou autonómnosti modelu, jeho prístupom k nástrojom, novými alebo kombinovanými modalitami, stratégiami vydávania a distribúcie, potenciálom odstrániť ochranné prvky a inými faktormi. V medzinárodných prístupoch sa doteraz identifikovala najmä potreba venovať pozornosť rizikám vyplývajúcim z potenciálneho úmyselného nesprávneho použitia alebo neúmyselných problémov kontroly týkajúcich sa zosúladenia s ľudským zámerom; chemickým, biologickým, rádiologickým a jadrovým rizikám, ako sú spôsoby, akými možno znížiť prekážky vstupu vrátane vývoja zbraní, získavania dizajnu alebo používania zbraní; umožneniu ofenzívnych kybernetických spôsobilostí, ako sú spôsoby odhaľovania, využívania alebo operačného využívania zraniteľnosti; účinkom interakcie a používania nástrojov, napríklad vrátane schopnosti kontrolovať fyzické systémy a zasahovať do kritickej infraštruktúry; rizikám vyplývajúcim z modelov vyhotovovania vlastných kópií alebo „samoreplikácie“ alebo trénovania iných modelov; spôsobom, akými môžu modely viesť k škodlivému skresleniu a diskriminácii s rizikami pre jednotlivcov, komunity alebo spoločnosti; uľahčovaniu dezinformácií alebo poškodzovania súkromia hrozbami pre demokratické hodnoty a ľudské práva; riziku, že konkrétna udalosť by mohla viesť k reťazovej reakcii so značnými negatívnymi účinkami, ktoré by mohli ovplyvniť celé mesto, celú oblasť činnosti alebo celú komunitu.
(111)
Conviene establecer una metodología para la clasificación de los modelos de IA de uso general como modelos de IA de uso general con riesgos sistémicos. Dado que los riesgos sistémicos se derivan de capacidades especialmente elevadas, debe considerarse que un modelo de IA de uso general presenta riesgos sistémicos si tiene capacidades de gran impacto —evaluadas mediante herramientas y metodologías técnicas adecuadas— o unas repercusiones considerables en el mercado interior debido a su alcance. Las capacidades de gran impacto en modelos de IA de uso general son capacidades que igualan o superan las capacidades mostradas por los modelos de IA de uso general más avanzados. La introducción en el mercado de un modelo o las interacciones de los responsables del despliegue con él permiten comprender mejor el conjunto de sus capacidades. Según el estado de la técnica en el momento de la entrada en vigor del presente Reglamento, la cantidad acumulada de cálculo utilizado para el entrenamiento del modelo de IA de uso general, medida en operaciones de coma flotante, es una de las aproximaciones pertinentes para las capacidades del modelo. La cantidad acumulada de cálculo utilizado para el entrenamiento incluye los cálculos utilizados en las distintas actividades y métodos destinados a mejorar las capacidades del modelo antes del despliegue, como el entrenamiento previo, la generación de datos sintéticos y la realización de ajustes. Por lo tanto, debe establecerse un umbral inicial de operaciones de coma flotante que, de ser alcanzado por un modelo de IA de uso general, dé lugar a la presunción de que el modelo es un modelo de IA de uso general con riesgos sistémicos. Este umbral deberá irse ajustando para reflejar los cambios tecnológicos e industriales, como las mejoras algorítmicas o el aumento de la eficiencia del hardware, y debe complementarse con parámetros de referencia e indicadores de la capacidad de los modelos. Para fundamentar esto, la Oficina de IA debe colaborar con la comunidad científica, la industria, la sociedad civil y otros expertos. Los umbrales, así como las herramientas y los parámetros de referencia para la evaluación de las capacidades de gran impacto, deben servir para predecir con fiabilidad la generalidad, las capacidades y el riesgo sistémico asociado de los modelos de IA de uso general, y podrían tener en cuenta la manera en que el modelo se introducirá en el mercado o el número de usuarios a los que podría afectar. Para complementar este sistema, la Comisión debe poder adoptar decisiones individuales por las que se designe un modelo de IA de uso general como modelo de IA de uso general con riesgo sistémico si se determina que dicho modelo tiene capacidades o repercusiones equivalentes a las reflejadas por el umbral establecido. Dicha decisión debe adoptarse atendiendo a una evaluación global de los criterios para la designación de modelos de IA de uso general con riesgo sistémico establecidos en un anexo del presente Reglamento, como la calidad o el tamaño del conjunto de datos de entrenamiento, el número de usuarios profesionales y finales, sus modalidades de entrada y de salida, su nivel de autonomía y escalabilidad o las herramientas a las que tiene acceso. Previa solicitud motivada de un proveedor cuyo modelo haya sido designado como modelo de IA de uso general con riesgo sistémico, la Comisión debe tener en cuenta la solicitud y podrá decidir reevaluar si puede seguir considerándose que el modelo de IA de uso general presenta riesgos sistémicos.
(111)
Je vhodné zaviesť metodiku pre klasifikáciu modelov AI na všeobecné účely ako modelu AI na všeobecné účely so systémovým rizikom. Keďže systémové riziká vyplývajú z mimoriadne vysokých spôsobilostí, mal by sa model AI na všeobecné účely považovať za model predstavujúci systémové riziká, ak má spôsobilosti s veľkým vplyvom, hodnotené na základe vhodných technických nástrojov a metodík, alebo významný vplyv na vnútorný trh z dôvodu jeho dosahu. Spôsobilosti s veľkým vplyvom v modeloch AI na všeobecné účely sú spôsobilosti, ktoré zodpovedajú spôsobilostiam zaznamenaným v najvyspelejších modeloch AI na všeobecné účely alebo ich prekračujú. Celú škálu spôsobilostí modelu možno lepšie pochopiť po jeho uvedení na trh alebo pri interakcii nasadzujúcich subjektov s modelom. Podľa aktuálneho stavu vývoja v čase nadobudnutia účinnosti tohto nariadenia je kumulatívny počet výpočtov použitých na trénovanie modelu AI na všeobecné účely meraný v operáciách s pohyblivou rádovou čiarkou jednou z relevantných aproximácií spôsobilostí modelu. Kumulatívny počet výpočtov použitých na trénovanie zahŕňa výpočty použité v rámci činností a metód, ktoré sú určené na posilnenie spôsobilostí modelu pred nasadením, ako je predbežné trénovanie, syntetické generovanie údajov a doladenie. Preto by sa mala stanoviť počiatočná prahová hodnota pre operácie s pohyblivou rádovou čiarkou, ktorá, ak je modelom AI na všeobecné účely splnená, vedie k predpokladu, že model je modelom AI na všeobecné účely so systémovými rizikami. Táto prahová hodnota by sa mala časom upraviť tak, aby odrážala technologické a priemyselné zmeny, ako sú algoritmické zlepšenia alebo zvýšená efektívnosť hardvéru, a mala by sa doplniť o referenčné hodnoty a ukazovatele spôsobilosti modelu. Úrad pre AI by mal spolupracovať s vedeckou obcou, priemyslom, občianskou spoločnosťou a ďalšími odborníkmi s cieľom poskytnúť na to podklady. Prahové hodnoty, ako aj nástroje a referenčné hodnoty na posudzovanie spôsobilostí s veľkým vplyvom by mali byť silnými predikátormi všeobecnej povahy, spôsobilostí a súvisiaceho systémového rizika modelov AI na všeobecné účely a mohli by zohľadňovať spôsob uvádzania modelu na trh alebo počet používateľov, na ktorých môže mať vplyv. Na doplnenie tohto systému by Komisia mala mať možnosť prijímať individuálne rozhodnutia označujúce model AI na všeobecné účely ako model AI na všeobecné účely so systémovým rizikom, ak zistí, že takýto model má spôsobilosti alebo vplyv rovnocenné tým, ktoré sú zachytené stanovenou prahovou hodnotou. Uvedené rozhodnutie by sa malo prijať na základe celkového posúdenia kritérií na určenie modelu AI na všeobecné účely so systémovým rizikom stanovených v prílohe k tomuto nariadeniu, ako je kvalita alebo veľkosť súboru tréningových údajov, počet korporátnych a koncových používateľov, modality jeho vstupov a výstupov, úroveň jeho autonómnosti a škálovateľnosti alebo nástroje, ku ktorým má prístup. Po odôvodnenej žiadosti poskytovateľa, ktorého model bol označený za model AI na všeobecné účely so systémovým rizikom, by Komisia mala žiadosť zohľadniť a môže rozhodnúť o prehodnotení, či model AI na všeobecné účely možno stále považovať za model predstavujúci systémové riziká.
(112)
También es necesario aclarar un procedimiento para la clasificación de un modelo de IA de uso general con riesgos sistémicos. Debe presumirse que un modelo de IA de uso general que alcanza el umbral aplicable para las capacidades de gran impacto es un modelo de IA de uso general con riesgo sistémico. El proveedor debe enviar una notificación a la Oficina de IA a más tardar dos semanas después de que se cumplan los requisitos o de que se sepa que un modelo de IA de uso general cumplirá los requisitos que conducen a la presunción. Esto es especialmente pertinente en relación con el umbral de operaciones de coma flotante, ya que el entrenamiento de los modelos de IA de uso general requiere una planificación considerable que incluye la asignación previa de recursos computacionales y, por tanto, los proveedores de modelos de IA de uso general pueden saber si su modelo alcanzará el umbral antes del fin del entrenamiento. En el contexto de dicha notificación, el proveedor debe poder demostrar que, debido a sus características específicas, un modelo de IA de uso general no presenta excepcionalmente riesgos sistémicos y que, por tanto, no debe clasificarse como modelo de IA de uso general con riesgos sistémicos. Esa información es valiosa para que la Oficina de IA anticipe la introducción en el mercado de modelos de IA de uso general con riesgos sistémicos y para que los proveedores pueden empezar a colaborar con la Oficina de IA en una fase temprana. Dicha información es especialmente importante cuando esté previsto divulgar un modelo de IA de uso general como modelo de código abierto, dado que, tras la divulgación de modelos de código abierto, puede resultar más difícil aplicar las medidas necesarias para garantizar el cumplimiento de las obligaciones establecidas en el presente Reglamento.
(112)
Je tiež potrebné objasniť postup klasifikácie modelu AI na všeobecné účely so systémovým rizikom. Model AI na všeobecné účely, ktorý spĺňa príslušnú prahovú hodnotu pre spôsobilosti s veľkým vplyvom, by sa mal považovať za model AI na všeobecné účely so systémovým rizikom. Poskytovateľ by mal informovať úrad pre AI najneskôr dva týždne po splnení požiadaviek alebo po tom, ako sa zistí, že model AI na všeobecné účely bude spĺňať požiadavky, ktoré vedú k tomuto predpokladu. To je obzvlášť relevantné v súvislosti s prahovou hodnotou pre operácie s pohyblivou rádovou čiarkou, pretože trénovanie modelov AI na všeobecné účely si vyžaduje značné plánovanie, ktoré zahŕňa predbežné prideľovanie výpočtových zdrojov, a preto sú poskytovatelia modelov AI na všeobecné účely schopní vedieť, či by ich model dosiahol prahovú hodnotu pred ukončením trénovania. V súvislosti s uvedeným informovaním by poskytovateľ mal byť schopný preukázať, že model AI na všeobecné účely vzhľadom na svoje osobitné vlastnosti výnimočne nepredstavuje systémové riziká, a preto by sa nemal klasifikovať ako model AI na všeobecné účely so systémovými rizikami. Uvedené informácie sú pre úrad pre AI cenné pri predvídaní uvedenia modelov AI na všeobecné účely so systémovými rizikami na trh a poskytovatelia môžu začať s úradom pre AI včas spolupracovať. Uvedené informácie sú obzvlášť dôležité, pokiaľ ide o modely AI na všeobecné účely, ktoré sa majú vydať ako modely s otvoreným zdrojovým kódom, keďže po vydaní modelu s otvoreným zdrojovým kódom môže byť ťažšie vykonať potrebné opatrenia na zabezpečenie súladu s povinnosťami podľa tohto nariadenia.
(113)
Si la Comisión descubre que un modelo de IA de uso general del que no tenía conocimiento o que el proveedor pertinente no le había notificado cumple los requisitos para ser clasificado como modelo de IA de uso general con riesgo sistémico, la Comisión debe estar facultada para designarlo. Además de las actividades de supervisión de la Oficina de IA, un sistema de alertas cualificadas debe garantizar que la Oficina de IA sea informada por el grupo de expertos científicos de la existencia de modelos de IA de uso general que podrían ser clasificados como modelos de IA de uso general con riesgo sistémico.
(113)
Ak sa Komisia dozvie o skutočnosti, že model AI na všeobecné účely spĺňa požiadavky na to, aby sa klasifikoval ako model AI na všeobecné účely so systémovým rizikom, ktorá predtým buď nebola známa, alebo o ktorej príslušný poskytovateľ Komisiu neinformoval, Komisia by mala byť oprávnená takto ho označiť. Systém kvalifikovaných upozornení by mal zabezpečiť, aby vedecký panel informoval úrad pre AI popri jeho monitorovacích činnostiach o modeloch AI na všeobecné účely, ktoré by sa prípadne mali klasifikovať ako modely AI na všeobecné účely so systémovým rizikom.
(114)
Los proveedores de modelos de IA de uso general que presenten riesgos sistémicos deben estar sujetos, además de a las obligaciones impuestas a los proveedores de modelos de IA de uso general, a obligaciones encaminadas a detectar y atenuar dichos riesgos y a garantizar un nivel adecuado de protección en materia de ciberseguridad, independientemente de si dichos modelos se ofrecen como modelos independientes o están integrados en sistemas de IA o en productos. Para alcanzar esos objetivos, el presente Reglamento debe exigir a los proveedores que lleven a cabo las evaluaciones de los modelos necesarias, en particular antes de la primera introducción en el mercado, y que, por ejemplo, lleven a cabo y documenten pruebas de simulación de adversarios, también, según proceda, mediante pruebas externas independientes o pruebas internas. Además, los proveedores de modelos de IA de uso general con riesgos sistémicos deben evaluar y mitigar continuamente los riesgos sistémicos, por ejemplo, mediante el establecimiento de políticas de gestión de riesgos, como procesos de rendición de cuentas y gobernanza, la puesta en práctica de la vigilancia poscomercialización, la adopción de medidas adecuadas durante todo el ciclo de vida del modelo y la cooperación con los agentes pertinentes a lo largo de la cadena de valor de la IA.
(114)
Poskytovatelia modelov AI na všeobecné účely predstavujúcich systémové riziká by mali okrem povinností stanovených pre poskytovateľov modelov AI na všeobecné účely podliehať povinnostiam zameraným na identifikáciu a zmiernenie týchto rizík a zabezpečenie primeranej úrovne ochrany kybernetickej bezpečnosti bez ohľadu na to, či sa poskytujú ako samostatný model alebo sú zabudované do systému AI alebo produktu. Na dosiahnutie uvedených cieľov by sa v tomto nariadení malo od poskytovateľov vyžadovať, aby vykonávali potrebné hodnotenia modelov, najmä pred ich prvým uvedením na trh, vrátane vykonávania a zdokumentovania testovania modelov na nepriateľské útoky, prípadne aj prostredníctvom interného alebo nezávislého externého testovania. Okrem toho by poskytovatelia modelov AI na všeobecné účely so systémovými rizikami mali neustále posudzovať a zmierňovať systémové riziká, a to napríklad aj zavádzaním politík riadenia rizík, ako sú procesy zodpovednosti a správy a riadenia, vykonávaním monitorovania po uvedení na trh, prijímaním vhodných opatrení v rámci celého životného cyklu modelu a spoluprácou s príslušnými aktérmi v celom hodnotovom reťazci AI.
(115)
Los proveedores de modelos de IA de uso general con riesgos sistémicos deben evaluar y mitigar los posibles riesgos sistémicos. Si, a pesar de los esfuerzos por detectar y prevenir los riesgos relacionados con un modelo de IA de uso general que pueda presentar riesgos sistémicos, el desarrollo o el uso del modelo provoca un incidente grave, el proveedor del modelo de IA de uso general debe, sin demora indebida, hacer un seguimiento del incidente y comunicar toda la información pertinente y las posibles medidas correctoras a la Comisión y a las autoridades nacionales competentes. Además, los proveedores deben garantizar que el modelo y su infraestructura física, si procede, tengan un nivel adecuado de protección en materia de ciberseguridad durante todo el ciclo de vida del modelo. La protección en materia de ciberseguridad relacionada con los riesgos sistémicos asociados al uso malintencionado o a los ataques debe tener debidamente en cuenta las fugas accidentales de modelos, las divulgaciones no autorizadas, la elusión de las medidas de seguridad y la defensa contra los ciberataques, el acceso no autorizado o el robo de modelos. Esa protección podría facilitarse asegurando los pesos, los algoritmos, los servidores y los conjuntos de datos del modelo, por ejemplo, mediante medidas de seguridad operativa para la seguridad de la información, medidas específicas en materia de ciberseguridad, soluciones técnicas adecuadas y establecidas y controles de acceso cibernéticos y físicos, en función de las circunstancias pertinentes y los riesgos existentes.
(115)
Poskytovatelia modelov AI na všeobecné účely so systémovými rizikami by mali posúdiť a zmierniť možné systémové riziká. Ak napriek úsiliu identifikovať riziká súvisiace s modelom AI na všeobecné účely, ktoré môžu predstavovať systémové riziká, a predchádzať im, vývoj alebo používanie modelu spôsobí závažný incident, poskytovateľ modelu AI na všeobecné účely by mal bez zbytočného odkladu sledovať incident a oznámiť všetky relevantné informácie a možné nápravné opatrenia Komisii a vnútroštátnym príslušným orgánom. Okrem toho by poskytovatelia mali zabezpečiť primeranú úroveň ochrany kybernetickej bezpečnosti modelu a jeho fyzickej infraštruktúry, ak je to vhodné, počas celého životného cyklu modelu. Pri ochrane kybernetickej bezpečnosti v súvislosti so systémovými rizikami spojenými so zlomyseľným používaním alebo útokmi by sa mal náležite zvážiť náhodný únik modelu, jeho nepovolené vydanie, obchádzanie bezpečnostných opatrení a ochrana pred kybernetickými útokmi, neoprávneným prístupom alebo krádežou modelu. Uvedená ochrana by sa mohla uľahčiť zabezpečením váh, algoritmov, serverov a súborov údajov modelu, napríklad prostredníctvom prevádzkových bezpečnostných opatrení v oblasti informačnej bezpečnosti, osobitných politík kybernetickej bezpečnosti, primeraných technických a zavedených riešení a kontrol kybernetického a fyzického prístupu, ktoré sú primerané príslušným okolnostiam a súvisiacim rizikám.
(116)
La Oficina de IA debe fomentar y facilitar la elaboración, revisión y adaptación de códigos de buenas prácticas, teniendo en cuenta los enfoques internacionales. Podría invitarse a participar a todos los proveedores de modelos de IA de uso general. Para garantizar que los códigos de buenas prácticas reflejen el estado actual de la técnica y tengan debidamente en cuenta perspectivas distintas, la Oficina de IA debe colaborar con las autoridades nacionales competentes pertinentes y, cuando proceda, podrá consultar a organizaciones de la sociedad civil y a otras partes interesadas y expertos pertinentes, incluido el Grupo de Expertos Científicos, por lo que respecta a la elaboración de dichos códigos. Los códigos de buenas prácticas deben comprender las obligaciones de los proveedores de modelos de IA de uso general y de modelos de IA de uso general que presenten riesgos sistémicos. Además, en lo que respecta a los riesgos sistémicos, los códigos de buenas prácticas deben ayudar a establecer una taxonomía de riesgos en la que figuren el tipo y la naturaleza de los riesgos sistémicos a escala de la Unión, incluidas sus fuentes. Asimismo, los códigos de buenas prácticas deben centrarse en medidas específicas de evaluación y reducción de riesgos.
(116)
Úrad pre AI by mal podporovať a uľahčovať vypracovanie, preskúmanie a úpravu kódexov postupov s prihliadnutím na medzinárodné prístupy. Na účasť by mohli byť prizvaní všetci poskytovatelia modelov AI na všeobecné účely. S cieľom zabezpečiť, aby kódexy postupov odrážali aktuálny stav vývoja a náležite zohľadňovali rôznorodý súbor perspektív, by mal úrad pre AI spolupracovať s vnútroštátnymi príslušnými orgánmi a v prípade potreby by sa pri vypracúvaní takýchto kódexov mohol poradiť s organizáciami občianskej spoločnosti a inými príslušnými zainteresovanými stranami a odborníkmi vrátane vedeckého panelu. Kódexy postupov by sa mali vzťahovať na povinnosti poskytovateľov modelov AI na všeobecné účely a modelov AI na všeobecné účely predstavujúcich systémové riziká. Okrem toho, pokiaľ ide o systémové riziká, kódexy postupov by mali pomôcť zaviesť taxonómiu typov a povahy systémových rizík na úrovni Únie vrátane ich zdrojov. Kódexy postupov by sa mali zamerať aj na osobitné posúdenie rizika a zmierňujúce opatrenia.
(117)
Los códigos de buenas prácticas deben constituir una herramienta fundamental para el cumplimiento adecuado de las obligaciones previstas en el presente Reglamento para los proveedores de modelos de IA de uso general. Los proveedores deben poder basarse en códigos de buenas prácticas para demostrar el cumplimiento de las obligaciones. Mediante actos de ejecución, la Comisión podrá decidir aprobar un código de buenas prácticas y conferirle una validez general dentro de la Unión o, alternativamente, establecer normas comunes para la puesta en práctica de las obligaciones pertinentes si, para el momento en que el presente Reglamento sea aplicable, no ha podido finalizarse un código de buenas prácticas o la Oficina de IA no lo considera adecuado. Una vez que se haya publicado una norma armonizada y que la Oficina de IA la considere adecuada para cubrir las obligaciones pertinentes, el cumplimiento de una norma armonizada europea debe dar a los proveedores la presunción de conformidad. Además, los proveedores de modelos de IA de uso general deben poder demostrar el cumplimiento utilizando medios alternativos adecuados si no se dispone de códigos de buenas prácticas o de normas armonizadas, o si deciden no basarse en ellos.
(117)
Kódexy postupov by mali predstavovať ústredný nástroj na riadne dodržiavanie povinností stanovených v tomto nariadení pre poskytovateľov modelov AI na všeobecné účely. Poskytovatelia by mali mať možnosť odvolávať sa na kódexy postupov na preukázanie dodržiavania povinností. Komisia môže prostredníctvom vykonávacích aktov rozhodnúť o schválení kódexu postupov a udeliť mu všeobecnú platnosť v rámci Únie, alebo prípadne stanoviť spoločné pravidlá vykonávania príslušných povinností, ak pred nadobudnutím účinnosti tohto nariadenia nie je možné kódex postupov finalizovať alebo ho úrad pre AI nepovažuje za primeraný. Keď sa harmonizovaná norma uverejní a posúdi úradom pre AI ako vhodná na pokrytie príslušných povinností, súlad s európskou harmonizovanou normou by mal poskytovateľom poskytnúť predpoklad zhody. Poskytovatelia modelov AI na všeobecné účely by okrem toho mali byť schopní preukázať súlad pomocou alternatívnych primeraných prostriedkov, ak kódexy postupov alebo harmonizované normy nie sú k dispozícii alebo sa rozhodnú na ne neodvolávať.
(118)
El presente Reglamento regula los sistemas de IA y modelos de IA imponiendo determinados requisitos y obligaciones a los agentes pertinentes del mercado que los introduzcan en el mercado, los pongan en servicio o los utilicen en la Unión, complementando así las obligaciones de los prestadores de servicios intermediarios que integren dichos sistemas o modelos en sus servicios, regulados por el Reglamento (UE) 2022/2065. En la medida en que dichos sistemas o modelos estén integrados en plataformas en línea de muy gran tamaño o en motores de búsqueda en línea de muy gran tamaño que hayan sido designados, están sujetos al marco de gestión de riesgos establecido en el Reglamento (UE) 2022/2065. Por consiguiente, debe presumirse que se han cumplido las obligaciones correspondientes del presente Reglamento a menos que surjan riesgos sistémicos significativos no cubiertos por el Reglamento (UE) 2022/2065 y se detecten en dichos modelos. En este marco, los prestadores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño están obligados a evaluar los posibles riesgos sistémicos derivados del diseño, el funcionamiento y el uso de sus servicios, incluido el modo en que el diseño de los sistemas algorítmicos utilizados en el servicio puede contribuir a dichos riesgos, así como los riesgos sistémicos derivados de posibles usos indebidos. Dichos prestadores también están obligados a adoptar las medidas de reducción de riesgos adecuadas respetando los derechos fundamentales.
(118)
Týmto nariadením sa regulujú systémy AI a modely AI uložením určitých požiadaviek a povinností relevantným aktérom trhu, ktorí ich uvádzajú na trh, uvádzajú do prevádzky alebo používajú v Únii, čím sa dopĺňajú povinnosti poskytovateľov sprostredkovateľských služieb, ktorí takéto systémy alebo modely začlenili do svojich služieb regulovaných nariadením (EÚ) 2022/2065. Pokiaľ sú takéto systémy alebo modely zabudované do určených veľmi veľkých online platforiem alebo veľmi veľkých internetových vyhľadávačov, podliehajú rámcu riadenia rizík stanovenému v nariadení (EÚ) 2022/2065. Príslušné povinnosti stanovené v tomto nariadení by sa preto mali považovať za splnené, pokiaľ sa v takýchto modeloch nevyskytnú a neidentifikujú významné systémové riziká, na ktoré sa nevzťahuje nariadenie (EÚ) 2022/2065. V tomto rámci sú poskytovatelia veľmi veľkých online platforiem a veľmi veľkých online vyhľadávačov povinní posúdiť potenciálne systémové riziká vyplývajúce z dizajnu, fungovania a používania ich služieb vrátane toho, ako môže koncepcia algoritmických systémov používaných v danej službe prispievať k takýmto rizikám, ako aj systémové riziká vyplývajúce z potenciálneho nesprávneho použitia. Títo poskytovatelia sú tiež povinní prijať primerané zmierňujúce opatrenia v súlade so základnými právami.
(119)
Tomando en consideración el rápido ritmo de innovación y la evolución tecnológica de los servicios digitales incluidos en el ámbito de aplicación de diferentes instrumentos del Derecho de la Unión, en particular teniendo en cuenta el uso y la percepción de sus destinatarios, los sistemas de IA sujetos al presente Reglamento pueden prestarse como servicios intermediarios, o partes de estos, en el sentido del Reglamento (UE) 2022/2065, que debe interpretarse de manera tecnológicamente neutra. Por ejemplo, los sistemas de IA pueden utilizarse para ofrecer motores de búsqueda en línea, en particular en la medida en que un sistema de IA, como un chatbot en línea, efectúe búsquedas, en principio, en todos los sitios web, incorpore a continuación los resultados a sus conocimientos existentes y utilice los conocimientos actualizados para generar una única información de salida que combine diferentes fuentes de información.
(119)
Vzhľadom na rýchle tempo inovácie a technologický vývoj digitálnych služieb v rozsahu pôsobnosti rôznych nástrojov práva Únie, najmä so zreteľom na používanie a vnímanie ich príjemcov, sa systémy AI, na ktoré sa vzťahuje toto nariadenie, môžu poskytovať ako sprostredkovateľské služby alebo ich časti v zmysle nariadenia (EÚ) 2022/2065, čo by sa malo vykladať technologicky neutrálnym spôsobom. Systémy AI sa napríklad môžu používať na poskytovanie internetových vyhľadávačov, najmä v rozsahu, v akom systém AI, ako je online chatbot, vyhľadáva v zásade na všetkých webových sídlach, potom začleňuje výsledky do svojich existujúcich poznatkov a využíva aktualizované poznatky na vytvorenie jediného výstupu, v ktorom sa kombinujú rôzne zdroje informácií.
(120)
Además, las obligaciones impuestas a los proveedores y a los responsables del despliegue de determinados sistemas de IA en el presente Reglamento destinadas a permitir que se detecte y divulgue que los resultados de salida de dichos sistemas han sido generados o manipulados de manera artificial resultan especialmente pertinentes para facilitar la aplicación efectiva del Reglamento (UE) 2022/2065. Esto se aplica en particular a las obligaciones de los prestadores de plataformas en línea de muy gran tamaño o de motores de búsqueda en línea de muy gran tamaño de detectar y mitigar los riesgos sistémicos que pueden surgir de la divulgación de contenidos que hayan sido generados o manipulados de manera artificial, en particular el riesgo de los efectos negativos reales o previsibles sobre los procesos democráticos, el discurso cívico y los procesos electorales, también a través de la desinformación.
(120)
Okrem toho povinnosti uložené poskytovateľom určitých systémov AI a subjektom nasadzujúcim určité systémy AI v tomto nariadení s cieľom umožniť odhaľovanie a zverejňovanie toho, že výstupy týchto systémov sú umelo generované alebo manipulované, sú osobitne relevantné na uľahčenie účinného vykonávania nariadenia (EÚ) 2022/2065. Týka sa to najmä povinností poskytovateľov veľmi veľkých online platforiem alebo veľmi veľkých internetových vyhľadávačov identifikovať a zmierňovať systémové riziká, ktoré môžu vyplynúť zo šírenia obsahu, ktorý bol umelo vytvorený alebo manipulovaný, najmä riziko skutočných alebo predvídateľných negatívnych účinkov na demokratické procesy, občiansku diskusiu a volebné procesy, a to aj prostredníctvom dezinformácií.
(121)
La normalización debe desempeñar un papel fundamental para proporcionar soluciones técnicas a los proveedores para garantizar el cumplimiento del presente Reglamento, en consonancia con el estado actual de la técnica, para promover la innovación, así como la competitividad y el crecimiento en el mercado único. El cumplimiento de las normas armonizadas definidas en el artículo 2, punto 1, letra c), del Reglamento (UE) n.o 1025/2012 del Parlamento Europeo y del Consejo (41), que generalmente se espera que reflejen el estado actual de la técnica, debe ser un medio para que los proveedores demuestren la conformidad con los requisitos previstos en el presente Reglamento. Por consiguiente, debe fomentarse una representación equilibrada de los intereses de todas las partes interesadas pertinentes —en particular las pymes, las organizaciones de consumidores y las partes interesadas de los ámbitos social y medioambiental— en la elaboración de normas, de conformidad con los artículos 5 y 6 del Reglamento (UE) n.o 1025/2012. A fin de facilitar el cumplimiento, la Comisión debe emitir las peticiones de normalización sin demora indebida. Al preparar la petición de normalización, la Comisión debe consultar al foro consultivo y al Consejo de IA para recabar los conocimientos especializados pertinentes. No obstante, a falta de referencias pertinentes a las normas armonizadas, la Comisión debe poder establecer, mediante actos de ejecución y previa consulta al foro consultivo, especificaciones comunes para determinados requisitos previstos en el presente Reglamento. Las especificaciones comunes deben ser una solución alternativa excepcional para facilitar la obligación del proveedor de cumplir los requisitos del presente Reglamento cuando ninguna de las organizaciones europeas de normalización haya aceptado la petición de normalización, cuando las normas armonizadas pertinentes respondan de forma insuficiente a las preocupaciones en materia de derechos fundamentales, cuando las normas armonizadas no cumplan la petición o cuando se produzcan retrasos en la adopción de una norma armonizada adecuada. Cuando dichos retrasos en la adopción de una norma armonizada se deban a la complejidad técnica de dicha norma, la Comisión debe tenerlo en cuenta antes de considerar la posibilidad de establecer especificaciones comunes. Se anima a la Comisión a que, a la hora de elaborar especificaciones comunes, coopere con los socios internacionales y los organismos internacionales de normalización.
(121)
Normalizácia by mala zohrávať kľúčovú úlohu pri poskytovaní technických riešení poskytovateľom na zabezpečenie súladu s týmto nariadením v súlade s aktuálnym stavom vývoja s cieľom podporovať inováciu, ako aj konkurencieschopnosť a rast na vnútornom trhu. Dodržiavanie harmonizovaných noriem v zmysle vymedzenia v článku 2 bode 1 písm. c) nariadenia Európskeho parlamentu a Rady (EÚ) č. 1025/2012 (41), ktoré by za bežných okolností mali odzrkadľovať aktuálny stav vývoja, by malo byť pre poskytovateľov prostriedkom na preukázanie zhody s požiadavkami tohto nariadenia. Malo by sa preto podporovať vyvážené zastúpenie záujmov za účasti všetkých relevantných zainteresovaných strán pri vypracúvaní noriem, najmä MSP, spotrebiteľských organizácií a zainteresovaných strán v oblasti životného prostredia a sociálnej oblasti v súlade s článkami 5 a 6 nariadenia (EÚ) č. 1025/2012. S cieľom uľahčiť dodržiavanie predpisov by Komisia mala žiadosti o normalizáciu vydávať bez zbytočného odkladu. Pri príprave žiadosti o normalizáciu by Komisia mala konzultovať s poradným fórom a radou pre AI s cieľom zhromaždiť príslušné odborné poznatky. Ak však neexistujú relevantné odkazy na harmonizované normy, Komisia by mala mať možnosť stanoviť prostredníctvom vykonávacích aktov a po konzultácii s poradným fórom spoločné špecifikácie pre určité požiadavky podľa tohto nariadenia. Spoločná špecifikácia by mala byť výnimočným záložným riešením na uľahčenie povinnosti poskytovateľa dodržiavať požiadavky tohto nariadenia, ak žiadosť o normalizáciu neakceptovala žiadna z európskych normalizačných organizácií alebo ak príslušné harmonizované normy nedostatočne riešia obavy týkajúce sa základných práv, alebo ak harmonizované normy nie sú v súlade so žiadosťou, alebo ak dôjde k oneskoreniam pri prijímaní vhodnej harmonizovanej normy. Ak je takéto oneskorenie pri prijímaní harmonizovanej normy spôsobené technickou zložitosťou uvedenej normy, Komisia by to mala zohľadniť pred tým, ako zváži ustanovenie spoločných špecifikácií. Komisia sa vyzýva, aby pri vypracúvaní spoločných špecifikácií spolupracovala s medzinárodnými partnermi a medzinárodnými normalizačnými orgánmi.
(122)
Conviene que, sin perjuicio del uso de normas armonizadas y especificaciones comunes, se presuma que los proveedores de un sistema de IA de alto riesgo que haya sido entrenado y probado con datos que reflejan el entorno geográfico, conductual, contextual o funcional específico en el que esté previsto que se utilice el sistema de IA cumplen la medida pertinente prevista en el requisito en materia de gobernanza de datos establecido en el presente Reglamento. Sin perjuicio de los requisitos relacionados con la solidez y la precisión establecidos en el presente Reglamento, de conformidad con el artículo 54, apartado 3, del Reglamento (UE) 2019/881, debe presumirse que los sistemas de IA de alto riesgo que cuenten con una certificación o una declaración de conformidad en virtud de un esquema de certificación de la ciberseguridad con arreglo a dicho Reglamento y cuyas referencias se hayan publicado en el Diario Oficial de la Unión Europea cumplen el requisito de ciberseguridad del presente Reglamento en la medida en que el certificado de ciberseguridad o la declaración de conformidad, o partes de estos, contemplen dicho requisito. Esto se entiende sin perjuicio del carácter voluntario de dicho esquema de ciberseguridad.
(122)
Bez toho, aby bolo dotknuté používanie harmonizovaných noriem a spoločných špecifikácií, je vhodné predpokladať, že poskytovatelia vysokorizikového systému AI, ktorý bol trénovaný a testovaný na údajoch odrážajúcich konkrétne geografické, behaviorálne, kontextuálne alebo funkčné prostredie, v ktorom sa má systém AI používať, by mali byť v súlade s príslušným opatrením stanoveným v rámci požiadavky na správu údajov stanovenej v tomto nariadení. Bez toho, aby boli dotknuté požiadavky týkajúce sa spoľahlivosti a presnosti stanovené v tomto nariadení, v súlade s článkom 54 ods. 3 nariadenia (EÚ) 2019/881 by sa vysokorizikové systémy AI, ktoré boli certifikované alebo pre ktoré bolo vydané vyhlásenie o zhode v rámci schémy kybernetickej bezpečnosti podľa uvedeného nariadenia, na ktorý boli uverejnené odkazy v Úradnom vestníku Európskej únie, mali považovať za systémy, ktoré sú v súlade s požiadavkou na kybernetickú bezpečnosť podľa tohto nariadenia, pokiaľ certifikát kybernetickej bezpečnosti alebo vyhlásenie o zhode alebo ich časti pokrývajú požiadavku kybernetickej bezpečnosti stanovenú v tomto nariadení. Touto skutočnosťou zostáva nedotknutá nezáväzná povaha uvedenej schémy kybernetickej bezpečnosti.
(123)
A fin de garantizar que los sistemas de IA de alto riesgo sean altamente fiables, debe someterse a dichos sistemas a una evaluación de la conformidad antes de su introducción en el mercado o puesta en servicio.
(123)
Na zabezpečenie vysokej úrovne dôveryhodnosti vysokorizikových systémov AI by tieto systémy mali pred svojím uvedením na trh alebo do prevádzky podliehať posudzovaniu zhody.
(124)
Para reducir al mínimo la carga que deben soportar los operadores y evitar posibles duplicidades, conviene, en el caso de los sistemas de IA de alto riesgo asociados a productos regulados por la legislación de armonización de la Unión vigente basada en el nuevo marco legislativo, que la conformidad de dichos sistemas de IA con los requisitos establecidos en el presente Reglamento se evalúe en el marco de la evaluación de la conformidad ya prevista en dicha legislación. Por lo tanto, la aplicabilidad de los requisitos del presente Reglamento no debe afectar a la lógica, la metodología o la estructura general específicas de la evaluación de la conformidad prevista en los actos legislativos de armonización pertinentes de la Unión.
(124)
S cieľom minimalizovať zaťaženie prevádzkovateľov a predchádzať prípadnej duplicite je vhodné, aby sa v prípade vysokorizikových systémov AI súvisiacich s výrobkami, na ktoré sa vzťahujú existujúce harmonizačné právne predpisy Únie založené na novom legislatívnom rámci, posudzoval súlad týchto systémov AI s požiadavkami tohto nariadenia v rámci posudzovania zhody, ktoré je už stanovené v uvedených právnych predpisov. Uplatniteľnosť požiadaviek tohto nariadenia by preto nemala mať vplyv na konkrétnu logiku, metodiku ani všeobecnú štruktúru posudzovania zhody podľa príslušných harmonizačných právnych predpisov Únie.
(125)
Dada la complejidad de los sistemas de IA de alto riesgo y los riesgos asociados a ellos, es importante desarrollar un procedimiento adecuado de evaluación de la conformidad de los sistemas de IA de alto riesgo en el que participen organismos notificados, denominado «evaluación de la conformidad de terceros». No obstante, habida cuenta de la experiencia actual de los profesionales que realizan la certificación previa a la comercialización en el campo de la seguridad de los productos y de la distinta naturaleza de los riesgos implicados, procede limitar, al menos en la fase inicial de aplicación del presente Reglamento, el alcance de las evaluaciones externas de la conformidad a los sistemas de IA de alto riesgo que no están asociados a productos. En consecuencia, el proveedor es quien, por norma general, debe llevar a cabo la evaluación de la conformidad de dichos sistemas bajo su propia responsabilidad, con la única excepción de los sistemas de IA que están destinados a utilizarse para la biometría.
(125)
Vzhľadom na zložitosť vysokorizikových systémov AI a riziká, ktoré s nimi súvisia, je dôležité vyvinúť primeraný postup posudzovania zhody pre vysokorizikové systémy AI, do ktorého sú zapojené notifikované osoby, tzv. posudzovanie zhody treťou stranou. Vzhľadom na súčasné skúsenosti profesionálnych certifikačných subjektov, ktoré vykonávajú certifikáciu pred uvedením na trh v oblasti bezpečnosti výrobkov, a na odlišnú povahu súvisiacich rizík je však vhodné aspoň v počiatočnej fáze uplatňovania tohto nariadenia obmedziť rozsah uplatňovania posudzovania zhody treťou stranou v prípade iných vysokorizikových systémov AI, než tých, ktoré sa týkajú výrobkov. Posudzovanie zhody takýchto systémov by preto mal spravidla vykonávať poskytovateľ na vlastnú zodpovednosť, s jedinou výnimkou, ktorou sú systémy AI určené na použitie v biometrii.
(126)
Para poder realizar las evaluaciones de la conformidad de terceros cuando así se les exija, las autoridades nacionales competentes deben notificar, en virtud del presente Reglamento, a los organismos notificados, siempre que cumplan una serie de requisitos, en particular en lo que respecta a su independencia, sus competencias y la ausencia de conflictos de intereses, así como requisitos adecuados de ciberseguridad. Las autoridades nacionales competentes deben enviar la notificación de dichos organismos a la Comisión y a los demás Estados miembros a través del sistema de notificación electrónica desarrollado y gestionado por la Comisión con arreglo a lo dispuesto en el artículo R23 del anexo I de la Decisión n.o 768/2008/CE.
(126)
S cieľom vykonávať podľa potreby posudzovania zhody treťou stranou by notifikované osoby mali byť notifikované podľa tohto nariadenia vnútroštátnymi príslušnými orgánmi za predpokladu, že spĺňajú súbor požiadaviek, najmä pokiaľ ide o nezávislosť, kompetentnosť, absenciu konfliktov záujmov a vhodné požiadavky na kybernetickú bezpečnosť. Notifikáciu týchto osôb by mali vnútroštátne príslušné orgány zasielať Komisii a ostatným členským štátom prostredníctvom elektronického nástroja notifikácie vyvinutého a riadeného Komisiou podľa článku R23 prílohy I k rozhodnutiu č. 768/2008/ES.
(127)
En consonancia con los compromisos contraídos por la Unión en virtud del Acuerdo sobre Obstáculos Técnicos al Comercio, de la Organización Mundial del Comercio, es adecuado facilitar el reconocimiento mutuo de los resultados de las evaluaciones de la conformidad realizadas por organismos de evaluación de la conformidad competentes, con independencia del territorio en el que estén establecidos, siempre que dichos organismos de evaluación de la conformidad establecidos con arreglo al Derecho de un tercer país cumplan los requisitos aplicables del presente Reglamento y la Unión haya celebrado un acuerdo en ese sentido. En este contexto, la Comisión debe estudiar activamente posibles instrumentos internacionales a tal efecto y, en particular, procurar celebrar acuerdos de reconocimiento mutuo con terceros países.
(127)
V súlade so záväzkami Únie vyplývajúcimi z Dohody Svetovej obchodnej organizácie o technických prekážkach obchodu je primerané uľahčiť vzájomné uznávanie výsledkov posudzovania zhody, ku ktorým dospeli príslušné orgány posudzovania zhody nezávislé od územia, na ktorom sú usadené, za predpokladu, že tieto orgány posudzovania zhody zriadené podľa práva tretej krajiny spĺňajú uplatniteľné požiadavky tohto nariadenia a Únia v tomto rozsahu uzavrela dohodu. V tejto súvislosti by Komisia mala na tento účel aktívne preskúmať možné medzinárodné nástroje, a najmä usilovať sa o uzavretie dohôd o vzájomnom uznávaní s tretími krajinami.
(128)
En consonancia con el concepto comúnmente establecido de «modificación sustancial» de los productos regulados por los actos legislativos de armonización de la Unión, conviene que, cada vez que se produzca un cambio que pueda afectar al cumplimiento del presente Reglamento por parte de un sistema de IA de alto riesgo (por ejemplo, un cambio de sistema operativo o de arquitectura de software) o cuando cambie la finalidad prevista del sistema, dicho sistema de IA se considere un sistema de IA nuevo que debe someterse a una nueva evaluación de la conformidad. Sin embargo, los cambios que se produzcan en el algoritmo y en el funcionamiento de los sistemas de IA que sigan «aprendiendo» después de su introducción en el mercado o su puesta en servicio, a saber, adaptando automáticamente el modo en que desempeñan sus funciones, no deben constituir una modificación sustancial, siempre que dichos cambios hayan sido predeterminados por el proveedor y se hayan evaluado en el momento de la evaluación de la conformidad.
(128)
V súlade so všeobecne zaužívaným pojmom podstatnej zmeny pre výrobky regulované harmonizačnými právnymi predpismi Únie je vhodné, aby sa vždy, keď nastane zmena, ktorá môže ovplyvniť súlad vysokorizikového systému AI s týmto nariadením (napríklad zmena operačného systému alebo softvérovej architektúry), alebo ak sa zmení zamýšľaný účel systému, tento systém AI považoval za nový systém AI, ktorý by sa mal podrobiť novému posudzovaniu zhody. Zmeny algoritmu a výkonu systémov AI, ktoré sa po uvedení na trh alebo do prevádzky ďalej „učia“, čiže automaticky prispôsobujú spôsob vykonávania funkcií, by však nemali predstavovať podstatnú zmenu za predpokladu, že tieto zmeny vopred stanovil poskytovateľ a posúdili sa v čase posudzovania zhody.
(129)
Los sistemas de IA de alto riesgo deben llevar el marcado CE para acreditar su conformidad con el presente Reglamento y así poder circular libremente por el mercado interior. En el caso de los sistemas de IA de alto riesgo integrados en un producto, se debe colocar un marcado CE físico, que puede complementarse con un marcado CE digital. En el caso de los sistemas de IA de alto riesgo que solo se proporcionen digitalmente, debe utilizarse un marcado CE digital. Los Estados miembros no deben crear obstáculos injustificados a la introducción en el mercado o la puesta en servicio de sistemas de IA de alto riesgo que cumplan los requisitos establecidos en el presente Reglamento y lleven el marcado CE.
(129)
Vysokorizikové systémy AI by mali mať označenie CE, ktoré by preukazovalo ich súlad s týmto nariadením, aby im bol umožnený voľný pohyb v rámci vnútorného trhu. V prípade vysokorizikových systémov AI zabudovaných do výrobku by sa malo umiestniť fyzické označenie CE, ktoré môže byť doplnené digitálnym označením CE. V prípade vysokorizikových systémov AI poskytovaných len digitálne by sa malo použiť digitálne označenie CE. Členské štáty by nemali vytvárať neodôvodnené prekážky uvedeniu na trh ani do prevádzky v prípade vysokorizikových systémov AI, ktoré spĺňajú požiadavky stanovené v tomto nariadení a majú označenie CE.
(130)
En determinadas condiciones, la rápida disponibilidad de tecnologías innovadoras puede ser crucial para la salud y la seguridad de las personas, la protección del medio ambiente y la mitigación del cambio climático, y para la sociedad en su conjunto. Por consiguiente, resulta oportuno que las autoridades de vigilancia del mercado puedan autorizar, por motivos excepcionales de seguridad pública o con vistas a proteger la vida y la salud de personas físicas, el medio ambiente y activos fundamentales de la industria y de las infraestructuras, la introducción en el mercado o la puesta en servicio de sistemas de IA que no hayan sido sometidos a una evaluación de la conformidad. En situaciones debidamente justificadas previstas en el presente Reglamento, las autoridades garantes del cumplimiento del Derecho o las autoridades de protección civil podrán poner en servicio un sistema de IA de alto riesgo específico sin la autorización de la autoridad de vigilancia del mercado, siempre que se solicite la autorización durante el uso o después de este sin demora indebida.
(130)
Rýchla dostupnosť inovačných technológií môže mať za určitých podmienok zásadný význam pre zdravie a bezpečnosť osôb, ochranu životného prostredia a zmenu klímy a pre spoločnosť ako celok. Je preto vhodné, aby orgány dohľadu nad trhom mohli z výnimočných dôvodov verejnej bezpečnosti alebo ochrany života a zdravia fyzických osôb, ochrany životného prostredia a ochrany kľúčových priemyselných a infraštruktúrnych aktív povoliť uvedenie na trh alebo do prevádzky systémov AI, ktoré neboli podrobené posudzovaniu zhody. V riadne odôvodnených situáciách stanovených v tomto nariadení môžu orgány presadzovania práva alebo orgány civilnej ochrany uviesť do prevádzky konkrétny vysokorizikový systém AI bez povolenia orgánu dohľadu nad trhom za predpokladu, že o takéto povolenie sa požiada počas používania alebo po ňom bez zbytočného odkladu.
(131)
Con el objetivo de facilitar la labor de la Comisión y de los Estados miembros en el ámbito de la IA, así como de incrementar la transparencia de cara al público, debe exigirse a los proveedores de sistemas de IA de alto riesgo que no estén asociados a productos que entren dentro del ámbito de aplicación de los actos legislativos de armonización de la Unión que sean pertinentes y estén en vigor, y a los proveedores que consideren que alguno de los sistemas de IA enumerados en los casos de uso de alto riesgo en un anexo del presente Reglamento no es de alto riesgo sobre la base de una excepción que se registren y que registren información sobre sus sistemas de IA en una base de datos de la UE, de cuya creación y gestión se encargará la Comisión. Antes de utilizar tal sistema de IA enumerado en los casos de uso de alto riesgo en un anexo del presente Reglamento, los responsables del despliegue de sistemas de IA de alto riesgo que sean autoridades, órganos u organismos públicos deben registrarse en dicha base de datos y seleccionar el sistema que tengan previsto utilizar. Los demás responsables del despliegue deben poder efectuar dicho registro con carácter voluntario. Esta sección de la base de datos de la UE debe ser de acceso público y gratuito, debe ser fácil navegar por la información, y esta ha de ser comprensible y legible por máquina. La base de datos de la UE también debe ser fácil de utilizar, por ejemplo, proporcionando funcionalidades de búsqueda, también a través de palabras clave, que permitan al público en general encontrar la información que debe presentarse para el registro de los sistemas de IA de alto riesgo y relativa a los casos de uso de sistemas de IA de alto riesgo contemplados en un anexo del presente Reglamento, a la que corresponden los sistemas de IA de alto riesgo. También debe registrarse en la base de datos de la UE toda modificación sustancial de sistemas de IA de alto riesgo. En el caso de los sistemas de IA de alto riesgo en el ámbito de la garantía del cumplimiento del Derecho y de la gestión de la migración, el asilo y el control fronterizo, las obligaciones de registro deben cumplirse en una sección segura no pública de la base de datos de la UE. El acceso a esa sección debe limitarse estrictamente a la Comisión y a las autoridades de vigilancia del mercado en lo que respecta a su sección nacional de dicha base de datos. Los sistemas de IA de alto riesgo en el ámbito de las infraestructuras críticas solo deben registrarse a nivel nacional. La Comisión debe ser la responsable del tratamiento de la base de datos de la UE, de conformidad con el Reglamento (UE) 2018/1725. Con vistas a garantizar la funcionalidad plena de la base de datos de la UE una vez que esté en funcionamiento, el procedimiento para su creación debe comprender el desarrollo de especificaciones funcionales por parte de la Comisión y la redacción de un informe de auditoría independiente. Al ejercer sus funciones como responsable del tratamiento de la base de datos de la UE, la Comisión debe tener en cuenta los riesgos de ciberseguridad. Con el fin de maximizar la disponibilidad y el uso de la base de datos de la UE por parte del público, la base de datos de la UE y la información facilitada a través de ella deben cumplir los requisitos establecidos en la Directiva (UE) 2019/882.
(131)
S cieľom uľahčiť prácu Komisie a členských štátov v oblasti AI, ako aj zvýšiť transparentnosť voči verejnosti by sa od poskytovateľov vysokorizikových systémov AI, ktoré nesúvisia s výrobkami patriacimi do rozsahu pôsobnosti príslušných existujúcich harmonizačných právnych predpisov Únie, ako aj od poskytovateľov, ktorí sa domnievajú, že vysokorizikový systém AI uvedený vo vysokorizikových prípadoch použitia v prílohe k tomuto nariadeniu nie je na základe výnimky vysokorizikový, malo vyžadovať, aby seba a informácie o svojom systéme AI zaregistrovali v databáze Únie, ktorú má zriadiť a spravovať Komisia. Pred použitím systému AI uvedeného vo vysokorizikových prípadoch použitia v prílohe k tomuto nariadeniu by sa subjekty nasadzujúce vysokorizikové systémy AI, ktoré sú orgánmi verejnej moci, verejnými agentúrami alebo verejnými subjektmi, mali zaregistrovať v takejto databáze a zvoliť si systém, ktorý plánujú používať. Ostatné nasadzujúce subjekty by mali mať právo tak urobiť dobrovoľne. Táto časť databázy Únie by mala byť bezplatne verejne prístupná a informácie by mali byť ľahko vyhľadateľné, zrozumiteľné a strojovo čitateľné. Databáza Únie by tiež mala byť používateľsky ústretová, napríklad poskytovaním funkcií vyhľadávania, a to aj prostredníctvom kľúčových slov, čo širokej verejnosti umožní nájsť relevantné informácie, ktoré majú byť predložené pri registrácii vysokorizikových systémov AI, a informácie o prípadoch použitia vysokorizikových systémov AI, ktoré sa uvádzajú v prílohe k tomuto nariadeniu a ktorým vysokorizikové systémy AI zodpovedajú. V databáze Únie by sa mala zaregistrovať aj každá podstatná zmena vysokorizikových systémov AI. V prípade vysokorizikových systémov AI v oblasti presadzovania práva, migrácie, azylu a riadenia kontroly hraníc by sa registračné povinnosti mali splniť v bezpečnej neverejnej časti databázy Únie. Prístup k bezpečnej neverejnej časti by sa mal prísne obmedziť na Komisiu, ako aj orgány dohľadu nad trhom, pokiaľ ide o ich vnútroštátnu časť uvedenej databázy. Vysokorizikové systémy AI v oblasti kritickej infraštruktúry by sa mali registrovať len na vnútroštátnej úrovni. Prevádzkovateľom databázy Únie by mala byť Komisia v súlade s nariadením (EÚ) 2018/1725. Aby sa zaistila plná funkčnosť databázy Únie pri jej zavedení, postup pri vytváraní databázy by mal zahŕňať vývoj funkčných špecifikácií Komisiou a nezávislú audítorskú správu. Komisia by mala pri plnení svojich úloh prevádzkovateľa údajov v databáze Únie zohľadniť riziká kybernetickej bezpečnosti. V záujme maximalizácie dostupnosti a využívania databázy Únie verejnosťou by databáza Únie vrátane informácií, ktoré sa prostredníctvom nej sprístupňujú, mala spĺňať požiadavky podľa smernice (EÚ) 2019/882.
(132)
Determinados sistemas de IA destinados a interactuar con personas físicas o a generar contenidos pueden plantear riesgos específicos de suplantación o engaño, con independencia de si cumplen las condiciones para ser considerados como de alto riesgo o no. Por consiguiente, el uso de estos sistemas debe estar sujeto, en determinadas circunstancias, a obligaciones de transparencia específicas, sin perjuicio de los requisitos y las obligaciones aplicables a los sistemas de IA de alto riesgo y a excepciones específicas a fin de tener en cuenta las necesidades especiales de la garantía del cumplimiento del Derecho. En particular, es preciso comunicar a las personas físicas que están interactuando con un sistema de IA, excepto cuando resulte evidente desde el punto de vista de una persona física normalmente informada y razonablemente atenta y perspicaz, teniendo en cuenta las circunstancias y el contexto de utilización. Al aplicar dicha obligación, deben tenerse en cuenta las características de las personas físicas pertenecientes a colectivos vulnerables debido a su edad o discapacidad en la medida en que el sistema de IA esté destinado a interactuar también con dichos colectivos. Además, es preciso notificar a las personas físicas cuando estén expuestas a sistemas de IA que, mediante el tratamiento de sus datos biométricos, puedan determinar o inferir sus emociones o intenciones o incluirlas en categorías específicas. Estas categorías específicas pueden referirse a aspectos como el sexo, la edad, el color del pelo, el color de ojos, los tatuajes, los rasgos personales, el origen étnico o las preferencias e intereses personales. Esta información y estas notificaciones deben facilitarse en formatos accesibles a las personas con discapacidad.
(132)
Určité systémy AI určené na interakciu s fyzickými osobami alebo generovanie obsahu môžu predstavovať osobitné riziko podvodu predstieraním identity alebo klamania bez ohľadu na to, či sú klasifikované ako vysokorizikové alebo nie. Používanie týchto systémov by preto malo za určitých okolností podliehať osobitným povinnostiam transparentnosti bez toho, aby boli dotknuté požiadavky a povinnosti týkajúce sa vysokorizikových systémov AI a s výhradou cielených výnimiek, aby sa zohľadnila osobitná potreba presadzovania práva. Fyzické osoby mali byť predovšetkým informované o tom, že interagujú so systémom AI, pokiaľ to nie je zrejmé z pohľadu fyzickej osoby, ktorá je primerane informovaná, pozorná a obozretná s prihliadnutím na okolnosti a kontext používania. Pri vykonávaní tejto povinnosti by sa mali zohľadniť charakteristiky fyzických osôb, ktoré z dôvodu ich veku alebo zdravotného postihnutia patria do zraniteľných skupín, a to v rozsahu, v akom je systém AI určený aj na interakciu s týmito skupinami. Okrem toho by fyzické osoby mali byť informované, keď sú vystavené systémom AI, ktoré spracúvaním ich biometrických údajov dokážu identifikovať alebo odvodiť emócie alebo zámery týchto osôb alebo ich zaradiť do osobitných kategórií. Takéto osobitné kategórie sa môžu týkať aspektov, ako je pohlavie, vek, farba vlasov, farba očí, tetovania, osobné črty, etnický pôvod, osobné preferencie a záujmy. Takéto informácie a oznámenia by sa mali poskytovať vo formátoch prístupných pre osoby so zdravotným postihnutím.
(133)
Una diversidad de sistemas de IA puede generar grandes cantidades de contenidos sintéticos que para las personas cada vez es más difícil distinguir del contenido auténtico generado por seres humanos. La amplia disponibilidad y las crecientes capacidades de dichos sistemas tienen importantes repercusiones en la integridad del ecosistema de la información y en la confianza en este, haciendo surgir nuevos riesgos de desinformación y manipulación a escala, fraude, suplantación de identidad y engaño a los consumidores. En vista de estos efectos, el rápido desarrollo tecnológico y la necesidad de nuevos métodos y técnicas para asegurar la trazabilidad del origen de la información, procede exigir a los proveedores de tales sistemas que integren soluciones técnicas que permitan marcar, en un formato legible por máquina, y detectar que el resultado de salida ha sido generado o manipulado por un sistema de IA y no por un ser humano. Dichas técnicas y métodos deben ser lo suficientemente fiables, interoperables, eficaces y sólidos, en la medida en que sea técnicamente viable, teniendo en cuenta las técnicas disponibles o una combinación de dichas técnicas, como marcas de agua, identificación de metadatos, métodos criptográficos para demostrar la procedencia y la autenticidad del contenido, métodos de registro, impresiones dactilares u otras técnicas, según proceda. A la hora de aplicar esta obligación, los proveedores también deben tener en cuenta las especificidades y las limitaciones de los diferentes tipos de contenidos y los avances tecnológicos y del mercado pertinentes en ese ámbito, tal como se refleja en el estado de la técnica generalmente reconocido. Dichas técnicas y métodos pueden implantarse a nivel de sistema de IA o a nivel de modelo de IA, incluidos modelos de IA de uso general que generan contenidos, facilitando así el cumplimiento de esta obligación por parte del proveedor posterior del sistema de IA. Para garantizar la proporcionalidad, conviene prever que esta obligación de marcado no se aplique a los sistemas de IA que desempeñen una función de apoyo a la edición estándar o no alteren sustancialmente los datos de entrada facilitados por el responsable del despliegue o su semántica.
(133)
Rôzne systémy AI môžu vytvárať veľké množstvá syntetického obsahu, ktorý je pre ľudí čoraz ťažšie odlíšiť od obsahu vytvoreného človekom a autentického obsahu. Široká dostupnosť a zvyšujúce sa spôsobilosti týchto systémov majú významný vplyv na integritu a dôveru v informačný ekosystém, čo zvyšuje nové riziká mylných informácií a manipulácie vo veľkom rozsahu, podvodov, predstierania identity a klamania spotrebiteľov. Vzhľadom na tieto vplyvy, rýchle tempo technologického vývoja a potrebu nových metód a techník na vysledovanie pôvodu informácií je vhodné vyžadovať od poskytovateľov týchto systémov, aby začlenili technické riešenia, ktoré umožnia označovanie v strojovo čitateľnom formáte a zisťovanie toho, že výstup bol vytvorený alebo manipulovaný systémom AI a nie človekom. Takéto techniky a metódy by mali byť dostatočne spoľahlivé, interoperabilné, účinné a robustné, pokiaľ je to technicky možné, pričom by sa mali zohľadniť dostupné techniky alebo kombinácia takýchto techník, ako sú vodoznak, identifikácia metaúdajov, kryptografické metódy na preukázanie pôvodu a pravosti obsahu, metódy logovania, odtlačky prstov alebo iné vhodné techniky. Pri implementovaní tejto povinnosti by poskytovatelia mali zohľadňovať aj osobitosti a obmedzenia rôznych typov obsahu a relevantný technologický a trhový vývoj v tejto oblasti odrážajúci sa vo všeobecne uznávanom aktuálnom stave vývoja. Takéto techniky a metódy možno implementovať na úrovni systému AI alebo na úrovni modelu AI vrátane modelov AI na všeobecné účely vytvárajúcich obsah, čím sa uľahčí plnenie tejto povinnosti nadväzujúcim poskytovateľom systému AI. V záujme zachovania primeranosti je vhodné predpokladať, že táto povinnosť označovania by sa nemala vzťahovať na systémy AI, ktoré vykonávajú predovšetkým pomocnú funkciu pre štandardné redakčné úpravy, alebo systémy AI, ktoré podstatne nemenia vstupné údaje, ktoré poskytuje subjekt nasadzujúci systém AI, alebo ich sémantiku.
(134)
Además de las soluciones técnicas utilizadas por los proveedores del sistema de IA, los responsables del despliegue que utilicen un sistema de IA para generar o manipular un contenido de imagen, audio o vídeo generado o manipulado por una IA que se asemeje notablemente a personas, objetos, lugares, entidades o sucesos reales y que puede inducir a una persona a pensar erróneamente que son auténticos o verídicos (ultrasuplantaciones) deben también hacer público, de manera clara y distinguible, que este contenido ha sido creado o manipulado de manera artificial etiquetando los resultados de salida generados por la IA en consecuencia e indicando su origen artificial. El cumplimiento de esta obligación de transparencia no debe interpretarse como un indicador de que la utilización del sistema de IA o de sus resultados de salida obstaculiza el derecho a la libertad de expresión y el derecho a la libertad de las artes y de las ciencias, garantizados por la Carta, en particular cuando el contenido forme parte de una obra o programa manifiestamente creativos, satíricos, artísticos, de ficción o análogos, con sujeción a unas garantías adecuadas para los derechos y libertades de terceros. En tales casos, la obligación de transparencia en relación con las ultrasuplantaciones establecida en el presente Reglamento se limita a revelar la existencia de tales contenidos generados o manipulados de una manera adecuada que no obstaculice la presentación y el disfrute de la obra, también su explotación y uso normales, al tiempo que se conservan la utilidad y la calidad de la obra. Además, también conviene prever una obligación de divulgación similar en relación con el texto generado o manipulado por una IA en la medida en que se publique con el fin de informar al público sobre asuntos de interés público, a menos que el contenido generado por la IA haya sido sometido a un proceso de revisión humana o de control editorial y que una persona física o jurídica ejerza la responsabilidad editorial de la publicación del contenido.
(134)
V nadväznosti na technické riešenia, ktoré používajú poskytovatelia systému AI, nasadzujúce subjekty, ktoré používajú systém AI na generovanie alebo manipulovanie obrazového obsahu, audioobsahu alebo videoobsahu, ktorý sa zjavne podobá existujúcim osobám, objektom, miestam, subjektom alebo udalostiam a ktorý by sa osobe falošne javil ako autentický alebo pravdivý (ďalej len „deep fake“), by takisto mali jasne a zreteľne zverejniť, že obsah bol umelo vytvorený alebo manipulovaný, a to zodpovedajúcim označením výstupu AI a zverejnením jeho umelého pôvodu. Dodržiavanie tejto povinnosti transparentnosti by sa nemalo vykladať tak, že naznačuje, že používanie systému AI alebo jeho výstupu bráni právu na slobodu prejavu a právu na slobodu umenia a vedeckého bádania, ktoré sú zaručené v charte, najmä ak je obsah súčasťou zjavne tvorivého, satirického, umeleckého, fiktívneho alebo analogického diela alebo programu s výhradou primeraných záruk pre práva a slobody tretích strán. V týchto prípadoch sa povinnosť transparentnosti v prípade deep fake stanovená v tomto nariadení obmedzuje na zverejnenie existencie takéhoto vytvoreného alebo manipulovaného obsahu primeraným spôsobom, ktorý nebráni zobrazovaniu alebo užívaniu diela vrátane jeho bežného využívania a používania pri zachovaní užitočnosti a kvality diela. Okrem toho je takisto vhodné stanoviť podobnú povinnosť zverejňovania v súvislosti s textom vytvoreným alebo manipulovaným AI v rozsahu, v akom sa uverejňuje na účely informovania verejnosti o záležitostiach verejného záujmu, pokiaľ obsah vytvorený AI neprešiel procesom ľudskej kontroly alebo redakčnej kontroly a pokiaľ fyzická alebo právnická osoba nenesie redakčnú zodpovednosť za uverejnenie obsahu.
(135)
Sin perjuicio del carácter obligatorio y de la plena aplicabilidad de las obligaciones de transparencia, la Comisión podrá también fomentar y facilitar la elaboración de códigos de buenas prácticas a escala de la Unión, a fin de facilitar la aplicación eficaz de las obligaciones en materia de detección y etiquetado de contenidos generados o manipulados de manera artificial, también para apoyar disposiciones prácticas para que, según proceda, los mecanismos de detección sean accesibles y facilitar la cooperación con otros agentes de la cadena de valor, difundiendo los contenidos o comprobando su autenticidad y procedencia, a fin de que el público pueda distinguir efectivamente los contenidos generados por IA.
(135)
Bez toho, aby bola dotknutá povinná povaha a úplná uplatniteľnosť povinností transparentnosti, môže Komisia takisto podporovať a uľahčovať vypracovanie kódexov postupov na úrovni Únie s cieľom uľahčiť účinnú implementáciu povinností týkajúcich sa odhaľovania a označovania umelo vytvoreného alebo manipulovaného obsahu vrátane podpory praktických opatrení na prípadné sprístupnenie mechanizmov odhaľovania a uľahčenie spolupráce s inými aktérmi v hodnotovom reťazci, šírenie obsahu alebo kontrolu jeho pravosti a pôvodu s cieľom umožniť verejnosti účinne rozlišovať obsah vytvorený AI.
(136)
Las obligaciones impuestas a los proveedores y a los responsables del despliegue de determinados sistemas de IA en el presente Reglamento destinadas a permitir que se detecte y divulgue que los resultados de salida de dichos sistemas han sido generados o manipulados de manera artificial resultan especialmente pertinentes para facilitar la aplicación efectiva del Reglamento (UE) 2022/2065. Esto se aplica en particular en lo referente a las obligaciones de los prestadores de plataformas en línea de muy gran tamaño o de motores de búsqueda en línea de muy gran tamaño para detectar y mitigar los riesgos sistémicos que pueden surgir de la divulgación de contenidos que hayan sido generados o manipulados de manera artificial, en particular el riesgo de los efectos negativos reales o previsibles sobre los procesos democráticos, el discurso cívico y los procesos electorales, como a través de la desinformación. La exigencia de etiquetar los contenidos generados por sistemas de IA con arreglo al presente Reglamento se entiende sin perjuicio de la obligación prevista en el artículo 16, apartado 6, del Reglamento (UE) 2022/2065 para los prestadores de servicios de alojamiento de datos de tratar las notificaciones que reciban sobre contenidos ilícitos en virtud del artículo 16, apartado 1, de dicho Reglamento, y no debe influir en la evaluación y la decisión sobre el carácter ilícito del contenido de que se trate. Dicha evaluación debe realizarse únicamente con referencia a las normas que rigen la legalidad del contenido.
(136)
Povinnosti uložené poskytovateľom a nasadzujúcim subjektom určitých systémov AI v tomto nariadení s cieľom umožniť odhaľovanie a zverejňovanie toho, že výstupy týchto systémov sú umelo generované alebo manipulované, sú osobitne relevantné na uľahčenie účinného vykonávania nariadenia (EÚ) 2022/2065. Týka sa to najmä povinností poskytovateľov veľmi veľkých online platforiem alebo veľmi veľkých internetových vyhľadávačov identifikovať a zmierňovať systémové riziká, ktoré môžu vyplynúť zo šírenia obsahu, ktorý bol umelo vytvorený alebo manipulovaný, najmä riziko skutočných alebo predvídateľných negatívnych účinkov na demokratické procesy, občiansku diskusiu a volebné procesy, a to aj prostredníctvom dezinformácií. Požiadavkou na označovanie obsahu vytvoreného systémami AI podľa tohto nariadenia nie je dotknutá povinnosť poskytovateľov hostingových služieb podľa článku 16 ods. 6 nariadenia (EÚ) 2022/2065 spracúvať oznámenia o nezákonnom obsahu prijaté podľa článku 16 ods. 1 uvedeného nariadenia a nemala by ovplyvňovať posúdenie a rozhodnutie o nezákonnosti konkrétneho obsahu. Toto posúdenie by sa malo vykonať výlučne s odkazom na pravidlá upravujúce zákonnosť obsahu.
(137)
El cumplimiento de las obligaciones de transparencia aplicables a los sistemas de IA que entran en el ámbito de aplicación del presente Reglamento no debe interpretarse como un indicador de que la utilización del sistema de IA o de sus resultados de salida es lícito en virtud del presente Reglamento o de otras disposiciones del Derecho de la Unión y de los Estados miembros, y debe entenderse sin perjuicio de otras obligaciones de transparencia aplicables a los responsables del despliegue de sistemas de IA establecidas en el Derecho de la Unión o nacional.
(137)
Dodržiavanie povinností transparentnosti v prípade systémov AI, na ktoré sa vzťahuje toto nariadenie, by sa nemalo vykladať ako naznačujúce to, že používanie systému AI alebo jeho výstupov je podľa tohto nariadenia alebo iných právnych predpisov Únie a členských štátov zákonné, a nemali by ním byť dotknuté iné povinnosti transparentnosti uložené subjektom nasadzujúcim systémy AI stanovené v práve Únie alebo vo vnútroštátnom práve.
(138)
La IA es una familia de tecnologías de rápida evolución que requiere vigilancia regulatoria y un espacio seguro y controlado para la experimentación, así como que se garantice la innovación responsable y la integración de salvaguardias éticas y medidas de reducción de riesgos adecuadas. Para conseguir un marco jurídico que promueva la innovación, resista el paso del tiempo y sea resiliente a las perturbaciones, los Estados miembros deben velar por que sus autoridades nacionales competentes establezcan al menos un espacio controlado de pruebas para la IA a escala nacional que facilite el desarrollo y la prueba de sistemas de IA innovadores bajo una estricta vigilancia regulatoria antes de su introducción en el mercado o puesta en servicio. Los Estados miembros también podrían cumplir esta obligación participando en los espacios controlados de pruebas ya existentes o estableciendo un espacio de pruebas conjuntamente con las autoridades competentes de uno o varios Estados miembros, en la medida en que dicha participación proporcione un nivel de cobertura nacional equivalente para los Estados miembros participantes. Los espacios controlados de pruebas para la IA podrían establecerse de forma física, digital o híbrida y podrán albergar productos tanto físicos como digitales. Las autoridades que los creen deben también garantizar que los espacios controlados de pruebas para la IA dispongan de recursos adecuados para su funcionamiento, incluidos recursos financieros y humanos.
(138)
AI je rýchlo sa rozvíjajúca skupina technológií, ktorá si vyžaduje regulačný dohľad a bezpečný a kontrolovaný priestor na experimentovanie, pričom sa musí zabezpečiť zodpovedná inovácia a integrovanie primeraných záruk a opatrení na zmiernenie rizika. Na zabezpečenie právneho rámca, ktorý podporuje inováciu, je vhodný do budúcnosti a odolný voči narušeniu, by členské štáty mali zabezpečiť, aby ich vnútroštátne príslušné orgány zriadili na vnútroštátnej úrovni aspoň jedno regulačné experimentálne prostredie pre AI s cieľom uľahčiť vývoj a testovanie inovačných systémov AI pod prísnym regulačným dohľadom skôr, než sa tieto systémy uvedú na trh alebo inak uvedú do prevádzky. Členské štáty by mohli splniť túto povinnosť aj účasťou v už existujúcich regulačných experimentálnych prostrediach alebo spoločným zriadením experimentálneho prostredia s jedným alebo viacerými príslušnými orgánmi členských štátov, pokiaľ táto účasť poskytuje zúčastneným členským štátom rovnocennú úroveň vnútroštátneho pokrytia. Regulačné experimentálne prostredia pre AI by sa mohli zriadiť vo fyzickej, digitálnej alebo hybridnej forme a môžu zahŕňať fyzické, ako aj digitálne produkty. Zriaďujúce orgány by mali takisto zabezpečiť, aby regulačné experimentálne prostredia pre AI mali na svoje fungovanie primerané zdroje vrátane finančných a ľudských zdrojov.
(139)
Los espacios controlados de pruebas para la IA deben tener los objetivos de impulsar la innovación en el ámbito de la IA estableciendo un entorno de experimentación y prueba controlado en la fase de desarrollo y previa a la comercialización, con vistas a garantizar que los sistemas de IA innovadores cumplan lo dispuesto en el presente Reglamento y en otras disposiciones pertinentes del Derecho de la Unión y nacional. Además, los espacios controlados de pruebas para la IA deben tener por objeto mejorar la seguridad jurídica de que gozan los innovadores y favorecer la vigilancia de las autoridades competentes y su entendimiento de las oportunidades, los riesgos emergentes y las consecuencias del uso de la IA, de facilitar el aprendizaje normativo de las autoridades y empresas, también con vistas a futuras adaptaciones del marco jurídico, de apoyar la cooperación y el intercambio de mejores prácticas con las autoridades que intervienen en el espacio controlado de pruebas y de acelerar el acceso a los mercados, también eliminando los obstáculos para las pequeñas y medianas empresas, incluidas las empresas emergentes. Los espacios controlados de pruebas para la IA deben estar ampliamente disponibles en toda la Unión y debe prestarse especial atención a que sean accesibles para las pymes, incluidas las empresas emergentes. La participación en el espacio controlado de pruebas para la IA debe centrarse en cuestiones que generen inseguridad jurídica y que, por lo tanto, dificulten que los proveedores y los proveedores potenciales innoven y experimenten con la IA en la Unión y contribuir a un aprendizaje normativo basado en datos contrastados. Por consiguiente, la supervisión de los sistemas de IA en el espacio controlado de pruebas para la IA debe comprender su desarrollo, entrenamiento, prueba y validación antes de su introducción en el mercado o puesta en servicio, así como el concepto de «modificación sustancial» y su materialización, que puede hacer necesario un nuevo procedimiento de evaluación de la conformidad. Cualquier riesgo significativo detectado durante el proceso de desarrollo y prueba de estos sistemas de IA debe dar lugar a la adopción de medidas de reducción adecuadas y, en su defecto, a la suspensión del proceso de desarrollo y prueba. Cuando proceda, las autoridades nacionales competentes que establezcan espacios controlados de pruebas para la IA deben cooperar con otras autoridades pertinentes, incluidas las que supervisan la protección de los derechos fundamentales, y pueden dar cabida a otros agentes del ecosistema de la IA, como organizaciones de normalización nacionales o europeas, organismos notificados, instalaciones de ensayo y experimentación, laboratorios de investigación y experimentación, centros europeos de innovación digital y organizaciones de partes interesadas y de la sociedad civil pertinentes. Para garantizar una aplicación uniforme en toda la Unión y conseguir economías de escala, resulta oportuno establecer normas comunes para la creación de espacios controlados de pruebas para la IA, así como un marco para la cooperación entre las autoridades pertinentes implicadas en la supervisión de dichos espacios. Los espacios controlados de pruebas para la IA establecidos en virtud del presente Reglamento deben entenderse sin perjuicio de otros actos legislativos que permitan el establecimiento de otros espacios controlados de pruebas encaminados a garantizar el cumplimiento de actos legislativos distintos del presente Reglamento. Cuando proceda, las autoridades competentes pertinentes encargadas de esos otros espacios controlados de pruebas deben ponderar las ventajas de utilizarlos también con el fin de garantizar el cumplimiento del presente Reglamento por parte de los sistemas de IA. Previo acuerdo entre las autoridades nacionales competentes y los participantes en el espacio controlado de pruebas para la IA, las pruebas en condiciones reales también podrán gestionarse y supervisarse en el marco del espacio controlado de pruebas para la IA.
(139)
Cieľmi regulačných experimentálnych prostredí pre AI by mala byť podpora inovácie v oblasti AI vytvorením kontrolovaného experimentálneho a testovacieho prostredia vo fáze vývoja a pred uvedením na trh, aby sa zabezpečil súlad inovačných systémov AI s týmto nariadením a iným relevantný právom Únie a vnútroštátnym právom. Okrem toho by sa regulačné experimentálne prostredia pre AI mali zamerať na zvýšenie právnej istoty inovátorov a dohľadu príslušných orgánov a pochopenie príležitostí, vznikajúcich rizík a vplyvov používania AI, na uľahčenie regulačného vzdelávania orgánov a podnikov, a to aj vzhľadom na budúce úpravy právneho rámca, na podporu spolupráce a výmeny najlepších postupov s orgánmi zapojenými do regulačných experimentálnych prostredí pre AI, a na urýchlenie prístupu na trhy, a to aj odstránením prekážok pre MSP vrátane startupov. Regulačné experimentálne prostredia pre AI by mali byť široko dostupné v celej Únii a osobitná pozornosť by sa mala venovať ich dostupnosti pre MSP vrátane startupov. Účasť v regulačnom experimentálnom prostredí pre AI by sa mala zamerať na otázky, ktoré vyvolávajú právnu neistotu pre poskytovateľov a potenciálnych poskytovateľov pri inovácii a experimentovaní s AI v Únii, a prispievať k regulačnému vzdelávaniu založenému na dôkazoch. Dohľad nad systémami AI v regulačnom experimentálnom prostredí pre AI by sa preto mal vzťahovať na ich vývoj, trénovanie, testovanie a validáciu pred ich uvedením na trh alebo do prevádzky, ako aj na pojem podstatná zmena a výskyt takýchto zmien, ktoré si môžu vyžadovať nový postup posudzovania zhody. Ak sa počas vývoja a testovania takýchto systémov AI zistia akékoľvek významné riziká, malo by sa pristúpiť k primeranému zmierneniu rizík, a ak to nie je možné, k pozastaveniu procesu vývoja a testovania. Vnútroštátne príslušné orgány, ktoré zriaďujú regulačné experimentálne prostredia pre AI, by mali v prípade potreby spolupracovať s inými relevantnými orgánmi vrátane tých, ktoré dohliadajú na ochranu základných práv, a mohli by umožniť zapojenie ďalších aktérov v rámci ekosystému AI, ako sú vnútroštátne alebo európske normalizačné organizácie, notifikované osoby, skúšobné a experimentálne zariadenia, výskumné a experimentálne laboratóriá, európske centrá digitálnych inovácií a príslušné zainteresované strany a organizácie občianskej spoločnosti. S cieľom zabezpečiť jednotné vykonávanie v celej Únii a úspory z rozsahu je vhodné stanoviť spoločné pravidlá pre zavádzanie regulačných experimentálnych prostredí pre AI a rámec pre spoluprácu medzi príslušnými orgánmi zapojenými do dohľadu nad experimentálnymi prostrediami. Regulačné experimentálne prostredia pre AI zriadené podľa tohto nariadenia by nemali mať vplyv na iné právne predpisy umožňujúce zriadenie iných experimentálnych prostredí zameraných na zabezpečenie súladu s iným právnym predpisom, než je toto nariadenie. V prípade potreby by relevantné príslušné orgány zodpovedné za tieto iné regulačné experimentálne prostredia mali zvážiť výhody používania týchto experimentálnych prostredí aj na účely zabezpečenia súladu systémov AI s týmto nariadením. Na základe dohody medzi vnútroštátnymi príslušnými orgánmi a účastníkmi regulačného experimentálneho prostredia pre AI sa testovanie v reálnych podmienkach môže vykonávať a môže sa naň dohliadať aj v rámci regulačného experimentálneho prostredia pre AI.
(140)
El presente Reglamento debe proporcionar la base jurídica para que los proveedores y los proveedores potenciales en el espacio controlado de pruebas para la IA utilicen datos personales recabados para otros fines para desarrollar determinados sistemas de IA en favor del interés público en el espacio controlado de pruebas para la IA, únicamente en determinadas condiciones, de conformidad con el artículo 6, apartado 4, y el artículo 9, apartado 2, letra g), del Reglamento (UE) 2016/679 y los artículos 5, 6 y 10 del Reglamento (UE) 2018/1725, y sin perjuicio de lo dispuesto en el artículo 4, apartado 2, y el artículo 10 de la Directiva (UE) 2016/680. Siguen siendo aplicables las demás obligaciones de los responsables del tratamiento y los derechos de los interesados en virtud del Reglamento (UE) 2016/679, el Reglamento (UE) 2018/1725 y la Directiva (UE) 2016/680. En particular, el presente Reglamento no debe ofrecer una base jurídica en el sentido del artículo 22, apartado 2, letra b), del Reglamento (UE) 2016/679 y del artículo 24, apartado 2, letra b), del Reglamento (UE) 2018/1725. Los proveedores y los proveedores potenciales en el espacio controlado de pruebas para la IA deben proporcionar las garantías adecuadas y cooperar con las autoridades competentes, también siguiendo sus indicaciones y actuando con rapidez y de buena fe para mitigar adecuadamente cualquier riesgo considerable para la seguridad, la salud y los derechos fundamentales que se detecte y pueda surgir durante el desarrollo, las pruebas y la experimentación en dicho espacio.
(140)
Toto nariadenie by malo poskytnúť právny základ pre poskytovateľov a potenciálnych poskytovateľov v regulačných experimentálnych prostrediach pre AI na používanie osobných údajov, ktoré boli získané na iné účely, pri vývoji určitých systémov AI vo verejnom záujme v rámci regulačného experimentálneho prostredia pre AI v súlade s článkom 6 ods. 4 a článkom 9 ods. 2 písm. g) nariadenia (EÚ) 2016/679 a článkami 5, 6 a 10 nariadenia (EÚ) 2018/1725, a bez toho, aby bol dotknutý článok 4 ods. 2 a článok 10 smernice (EÚ) 2016/680. Všetky ostatné povinnosti prevádzkovateľov a práva dotknutých osôb podľa nariadenia (EÚ) 2016/679, nariadenia (EÚ) 2018/1725 a smernice (EÚ) 2016/680 zostávajú uplatniteľné. Toto nariadenie by predovšetkým nemalo poskytovať právny základ v zmysle článku 22 ods. 2 písm. b) nariadenia (EÚ) 2016/679 a článku 24 ods. 2 písm. b) nariadenia (EÚ) 2018/1725. Poskytovatelia a potenciálni poskytovatelia v regulačnom experimentálnom prostredí pre AI by mali zabezpečiť primerané záruky a spolupracovať s príslušnými orgánmi, a to aj tým, že budú postupovať podľa ich usmernení a konať promptne a v dobrej viere s cieľom primerane zmierniť akékoľvek zistené vysoké riziká pre bezpečnosť, zdravie a základné práva, ktoré môžu vzniknúť počas vývoja, testovania a experimentácie v uvedenom experimentálnom prostredí.
(141)
A fin de acelerar el proceso de desarrollo e introducción en el mercado de los sistemas de IA de alto riesgo enumerados en un anexo del presente Reglamento, es importante que los proveedores o proveedores potenciales de dichos sistemas también puedan beneficiarse de un régimen específico para probar dichos sistemas en condiciones reales, sin participar en un espacio controlado de pruebas para la IA. No obstante, en tales casos, teniendo en cuenta las posibles consecuencias de dichas pruebas para las personas físicas, debe garantizarse que el Reglamento establezca garantías y condiciones adecuadas y suficientes para los proveedores o proveedores potenciales. Estas garantías deben incluir, entre otras cosas, la solicitud del consentimiento informado de las personas físicas para participar en pruebas en condiciones reales, salvo en lo que respecta a la garantía del cumplimiento del Derecho cuando intentar obtener el consentimiento informado impediría que se probara el sistema de IA. El consentimiento de los sujetos para participar en tales pruebas en virtud del presente Reglamento es distinto del consentimiento de los interesados para el tratamiento de sus datos personales con arreglo al Derecho pertinente en materia de protección de datos y se entiende sin perjuicio de este. También es importante reducir al mínimo los riesgos y permitir la supervisión por parte de las autoridades competentes y, por tanto, exigir a los proveedores potenciales que presenten a la autoridad de vigilancia del mercado competente un plan de la prueba en condiciones reales, registren la prueba en las secciones específicas de la base de datos de la UE, sin perjuicio de algunas excepciones limitadas, establezcan limitaciones sobre el período durante el que puede llevarse a cabo la prueba y exijan garantías adicionales para las personas pertenecientes a determinados colectivos vulnerables, así como un acuerdo por escrito que defina las funciones y responsabilidades de los proveedores potenciales y de los responsables del despliegue y una supervisión eficaz por parte de personal competente que intervenga en la prueba en condiciones reales. Además, conviene prever garantías adicionales para asegurarse de que sea posible revertir efectivamente y descartar las predicciones, recomendaciones o decisiones del sistema de IA y de que los datos personales se protejan y se supriman cuando los sujetos retiren su consentimiento a participar en la prueba, sin perjuicio de sus derechos como interesados en virtud del Derecho de la Unión en materia de protección de datos. Por lo que respecta a la transferencia de datos, conviene también prever que los datos recopilados y tratados a efectos de las pruebas en condiciones reales solo deben transferirse a terceros países cuando existan garantías adecuadas y aplicables con arreglo al Derecho de la Unión, en particular, de conformidad con las bases para la transferencia de datos personales previstas en el Derecho de la Unión en materia de protección de datos y, en lo referente a los datos no personales, existan garantías adecuadas con arreglo al Derecho de la Unión, como los Reglamentos (UE) 2022/868 (42) y (UE) 2023/2854 (43) del Parlamento Europeo y del Consejo.
(141)
S cieľom urýchliť proces vývoja a uvádzania na trh vysokorizikových systémov AI uvedených v prílohe k tomuto nariadeniu je dôležité, aby poskytovatelia alebo potenciálni poskytovatelia takýchto systémov mohli využívať aj osobitný režim testovania týchto systémov v reálnych podmienkach bez toho, aby sa zapojili do regulačného experimentálneho prostredia pre AI. V takýchto prípadoch by sa však pri zohľadnení možných dôsledkov takéhoto testovania na fyzické osoby malo zabezpečiť, aby sa nariadením zaviedli primerané a dostatočné záruky a podmienky pre poskytovateľov alebo potenciálnych poskytovateľov. Takéto záruky by okrem iného mali zahŕňať požadovanie informovaného súhlasu fyzických osôb s účasťou na testovaní v reálnych podmienkach s výnimkou presadzovania práva v prípadoch, keď by vyžiadanie informovaného súhlasu bránilo testovaniu systému AI. Súhlas účastníkov s účasťou na takomto testovaní podľa tohto nariadenia je odlišný od súhlasu dotknutých osôb so spracúvaním ich osobných údajov podľa príslušného práva o ochrane údajov a nie je ním dotknutý. Takisto je dôležité minimalizovať riziká a umožniť dohľad zo strany príslušných orgánov, a preto požadovať, aby potenciálni poskytovatelia predložili príslušnému orgánu dohľadu nad trhom plán testovania v reálnych podmienkach, registrovali testovanie v špecializovaných oddieloch v databáze Únie s určitými obmedzenými výnimkami, stanovili obmedzenia obdobia, počas ktorého možno testovanie vykonávať, a vyžadovali dodatočné záruky pre osoby patriace do určitých zraniteľných skupín, ako aj písomnú dohodu, v ktorej sa vymedzia úlohy a povinnosti potenciálnych poskytovateľov a nasadzujúcich subjektov a účinný dohľad zo strany príslušných pracovníkov zapojených do testovania v reálnych podmienkach. Okrem toho je vhodné stanoviť dodatočné záruky na zabezpečenie toho, aby sa predpovede, odporúčania alebo rozhodnutia systému AI mohli účinne zvrátiť a ignorovať a aby boli osobné údaje chránené a vymazané, keď účastníci stiahli svoj súhlas s účasťou na testovaní bez toho, aby boli dotknuté ich práva ako dotknutých osôb podľa právnych predpisov Únie v oblasti ochrany údajov. Pokiaľ ide o prenos údajov, je tiež vhodné stanoviť, že údaje zozbierané a spracúvané na účely testovania v reálnych podmienkach by sa mali prenášať do tretích krajín len za predpokladu, že sa implementujú primerané a uplatniteľné záruky podľa práva Únie, najmä v súlade so základňami pre prenos osobných údajov podľa práva Únie o ochrane údajov, zatiaľ čo v prípade iných ako osobných údajov sa zavedú primerané záruky v súlade s právom Únie, ako sú nariadenia Európskeho parlamentu a Rady (EÚ) 2022/868 (42) a (EÚ) 2023/2854 (43).
(142)
A fin de garantizar que la IA conduzca a resultados positivos desde el punto de vista social y medioambiental, se anima a los Estados miembros a que respalden y promuevan la investigación y el desarrollo de soluciones de IA en apoyo a tales resultados, como soluciones basadas en la IA para aumentar la accesibilidad para las personas con discapacidad, atajar desigualdades socioeconómicas o cumplir los objetivos en materia de medio ambiente, asignando recursos suficientes, incluidos fondos públicos y de la Unión, y, cuando proceda y siempre que se cumplan los criterios de admisibilidad y selección, teniendo en consideración especialmente proyectos que persigan tales objetivos. Dichos proyectos deben basarse en el principio de cooperación interdisciplinaria entre desarrolladores de IA, expertos en desigualdad y no discriminación, en accesibilidad y en derechos del consumidor, medioambientales y digitales, así como representantes del mundo académico.
(142)
S cieľom zabezpečiť, aby AI viedla k sociálne a environmentálne prospešným výsledkom, sa členské štáty nabádajú, aby podporovali a propagovali výskum a vývoj riešení AI na podporu sociálne a environmentálne prospešných činností, ako sú riešenia založené na AI, s cieľom zvýšiť prístupnosť pre osoby so zdravotným postihnutím, riešiť sociálno-ekonomické nerovnosti alebo plniť environmentálne ciele, a to vyčlenením dostatočných zdrojov vrátane verejných finančných prostriedkov a finančných prostriedkov Únie, a vo vhodných prípadoch a za predpokladu, že sú splnené kritériá oprávnenosti a výberu, so zohľadnením najmä projektov, ktoré sledujú takéto ciele. Takéto projekty by mali byť založené na zásade interdisciplinárnej spolupráce medzi vývojármi AI, odborníkmi na nerovnosť a nediskrimináciu, prístupnosť, spotrebiteľské, environmentálne a digitálne práva, ako aj akademickými pracovníkmi.
(143)
Para promover y proteger la innovación, es importante tener en particular consideración los intereses de las pymes, incluidas las empresas emergentes, que sean proveedores o responsables del despliegue de sistemas de IA. A tal fin, los Estados miembros deben desarrollar iniciativas en materia de concienciación y comunicación de información, entre otros aspectos, dirigidas a dichos operadores. Los Estados miembros deben proporcionar a las pymes, incluidas las empresas emergentes, que tengan un domicilio social o una sucursal en la Unión, un acceso prioritario a los espacios controlados de pruebas para la IA, siempre que cumplan las condiciones de admisibilidad y los criterios de selección y sin impedir que otros proveedores y proveedores potenciales accedan a los espacios controlados de pruebas, siempre que se cumplan las mismas condiciones y criterios. Los Estados miembros deben utilizar los canales existentes y establecer, cuando proceda, nuevos canales de comunicación específicos con las pymes, incluidos las empresas emergentes, los responsables del despliegue, otros innovadores y, cuando proceda, las autoridades públicas locales, para apoyar a las pymes durante toda su trayectoria de desarrollo ofreciendo orientaciones y respondiendo a las preguntas sobre la aplicación del presente Reglamento. Cuando proceda, estos canales deben trabajar juntos para crear sinergias y garantizar la homogeneidad de sus orientaciones para las pymes, incluidas las empresas emergentes, y los responsables del despliegue. Además, los Estados miembros deben fomentar la participación de las pymes y otras partes interesadas pertinentes en los procesos de desarrollo de la normalización. Asimismo, los organismos notificados deben tener en cuenta las necesidades y los intereses específicos de los proveedores que sean pymes, incluidas las empresas emergentes, cuando establezcan las tasas aplicables a las evaluaciones de la conformidad. La Comisión debe evaluar periódicamente los costes de la certificación y el cumplimiento para las pymes, incluidas las empresas emergentes, a través de consultas transparentes, y debe trabajar con los Estados miembros para reducir dichos costes. Por ejemplo, los costes de traducción ligados a la documentación obligatoria y a la comunicación con las autoridades pueden ser considerables para los proveedores y otros operadores, en particular para los de menor tamaño. En la medida de lo posible, los Estados miembros deben velar por que una de las lenguas en las que acepten que los proveedores presenten la documentación pertinente y que pueda usarse para la comunicación con los operadores sea ampliamente conocida por el mayor número posible de responsables del despliegue transfronterizos. A fin de abordar las necesidades específicas de las pymes, incluidas las empresas emergentes, la Comisión debe proporcionar modelos normalizados para los ámbitos regulados por el presente Reglamento, previa solicitud del Consejo de IA. Además, la Comisión debe complementar los esfuerzos de los Estados miembros proporcionando una plataforma única de información con información fácil de utilizar sobre el presente Reglamento para todos los proveedores y responsables del despliegue, organizando campañas de comunicación adecuadas para sensibilizar sobre las obligaciones derivadas del presente Reglamento y evaluando y fomentando la convergencia de las mejores prácticas en los procedimientos de contratación pública en relación con los sistemas de IA. Las medianas empresas que hace poco se consideraban pequeñas empresas en el sentido del anexo de la Recomendación 2003/361/CE de la Comisión (44) deben tener acceso a esas medidas de apoyo, ya que dichas nuevas medianas empresas a veces pueden carecer de los recursos jurídicos y la formación necesarios para garantizar la comprensión y el cumplimiento adecuados del presente Reglamento.
(143)
V záujme podpory a ochrany inovácií je dôležité, aby sa osobitne prihliadalo na záujmy MSP vrátane startupov, ktoré sú poskytovateľmi systémov AI alebo subjektmi nasadzujúcimi systémy AI. Na tento účel by členské štáty mali vyvíjať iniciatívy zamerané na týchto prevádzkovateľov vrátane zvyšovania informovanosti a informačnej komunikácie. Členské štáty by mali poskytnúť MSP vrátane startupov, ktoré majú sídlo alebo pobočku v Únii, prednostný prístup do regulačných experimentálnych prostredí pre AI za predpokladu, že spĺňajú podmienky oprávnenosti a podmienky účasti a nebránia iným poskytovateľom a potenciálnym poskytovateľom v prístupe do experimentálnych prostredí za predpokladu, že sú splnené rovnaké podmienky a kritériá. Členské štáty by mali použiť existujúce kanály a v prípade potreby vytvoriť nové vyhradené kanály na komunikáciu s MSP vrátane startupov, subjektmi nasadzujúcimi systémy AI, ďalšími inovátormi a podľa potreby s miestnymi orgánmi verejnej moci s cieľom podporovať MSP v celom štádiu ich rozvoja poskytovaním usmernení a odpovedaním na otázky týkajúce sa vykonávania tohto nariadenia. Vo vhodných prípadoch by tieto kanály mali navzájom spolupracovať s cieľom vytvoriť synergie a zabezpečiť homogénnosť v ich usmerneniach pre MSP vrátane startupov a subjektov nasadzujúcich systémy AI. Členské štáty by taktiež mali uľahčovať účasť MSP a iných relevantných zainteresovaných strán na procese tvorby noriem. Pri stanovovaní poplatkov za posudzovanie zhody notifikovanými osobami by sa okrem toho mali zohľadňovať osobitné záujmy a potreby poskytovateľov, ktorí sú MSP vrátane startupov. Komisia by mala pravidelne posudzovať náklady MSP vrátane startupov na certifikáciu a dodržiavanie predpisov, a to aj transparentnými konzultáciami, a mala by spolupracovať s členskými štátmi na znižovaní týchto nákladov. Napríklad, značné náklady pre poskytovateľov a iných prevádzkovateľov, najmä menších prevádzkovateľov, môžu predstavovať náklady na preklady súvisiace s povinnou dokumentáciou a komunikáciou s orgánmi. Členské štáty by mali podľa možnosti zabezpečiť, aby jedným z jazykov, ktoré určili a akceptovali na účely dokumentácie vedenej príslušnými poskytovateľmi a komunikácie s prevádzkovateľmi, bol jazyk, ktorému vo všeobecnosti rozumie čo najväčší počet cezhraničných nasadzujúcich subjektov. S cieľom riešiť osobitné potreby MSP vrátane startupov by Komisia mala na žiadosť rady pre AI poskytnúť štandardizované vzory pre oblasti, na ktoré sa vzťahuje toto nariadenie. Okrem toho by Komisia mala dopĺňať úsilie členských štátov tým, že všetkým poskytovateľom a nasadzujúcim subjektom poskytne jednotnú informačnú platformu s ľahko použiteľnými informáciami o tomto nariadení, organizovaním vhodných komunikačných kampaní na zvýšenie informovanosti o povinnostiach vyplývajúcich z tohto nariadenia a hodnotením a podporou zbližovania najlepších postupov v postupoch verejného obstarávania v súvislosti so systémami AI. Stredné podniky, ktoré sa donedávna považovali za malé podniky v zmysle prílohy k odporúčaniu Komisie 2003/361/ES (44), by mali mať prístup k týmto podporným opatreniam, keďže týmto novým stredným podnikom môžu niekedy chýbať právne zdroje a odborná príprava potrebné na zabezpečenie riadneho pochopenia a dodržiavania tohto nariadenia.
(144)
Con el fin de promover y proteger la innovación, la plataforma de IA a la carta y todos los programas y proyectos de financiación de la Unión pertinentes, como el programa Europa Digital u Horizonte Europa, ejecutados por la Comisión y los Estados miembros a escala nacional o de la Unión deben, cuando proceda, contribuir a la consecución de los objetivos del presente Reglamento.
(144)
S cieľom podporovať a chrániť inovácie by k dosiahnutiu cieľov tohto nariadenia mala prispievať platforma AI na požiadanie a všetky relevantné programy a projekty financovania Únie, ako je program Digitálna Európa alebo Horizont Európa, ktoré Komisia a členské štáty vykonávajú na vnútroštátnej úrovni alebo na úrovni Únie.
(145)
A fin de reducir al mínimo los riesgos para la aplicación derivados de la falta de conocimientos y experiencia en el mercado, y con el objetivo de facilitar que los proveedores, en particular las pymes, incluidas las empresas emergentes, y los organismos notificados cumplan las obligaciones que les impone el presente Reglamento, la plataforma de IA a la carta, los centros europeos de innovación digital y las instalaciones de ensayo y experimentación establecidos por la Comisión y los Estados miembros a escala nacional o de la Unión deben contribuir a la aplicación de este Reglamento. En concreto, la plataforma de IA a la carta, los centros europeos de innovación digital y las instalaciones de ensayo y experimentación son capaces de proporcionar a los proveedores y organismos notificados asistencia técnica y científica dentro de sus respectivas misiones y esferas de competencia.
(145)
S cieľom minimalizovať riziká spojené s vykonávaním vyplývajúce z nedostatku poznatkov a odborných znalostí na trhu, ako aj uľahčiť poskytovateľom, najmä MSP vrátane startupov, a notifikovaným osobám plnenie ich povinností podľa tohto nariadenia by k vykonávaniu tohto nariadenia mali predovšetkým prispievať platforma AI na požiadanie, európske centrá digitálnych inovácií a testovacie a experimentálne zariadenia zriadené Komisiou a členskými štátmi na úrovni Únie alebo na vnútroštátnej úrovni. Platforma AI na požiadanie, európske centrá digitálnych inovácií a testovacie a experimentálne zariadenia sú v rámci svojho poslania a oblastí svojej pôsobnosti schopné poskytovať poskytovateľom a notifikovaným osobám najmä technickú a vedeckú podporu.
(146)
Además, a la luz del tamaño muy pequeño de algunos operadores y con el fin de garantizar la proporcionalidad en relación con los costes de innovación, conviene permitir que las microempresas cumplan una de las obligaciones más costosas, a saber, la de establecer un sistema de gestión de la calidad, de manera simplificada, lo que reduciría la carga administrativa y los costes para dichas empresas sin afectar al nivel de protección ni a la necesidad de cumplir los requisitos aplicables a los sistemas de IA de alto riesgo. La Comisión debe elaborar directrices para especificar los elementos del sistema de gestión de la calidad que las microempresas deben cumplir de esta manera simplificada.
(146)
Okrem toho, vzhľadom na to, že niektorí prevádzkovatelia sú veľmi malí, a s cieľom zabezpečiť proporcionalitu v súvislosti s nákladmi na inovácie je vhodné umožniť mikropodnikom splniť jednu z najnákladnejších povinností, konkrétne zavedenie systému riadenia kvality, zjednodušeným spôsobom, čím by sa znížilo administratívne zaťaženie a náklady týchto podnikov bez toho, aby to malo vplyv na úroveň ochrany a potrebu súladu s požiadavkami na vysokorizikové systémy AI. Komisia by mala vypracovať usmernenia na spresnenie prvkov systému riadenia kvality, ktoré majú mikropodniky splniť týmto zjednodušeným spôsobom.
(147)
Resulta adecuado que la Comisión facilite, en la medida de lo posible, el acceso a las instalaciones de ensayo y experimentación a organismos, grupos o laboratorios establecidos o acreditados con arreglo a la legislación de armonización de la Unión pertinente y que realicen tareas en el marco de la evaluación de la conformidad de productos o dispositivos regulados por dicha legislación. Tal es el caso, en particular, en lo que respecta a los paneles de expertos, los laboratorios especializados y los laboratorios de referencia en el ámbito de los productos sanitarios, de conformidad con los Reglamentos (UE) 2017/745 y (UE) 2017/746.
(147)
Je vhodné, aby Komisia v čo najväčšej možnej miere uľahčila prístup k testovacím a experimentálnym zariadeniam orgánom, skupinám alebo laboratóriám zriadeným alebo akreditovaným podľa akýchkoľvek príslušných harmonizačných právnych predpisov Únie, ktoré plnia úlohy v súvislosti s posudzovaním zhody výrobkov alebo zariadení, na ktoré sa uvedené harmonizačné právne predpisy Únie vzťahujú. Týka sa to najmä panelov odborníkov, odborných laboratórií a referenčných laboratórií v oblasti zdravotníckych pomôcok podľa nariadení (EÚ) 2017/745 a (EÚ) 2017/746.
(148)
El presente Reglamento debe establecer un marco de gobernanza que permita tanto coordinar y apoyar su aplicación a escala nacional, como desarrollar capacidades a escala de la Unión e integrar a las partes interesadas en el ámbito de la IA. La aplicación y el cumplimiento efectivos del presente Reglamento requieren un marco de gobernanza que permita coordinar y adquirir conocimientos especializados centrales a escala de la Unión. La Oficina de IA se creó mediante Decisión de la Comisión (45) y tiene como misión desarrollar conocimientos especializados y capacidades de la Unión en el ámbito de la IA y contribuir a la aplicación del Derecho de la Unión en materia de IA. Los Estados miembros deben facilitar las tareas de la Oficina de IA con vistas a apoyar el desarrollo de conocimientos especializados y capacidades a escala de la Unión y a fortalecer el funcionamiento del mercado único digital. Además, debe crearse un Consejo de IA compuesto por representantes de los Estados miembros, un grupo de expertos científicos para integrar a la comunidad científica y un foro consultivo para facilitar las aportaciones de las partes interesadas a la aplicación del presente Reglamento, a escala de la Unión y nacional. El desarrollo de conocimientos especializados y capacidades de la Unión también debe incluir la utilización de los recursos y conocimientos especializados existentes, en particular a través de sinergias con estructuras creadas en el contexto de la aplicación a escala de la Unión de otros actos legislativos y de sinergias con iniciativas conexas a escala de la Unión, como la Empresa Común EuroHPC y las instalaciones de ensayo y experimentación de IA en el marco del programa Europa Digital.
(148)
Týmto nariadením by sa mal stanoviť rámec správy a riadenia, ktorý umožní koordináciu a podporu uplatňovania tohto nariadenia na vnútroštátnej úrovni, ako aj budovanie spôsobilostí na úrovni Únie a integráciu zainteresovaných strán v oblasti AI. Účinné vykonávanie a presadzovanie tohto nariadenia si vyžaduje rámec správy a riadenia, ktorý umožňuje koordináciu a budovanie centrálnej expertízy na úrovni Únie. Rozhodnutím Komisie (45) bol zriadený úrad pre AI, ktorého poslaním je rozvíjať odborné znalosti a spôsobilosti Únie v oblasti AI a prispievať k vykonávaniu právnych predpisov Únie v oblasti AI. Členské štáty by mali uľahčovať úlohy úradu pre AI s cieľom podporiť rozvoj odborných znalostí a spôsobilostí Únie na úrovni Únie a posilniť fungovanie digitálneho jednotného trhu. Okrem toho by sa mala zriadiť rada pre AI zložená zo zástupcov členských štátov, vedecký panel na integráciu vedeckej komunity a poradné fórum, prostredníctvom ktorého by zainteresované strany prispievali k vykonávaniu tohto nariadenia na úrovni Únie a na vnútroštátnej úrovni. Rozvoj odborných znalostí a spôsobilostí Únie by mal zahŕňať aj využívanie existujúcich zdrojov a odborných znalostí, najmä prostredníctvom synergií so štruktúrami vytvorenými v kontexte presadzovania iných právnych predpisov na úrovni Únie a synergií so súvisiacimi iniciatívami na úrovni Únie, ako je spoločný podnik EuroHPC a testovacie a experimentálne zariadenia AI v rámci programu Digitálna Európa.
(149)
Debe establecerse un Consejo de IA que facilite la aplicación fluida, efectiva y armonizada del presente Reglamento. El Consejo de IA debe reflejar los diversos intereses del ecosistema de la IA y estar formado por representantes de los Estados miembros. El Consejo de IA debe encargarse de diversas tareas de asesoramiento. Entre otras cosas, debe emitir dictámenes, recomendaciones e informes de asesoramiento o contribuir a orientaciones sobre asuntos relacionados con la aplicación de este Reglamento, también en lo que respecta la ejecución, las especificaciones técnicas o las normas existentes en relación con los requisitos previstos en el presente Reglamento, y asesorar a la Comisión y a los Estados miembros, así como a sus autoridades nacionales competentes, en cuestiones específicas vinculadas a la IA. Con el fin de dar cierta flexibilidad a los Estados miembros en la designación de sus representantes en el Consejo de IA, cualquier persona perteneciente a una entidad pública que tenga las competencias y facultades pertinentes para facilitar la coordinación a escala nacional y contribuir al cumplimiento de las funciones del Consejo de IA podrá ser designada representante. El Consejo de IA debe establecer dos subgrupos permanentes a fin de proporcionar una plataforma de cooperación e intercambio entre las autoridades de vigilancia del mercado y las autoridades notificantes sobre cuestiones relacionadas, respectivamente, con la vigilancia del mercado y los organismos notificados. El subgrupo permanente de vigilancia del mercado debe actuar como grupo de cooperación administrativa (ADCO) para el presente Reglamento en el sentido del artículo 30 del Reglamento (UE) 2019/1020. De conformidad con el artículo 33 de dicho Reglamento, la Comisión debe apoyar las actividades del subgrupo permanente de vigilancia del mercado mediante la realización de evaluaciones o estudios de mercado, en particular con vistas a determinar los aspectos del presente Reglamento que requieran una coordinación específica y urgente entre las autoridades de vigilancia del mercado. El Consejo de IA puede establecer otros subgrupos de carácter permanente o temporal, según proceda, para examinar asuntos específicos. El Consejo de IA también debe cooperar, según proceda, con los organismos, grupos de expertos y redes pertinentes de la Unión activos en el contexto del Derecho de la Unión pertinente, incluidos, en particular, los activos en virtud del Derecho de la Unión pertinente en materia de datos y productos y servicios digitales.
(149)
Na uľahčenie bezproblémového, účinného a harmonizovaného vykonávania tohto nariadenia by sa mala zriadiť rada pre AI. Rada pre AI by mala zohľadňovať rôzne záujmy ekosystému AI a mala by byť zložená zo zástupcov členských štátov. Rada pre AI by mala byť zodpovedná za viacero poradných úloh vrátane vydávania stanovísk, odporúčaní a poradenstva alebo prispievania k usmerneniam v záležitostiach týkajúcich sa vykonávania tohto nariadenia vrátane otázok presadzovania, technických špecifikácií alebo existujúcich noriem týkajúcich sa požiadaviek stanovených v tomto nariadení, a poskytovania poradenstva Komisii a členským štátom a ich vnútroštátnym príslušným orgánom v špecifických otázkach súvisiacich s AI. S cieľom poskytnúť členským štátom určitú flexibilitu pri určovaní ich zástupcov v rade pre AI môžu byť takýmito zástupcami akékoľvek osoby z verejných subjektov, ktoré by mali mať príslušné kompetencie a právomoci na uľahčenie koordinácie na vnútroštátnej úrovni a prispievanie k plneniu úloh rady pre AI. Rada pre AI by mala zriadiť dve stále podskupiny s cieľom poskytnúť platformu na spoluprácu a výmenu informácií medzi orgánmi dohľadu nad trhom a notifikujúcimi orgánmi v otázkach týkajúcich sa dohľadu nad trhom, ako aj v otázkach týkajúcich sa notifikovaných osôb. Stála podskupina pre dohľad nad trhom by mala konať ako skupina pre administratívnu spoluprácu (ADCO) pre toto nariadenie v zmysle článku 30 nariadenia (EÚ) 2019/1020. V súlade s článkom 33 uvedeného nariadenia by Komisia mala podporovať činnosti stálej podskupiny pre dohľad nad trhom vykonávaním hodnotení alebo štúdií trhu, najmä s cieľom identifikovať aspekty tohto nariadenia, ktoré si vyžadujú osobitnú a naliehavú koordináciu medzi orgánmi dohľadu nad trhom. Na účely preskúmania konkrétnych otázok môže rada pre AI podľa potreby zriaďovať ďalšie stále alebo dočasné podskupiny. Rada pre AI by mala podľa potreby spolupracovať aj s príslušnými orgánmi, expertnými skupinami a sieťami Únie, ktoré pôsobia v kontexte príslušného práva Únie, a to najmä s tými, na ktorých činnosť sa vzťahuje príslušné právo Únie o údajoch, digitálnych produktoch a službách.
(150)
Con vistas a garantizar la participación de las partes interesadas en la ejecución y aplicación del presente Reglamento, debe crearse un foro consultivo para asesorar al Consejo de IA y a la Comisión y proporcionarles conocimientos técnicos. A fin de garantizar una representación variada y equilibrada de las partes interesadas que tenga en cuenta los intereses comerciales y no comerciales y, dentro de la categoría de los intereses comerciales, por lo que se refiere a las pymes y otras empresas, el foro consultivo debe incluir, entre otros, a la industria, las empresas emergentes, las pymes, el mundo académico, la sociedad civil, en particular los interlocutores sociales, así como a la Agencia de los Derechos Fundamentales de la Unión Europea, ENISA, el Comité Europeo de Normalización (CEN), el Comité Europeo de Normalización Electrotécnica (Cenelec) y el Instituto Europeo de Normas de Telecomunicaciones (ETSI).
(150)
S cieľom zabezpečiť zapojenie zainteresovaných strán do vykonávania a uplatňovania tohto nariadenia by sa malo zriadiť poradné fórum, ktoré bude rade pre AI a Komisii poskytovať poradenstvo a technické odborné znalosti. S cieľom zabezpečiť rôznorodé a vyvážené zastúpenie zainteresovaných strán medzi komerčnými a nekomerčnými záujmami a v rámci kategórie obchodných záujmov, pokiaľ ide o MSP a iné podniky, by poradné fórum malo okrem iného zahŕňať priemysel, startupy, MSP, akademickú obec, občiansku spoločnosť vrátane sociálnych partnerov, ako aj Agentúru pre základné práva, agentúru ENISA, Európsky výbor pre normalizáciu (CEN), Európsky výbor pre normalizáciu v elektrotechnike (CENELEC) a Európsky inštitút pre telekomunikačné normy (ETSI).
(151)
Para apoyar la aplicación y el cumplimiento del presente Reglamento, en particular las actividades de supervisión de la Oficina de IA en lo que respecta a los modelos de IA de uso general, debe crearse un grupo de expertos científicos formado por expertos independientes. Los expertos independientes que constituyan el grupo de expertos científicos deben seleccionarse sobre la base de conocimientos científicos o técnicos actualizados en el ámbito de la IA y deben desempeñar sus funciones con imparcialidad y objetividad y garantizar la confidencialidad de la información y los datos obtenidos en el ejercicio de sus funciones y actividades. A fin de permitir el refuerzo de las capacidades nacionales necesarias para el cumplimiento efectivo del presente Reglamento, los Estados miembros deben poder solicitar el apoyo de los expertos que constituyan el grupo científico para sus actividades de garantía del cumplimiento.
(151)
Na podporu vykonávania a presadzovania tohto nariadenia, najmä monitorovacích činností úradu pre AI, pokiaľ ide o modely AI na všeobecné účely, by sa mal zriadiť vedecký panel nezávislých expertov. Nezávislí experti, ktorí tvoria vedecký panel, by sa mali vyberať na základe aktuálnych vedeckých alebo technických odborných znalostí v oblasti AI, mali by svoje úlohy vykonávať nestranne, objektívne a mali by zabezpečovať dôvernosť informácií a údajov získaných pri vykonávaní svojich úloh a činností. S cieľom umožniť posilnenie vnútroštátnych kapacít potrebných na účinné presadzovanie tohto nariadenia by členské štáty mali mať možnosť požiadať o podporu zo strany skupiny odborníkov tvoriacich vedecký panel pre ich činnosti v oblasti presadzovania práva.
(152)
A fin de apoyar una ejecución adecuada en lo que respecta a los sistemas de IA y reforzar las capacidades de los Estados miembros, deben crearse y ponerse a disposición de los Estados miembros estructuras de apoyo a los ensayos de IA de la Unión.
(152)
S cieľom podporiť primerané presadzovanie, pokiaľ ide o systémy AI, a posilniť kapacity členských štátov by sa mali zriadiť podporné štruktúry Únie na testovanie AI, ktoré by sa mali sprístupniť členským štátom.
(153)
Los Estados miembros desempeñan un papel clave en la aplicación y ejecución del presente Reglamento. En ese sentido, cada Estado miembro debe designar al menos una autoridad notificante y al menos una autoridad de vigilancia del mercado como autoridades nacionales competentes que se encarguen de supervisar su aplicación y ejecución. Los Estados miembros pueden decidir designar cualquier tipo de entidad pública para que desempeñe las tareas de las autoridades nacionales competentes en el sentido del presente Reglamento, de conformidad con sus características y necesidades organizativas nacionales específicas. Con el fin de incrementar la eficiencia organizativa en los Estados miembros y establecer un único punto de contacto oficial con el público y otros homólogos a escala de los Estados miembros y la Unión, cada Estado miembro debe designar una autoridad de vigilancia del mercado que actúe como punto de contacto único.
(153)
Pri uplatňovaní a presadzovaní tohto nariadenia zohrávajú kľúčovú úlohu členské štáty. V tejto súvislosti by mal každý členský štát určiť na účely dohľadu nad uplatňovaním a vykonávaním tohto nariadenia aspoň jeden notifikujúci orgán a aspoň jeden orgán dohľadu nad trhom ako vnútroštátne príslušné orgány. Členské štáty môžu rozhodnúť o vymenovaní akéhokoľvek druhu verejného subjektu na plnenie úloh vnútroštátnych príslušných orgánov v zmysle tohto nariadenia v súlade so svojimi osobitnými vnútroštátnymi organizačnými charakteristikami a potrebami. Aby sa zvýšila efektívnosť organizácie zo strany členských štátov a zriadilo jednotné kontaktné miesto vo vzťahu k verejnosti a iným protistranám na úrovni členských štátov a Únie, každý členský štát by mal určiť jeden orgán dohľadu nad trhom, aby konal ako jediné kontaktné miesto.
(154)
Las autoridades nacionales competentes deben ejercer sus poderes de manera independiente, imparcial y objetiva, a fin de preservar los principios de objetividad de sus actividades y funciones y garantizar la aplicación y ejecución del presente Reglamento. Los miembros de estas autoridades deben abstenerse de todo acto incompatible con el carácter de sus funciones y estar sujetos a las normas de confidencialidad establecidas en el presente Reglamento.
(154)
Vnútroštátne príslušné orgány by mali vykonávať svoje právomoci nezávisle, nestranne a bez zaujatosti s cieľom chrániť zásady objektivity svojich činností a úloh a zabezpečiť uplatňovanie a vykonávanie tohto nariadenia. Členovia týchto orgánov by sa mali zdržať akéhokoľvek konania nezlučiteľného s ich povinnosťami a mali by podliehať pravidlám dôvernosti podľa tohto nariadenia.
(155)
Todos los proveedores de sistemas de IA de alto riesgo deben contar con un sistema de vigilancia poscomercialización, con vistas a garantizar que puedan tener en cuenta la experiencia con el uso de esos sistemas de cara a mejorar los suyos y el proceso de diseño y desarrollo o que puedan adoptar cualquier medida correctora en el momento oportuno. Cuando proceda, la vigilancia poscomercialización debe incluir un análisis de la interacción con otros sistemas de IA, incluidos otros dispositivos y software. La vigilancia poscomercialización no debe comprender los datos operativos sensibles de los responsables del despliegue de sistemas de IA que sean autoridades garantes del cumplimiento del Derecho. Este sistema es también fundamental para garantizar que los posibles riesgos derivados de los sistemas de IA que siguen «aprendiendo» tras su introducción en el mercado o puesta en servicio se aborden de un modo más eficiente y oportuno. En este contexto, procede exigir a los proveedores que también cuenten con un sistema para comunicar a las autoridades pertinentes cualquier incidente grave asociado al uso de sus sistemas de IA, entendido como un incidente o defecto que tenga como consecuencia un fallecimiento o daños graves para la salud, una alteración grave e irreversible de la gestión o el funcionamiento de infraestructuras críticas, el incumplimiento de obligaciones derivadas del Derecho de la Unión destinadas a proteger los derechos fundamentales o daños graves a la propiedad o al medio ambiente.
(155)
Všetci poskytovatelia vysokorizikových systémov AI by mali mať zavedený systém monitorovania po uvedení na trh, aby zabezpečili, že budú schopní zohľadniť skúsenosti s používaním vysokorizikových systémov AI na zlepšenie svojich systémov a procesu dizajnovania a vývoja, alebo aby mohli včas prijať akékoľvek možné nápravné opatrenia. V prípade potreby by monitorovanie po uvedení na trh malo zahŕňať analýzu interakcie s inými systémami AI vrátane iných zariadení a softvéru. Monitorovanie po uvedení na trh by sa nemalo vzťahovať na citlivé operačné údaje nasadzujúcich subjektov, ktoré sú orgánmi presadzovania práva. Tento systém je takisto kľúčový na zabezpečenie toho, aby sa možné riziká vyplývajúce zo systémov AI, ktoré sa po uvedení na trh alebo do prevádzky ďalej učia, mohli efektívnejšie a včas riešiť. V tejto súvislosti by sa od poskytovateľov malo vyžadovať, aby mali zavedený systém na ohlasovanie všetkých závažných incidentov vyplývajúcich z používania ich systémov AI relevantným orgánom, t. j. incidentov alebo porúch, ktoré vedú k smrti alebo vážnemu poškodeniu zdravia, závažnému a nezvratnému narušeniu riadenia a prevádzky kritickej infraštruktúry, porušeniam povinností podľa práva Únie určených na ochranu základných práv alebo k vážnej škode na majetku alebo životnom prostredí.
(156)
Con el objetivo de garantizar el cumplimiento adecuado y efectivo de los requisitos y obligaciones previstos en el presente Reglamento, que constituye legislación de armonización de la Unión, debe aplicarse en su totalidad el sistema relativo a la vigilancia del mercado y la conformidad de los productos establecido por el Reglamento (UE) 2019/1020. Las autoridades de vigilancia del mercado designadas con arreglo al presente Reglamento deben disponer de todos los poderes de ejecución establecidos en el presente Reglamento y en el Reglamento (UE) 2019/1020, y deben ejercer sus poderes y desempeñar sus funciones de manera independiente, imparcial y objetiva. Aunque la mayoría de los sistemas de IA no están sujetos a requisitos ni obligaciones específicos en virtud del presente Reglamento, las autoridades de vigilancia del mercado pueden adoptar medidas en relación con todos los sistemas de IA cuando estos presenten un riesgo de conformidad con el presente Reglamento. Debido a la naturaleza específica de las instituciones, órganos y organismos de la Unión que entran en el ámbito de aplicación del presente Reglamento, procede designar al Supervisor Europeo de Protección de Datos como autoridad de vigilancia del mercado competente para ellos. Esto debe entenderse sin perjuicio de la designación de autoridades nacionales competentes por parte de los Estados miembros. Las actividades de vigilancia del mercado no deben afectar a la capacidad de las entidades supervisadas para llevar a cabo sus tareas de manera independiente, cuando el Derecho de la Unión exija dicha independencia.
(156)
S cieľom zabezpečiť primerané a účinné presadzovanie požiadaviek a povinností stanovených v tomto nariadení, ktoré predstavuje harmonizačný právny predpis Únie, by sa mal v celom rozsahu uplatňovať systém dohľadu nad trhom a súladu výrobkov stanovený nariadením (EÚ) 2019/1020. Orgány dohľadu nad trhom určené podľa tohto nariadenia by mali mať všetky právomoci v oblasti presadzovania stanovené v tomto nariadení a v nariadení (EÚ) 2019/1020 a mali by svoje právomoci a povinnosti vykonávať nezávisle, nestranne a bez zaujatosti. Hoci väčšina systémov AI nepodlieha osobitným požiadavkám ani povinnostiam podľa tohto nariadenia, orgány dohľadu nad trhom môžu prijať opatrenia vo vzťahu ku všetkým systémom AI, ak predstavujú riziko podľa tohto nariadenia. Vzhľadom na osobitnú povahu inštitúcií, agentúr a orgánov Únie, ktoré patria do rozsahu pôsobnosti tohto nariadenia, je vhodné pre ne určiť ako príslušný orgán dohľadu nad trhom európskeho dozorného úradníka pre ochranu údajov. Tým by nemalo byť dotknuté určenie vnútroštátnych príslušných orgánov členskými štátmi. Činnosti dohľadu nad trhom by nemali mať vplyv na schopnosť subjektov pod dohľadom vykonávať svoje úlohy nezávisle, ak sa takáto nezávislosť vyžaduje podľa práva Únie.
(157)
El presente Reglamento se entiende sin perjuicio de las competencias, funciones, poderes e independencia de las autoridades u organismos públicos nacionales pertinentes que supervisan la aplicación del Derecho de la Unión que protege los derechos fundamentales, incluidos los organismos de igualdad y las autoridades de protección de datos. Cuando sea necesario para su mandato, dichas autoridades u organismos públicos nacionales también deben tener acceso a cualquier documentación creada en virtud del presente Reglamento. Debe establecerse un procedimiento de salvaguardia específico para garantizar una ejecución adecuada y oportuna frente a sistemas de IA que presenten un riesgo para la salud, la seguridad o los derechos fundamentales. El procedimiento relativo a dichos sistemas de IA que presentan un riesgo debe aplicarse a los sistemas de IA de alto riesgo que presenten un riesgo, a los sistemas prohibidos que hayan sido introducidos en el mercado, puestos en servicio o utilizados contraviniendo las prácticas prohibidas establecidas en el presente Reglamento y a los sistemas de IA que hayan sido comercializados infringiendo los requisitos de transparencia establecidos en el presente Reglamento y que presenten un riesgo.
(157)
Týmto nariadením nie sú dotknuté kompetencie, úlohy, právomoci ani nezávislosť príslušných vnútroštátnych orgánov verejnej moci alebo subjektov, ktoré dohliadajú na uplatňovanie práva Únie na ochranu základných práv, vrátane subjektov pre rovnaké zaobchádzanie a orgánov pre ochranu osobných údajov. Takéto vnútroštátne orgány verejnej moci alebo subjekty by mali mať aj prístup k všetkej dokumentácii vytvorenej podľa tohto nariadenia, pokiaľ je to potrebné pre ich mandát. Na zabezpečenie primeraného a včasného presadzovania v prípade systémov AI, ktoré predstavujú riziko pre zdravie, bezpečnosť a základné práva, by sa mal stanoviť osobitný ochranný postup. Postup pre takéto systémy AI predstavujúce riziko by sa mal uplatňovať na vysokorizikové systémy AI predstavujúce riziko, zakázané systémy, ktoré boli uvedené na trh, do prevádzky alebo používané v rozpore s ustanoveniam tohto nariadenia o zakázaných praktikách, a na systémy AI, ktoré boli sprístupnené v rozpore s požiadavkami na transparentnosť stanovenými v tomto nariadení a predstavujú riziko.
(158)
El Derecho de la Unión en materia de servicios financieros contiene normas y requisitos en materia de gobernanza interna y gestión de riesgos que las entidades financieras reguladas deben cumplir durante la prestación de dichos servicios, y también cuando utilicen sistemas de IA. Para garantizar la aplicación y ejecución coherentes de las obligaciones previstas en el presente Reglamento, así como de las normas y los requisitos oportunos de los actos jurídicos de la Unión relativos a los servicios financieros, se ha de designar a las autoridades competentes de supervisar y ejecutar dichos actos jurídicos, en particular las autoridades competentes definidas en el Reglamento (UE) n.o 575/2013 del Parlamento Europeo y del Consejo (46) y las Directivas 2008/48/CE (47), 2009/138/CE (48), 2013/36/UE (49), 2014/17/UE (50) y (UE) 2016/97 (51) del Parlamento Europeo y del Consejo, dentro de sus respectivas competencias, como las autoridades competentes encargadas de supervisar la aplicación del presente Reglamento, también por lo que respecta a las actividades de vigilancia del mercado, en relación con los sistemas de IA proporcionados o utilizados por las entidades financieras reguladas y supervisadas, a menos que los Estados miembros decidan designar a otra autoridad para que desempeñe estas tareas de vigilancia del mercado. Dichas autoridades competentes deben disponer de todos los poderes previstos en el presente Reglamento y en el Reglamento (UE) 2019/1020 para hacer cumplir los requisitos y obligaciones del presente Reglamento, incluidos los poderes para llevar a cabo actividades de vigilancia del mercado ex post que pueden integrarse, en su caso, en sus mecanismos y procedimientos de supervisión existentes en virtud del Derecho pertinente de la Unión en materia de servicios financieros. Conviene prever que, cuando actúen como autoridades de vigilancia del mercado en virtud del presente Reglamento, las autoridades nacionales responsables de la supervisión de las entidades de crédito reguladas por la Directiva 2013/36/UE que participen en el Mecanismo Único de Supervisión establecido por el Reglamento (UE) n.o 1024/2013 del Consejo (52) comuniquen sin demora al Banco Central Europeo toda información obtenida en el transcurso de sus actividades de vigilancia del mercado que pueda ser de interés para las funciones de supervisión prudencial del Banco Central Europeo especificadas en dicho Reglamento. Con vistas a aumentar la coherencia entre el presente Reglamento y las normas aplicables a las entidades de crédito reguladas por la Directiva 2013/36/UE, conviene igualmente integrar algunas de las obligaciones procedimentales de los proveedores relativas a la gestión de riesgos, la vigilancia poscomercialización y la documentación en las obligaciones y los procedimientos vigentes con arreglo a la Directiva 2013/36/UE. Para evitar solapamientos, también se deben contemplar excepciones limitadas en relación con el sistema de gestión de la calidad de los proveedores y la obligación de vigilancia impuesta a los responsables del despliegue de sistemas de IA de alto riesgo, en la medida en que estos se apliquen a las entidades de crédito reguladas por la Directiva 2013/36/UE. El mismo régimen debe aplicarse a las empresas de seguros y reaseguros y a las sociedades de cartera de seguros reguladas por la Directiva 2009/138/CE, a los intermediarios de seguros regulados por la Directiva (UE) 2016/97 y a otros tipos de entidades financieras sujetas a requisitos sobre gobernanza, sistemas o procesos internos establecidos con arreglo al Derecho pertinente de la Unión en materia de servicios financieros a fin de garantizar la coherencia y la igualdad de trato en el sector financiero.
(158)
Právne predpisy Únie týkajúce sa finančných služieb zahŕňajú pravidlá a požiadavky vnútornej správy a riadenia a riadenia rizík, ktoré sa vzťahujú na regulované finančné inštitúcie počas poskytovania týchto služieb vrátane prípadov, keď využívajú systémy AI. S cieľom zabezpečiť jednotné uplatňovanie a presadzovanie povinností podľa tohto nariadenia a príslušných pravidiel a požiadaviek právnych aktov Únie v oblasti finančných služieb by mali byť príslušné orgány pre dohľad nad uvedenými právnymi aktmi a za ich presadzovanie, najmä príslušné orgány v zmysle vymedzenia v nariadení Európskeho parlamentu a Rady (EÚ) č. 575/2013 (46), smerniciach Európskeho parlamentu a Rady 2008/48/ES (47), 2009/138/ES (48), (EÚ) 2013/36/EÚ (49), 2014/17/EÚ (50) a (EÚ) 2016/97 (51) určené v rámci svojich príslušných právomocí za príslušné orgány na účely dohľadu nad vykonávaním tohto nariadenia vrátane činností dohľadu nad trhom, pokiaľ ide o systémy AI, poskytované alebo používané regulovanými finančnými inštitúciami podliehajúcimi dohľadu, pokiaľ členské štáty nerozhodnú o určení iného orgánu na plnenie týchto úloh dohľadu nad trhom. Tieto príslušné orgány by mali mať všetky právomoci podľa tohto nariadenia a nariadenia (EÚ) 2019/1020 na presadzovanie požiadaviek a povinností vyplývajúcich z tohto nariadenia vrátane právomocí vykonávať ex post činnosti dohľadu nad trhom, ktoré možno podľa potreby začleniť do ich existujúcich mechanizmov a postupov dohľadu podľa príslušných právnych predpisov Únie v oblasti finančných služieb. Je vhodné stanoviť, že keď vnútroštátne orgány zodpovedné za dohľad nad úverovými inštitúciami regulovanými podľa smernice 2013/36/EÚ, ktoré sa zúčastňujú na jednotnom mechanizme dohľadu zriadenom nariadením Rady (EÚ) č. 1024/2013 (52), konajú ako orgány dohľadu nad trhom podľa tohto nariadenia, mali by Európskej centrálnej banke bezodkladne oznamovať všetky informácie identifikované v priebehu svojich činností dohľadu nad trhom, ktoré môžu byť potenciálne zaujímavé pre úlohy Európskej centrálnej banky v oblasti prudenciálneho dohľadu, ako sa uvádza v uvedenom nariadení. Na účely ďalšieho zvýšenia jednotnosti medzi týmto nariadením a pravidlami platnými pre úverové inštitúcie regulované podľa smernice 2013/36/EÚ, je tiež vhodné integrovať niektoré procesné povinnosti poskytovateľov, pokiaľ ide o riadenie rizika, monitorovanie po uvedení na trh a dokumentáciu, do existujúcich povinností a postupov podľa smernice 2013/36/EÚ. Na zabránenie prekrývaniu by sa mali zvážiť aj obmedzené výnimky v súvislosti so systémom riadenia kvality poskytovateľov a s povinnosťou monitorovania uloženou subjektom nasadzujúcim vysokorizikové systémy AI, pokiaľ sa vzťahujú na úverové inštitúcie regulované smernicou 2013/36/EÚ. Rovnaký režim by sa mal uplatňovať na poisťovne a zaisťovne a holdingové poisťovne podľa smernice 2009/138/ES a sprostredkovateľov poistenia podľa smernice (EÚ) 2016/97 a ďalšie typy finančných inštitúcií, na ktoré sa vzťahujú požiadavky týkajúce sa vnútornej správy a riadenia, dojednaní alebo postupov podľa relevantného práva Únie v oblasti finančných služieb, s cieľom zaistiť jednotnosť a rovnaké zaobchádzanie vo finančnom sektore.
(159)
Cada autoridad de vigilancia del mercado para los sistemas de IA de alto riesgo en el ámbito de la biometría enumerados en un anexo del presente Reglamento, en la medida en que dichos sistemas se utilicen con fines de garantía del cumplimiento del Derecho, de migración, asilo y gestión del control fronterizo, o de la administración de justicia y los procesos democráticos, debe disponer de facultades de investigación y correctoras efectivas, incluida al menos la facultad de obtener acceso a todos los datos personales que se estén tratando y a toda la información necesaria para el desempeño de sus funciones. Las autoridades de vigilancia del mercado deben poder ejercer sus poderes actuando con total independencia. Cualquier limitación de su acceso a datos operativos sensibles en virtud del presente Reglamento debe entenderse sin perjuicio de los poderes que les confiere la Directiva (UE) 2016/680. Ninguna exclusión de la divulgación de datos a las autoridades nacionales de protección de datos en virtud del presente Reglamento debe afectar a los poderes actuales o futuros de dichas autoridades que trasciendan el ámbito de aplicación del presente Reglamento.
(159)
Každý orgán dohľadu nad trhom pre vysokorizikové systémy AI v oblasti biometrie uvedené v prílohe k tomuto nariadeniu, pokiaľ sa tieto systémy používajú na účely presadzovania práva, migrácie, azylu a riadenia kontroly hraníc, alebo na účely výkonu spravodlivosti a demokratických procesov, by mal mať účinné vyšetrovacie a nápravné právomoci vrátane aspoň právomoci získať prístup ku všetkým spracúvaným osobným údajom a ku všetkým informáciám potrebným na plnenie svojich úloh. Orgány dohľadu nad trhom by mali mať možnosť vykonávať svoje právomoci tak, že budú konať úplne nezávisle. Akýmikoľvek obmedzeniami ich prístupu k citlivým operačným údajom podľa tohto nariadenia by nemali byť dotknuté právomoci, ktoré im boli udelené smernicou (EÚ) 2016/680. Žiadne vylúčenie poskytovania údajov vnútroštátnym orgánom pre ochranu údajov podľa tohto nariadenia by nemalo mať vplyv na súčasné ani budúce právomoci týchto orgánov nad rámec rozsahu pôsobnosti tohto nariadenia.
(160)
Las autoridades de vigilancia del mercado y la Comisión deben poder proponer actividades conjuntas, incluidas investigaciones conjuntas, que deben llevar a cabo las autoridades de vigilancia del mercado o las autoridades de vigilancia del mercado junto con la Comisión, con el objetivo de fomentar el cumplimiento, detectar incumplimientos, sensibilizar y ofrecer orientaciones en relación con el presente Reglamento con respecto a las categorías específicas de sistemas de IA de alto riesgo que presentan un riesgo grave en dos o más Estados miembros. Tales actividades conjuntas para fomentar el cumplimiento deben llevarse a cabo de conformidad con el artículo 9 del Reglamento (UE) 2019/1020. La Oficina de IA debe prestar apoyo de coordinación a las investigaciones conjuntas.
(160)
Orgány dohľadu nad trhom a Komisia by mali mať možnosť navrhovať spoločné činnosti vrátane spoločných vyšetrovaní, ktoré majú vykonávať orgány dohľadu nad trhom alebo orgány dohľadu nad trhom spoločne s Komisiou a ktorých cieľom je podpora dodržiavania predpisov, identifikácia nesúladu, zvyšovanie informovanosti a poskytovanie usmernení v súvislosti s týmto nariadením, pokiaľ ide o konkrétne kategórie vysokorizikových systémov AI, o ktorých sa zistilo, že predstavujú vážne riziko v dvoch alebo viacerých členských štátoch. Spoločné činnosti na podporu dodržiavania predpisov by sa mali vykonávať v súlade s článkom 9 nariadenia (EÚ) 2019/1020. Úrad pre AI by mal poskytovať koordinačnú podporu pre spoločné vyšetrovania.
(161)
Es necesario aclarar las responsabilidades y competencias a escala de la Unión y nacional en lo que respecta a los sistemas de IA que se basan en modelos de IA de uso general. Para evitar el solapamiento de competencias, cuando un sistema de IA se base en un modelo de IA de uso general y el modelo y el sistema sean suministrados por el mismo proveedor, la supervisión debe llevarse a cabo a escala de la Unión a través de la Oficina de IA, que debe tener a estos efectos las facultades de una autoridad de vigilancia del mercado en el sentido de lo dispuesto en el Reglamento (UE) 2019/1020. En todos los demás casos, serán responsables de la supervisión de los sistemas de IA las autoridades nacionales de vigilancia del mercado. No obstante, en el caso de los sistemas de IA de uso general que puedan ser utilizados directamente por los responsables del despliegue con al menos un fin clasificado como de alto riesgo, las autoridades de vigilancia del mercado deben cooperar con la Oficina de IA para llevar a cabo evaluaciones de la conformidad e informar de ello al Consejo de IA y a otras autoridades de vigilancia del mercado. Además, las autoridades de vigilancia del mercado deben poder solicitar la asistencia de la Oficina de IA cuando la autoridad de vigilancia del mercado no pueda concluir una investigación sobre un sistema de IA de alto riesgo debido a su incapacidad para acceder a determinada información relacionada con el modelo de IA de uso general en el que se basa el sistema de IA de alto riesgo. En tales casos, debe aplicarse mutatis mutandis el procedimiento de asistencia mutua transfronteriza previsto en el capítulo VI del Reglamento (UE) 2019/1020.
(161)
Je potrebné objasniť povinnosti a právomoci na úrovni Únie a na vnútroštátnej úrovni, pokiaľ ide o systémy AI, ktoré sú postavené na modeloch AI na všeobecné účely. Aby sa predišlo prekrývaniu právomocí, ak je systém AI založený na modeli AI na všeobecné účely a tento model a systém poskytuje ten istý poskytovateľ, dohľad by sa mal vykonávať na úrovni Únie prostredníctvom úradu pre AI, ktorý by mal mať na tento účel právomoci orgánu dohľadu nad trhom v zmysle nariadenia (EÚ) 2019/1020. Vo všetkých ostatných prípadoch sú za dohľad nad systémami AI naďalej zodpovedné vnútroštátne orgány dohľadu nad trhom. V prípade systémov AI na všeobecné účely, ktoré môžu nasadzujúce subjekty priamo používať aspoň na jeden účel, ktorý je klasifikovaný ako vysokorizikový, by však orgány dohľadu nad trhom mali spolupracovať s úradom pre AI s cieľom vykonávať hodnotenia dodržiavania predpisov a zodpovedajúcim spôsobom informovať radu pre AI a ostatné orgány dohľadu nad trhom. Okrem toho by orgány dohľadu nad trhom mali mať možnosť požiadať úrad pre AI o pomoc, ak orgán dohľadu nad trhom nie je schopný uzavrieť vyšetrovanie vysokorizikového systému AI z dôvodu, že nemá prístup k určitým informáciám týkajúcim sa modelu AI na všeobecné účely, na ktorom je vysokorizikový systém AI vybudovaný. V takýchto prípadoch by sa mal mutatis mutandis uplatňovať postup týkajúci sa vzájomnej pomoci v cezhraničných prípadoch uvedený v kapitole VI nariadenia (EÚ) 2019/1020.
(162)
Para aprovechar al máximo la centralización de conocimientos especializados y las sinergias que se generan a escala de la Unión, deben atribuirse a la Comisión las competencias de supervisión y de control del cumplimiento de las obligaciones de los proveedores de modelos de IA de uso general. La Oficina de IA debe poder llevar a cabo todas las acciones necesarias para supervisar la aplicación efectiva del presente Reglamento en lo que respecta a los modelos de IA de uso general. Debe poder investigar posibles infracciones de las normas relativas a los proveedores de modelos de IA de uso general, tanto por iniciativa propia, a raíz de los resultados de sus actividades de supervisión, como a petición de las autoridades de vigilancia del mercado, de conformidad con las condiciones establecidas en el presente Reglamento. Para promover la eficacia de la supervisión, la Oficina de IA debe prever la posibilidad de que los proveedores posteriores presenten reclamaciones sobre posibles infracciones de las normas relativas a los proveedores de sistemas y modelos de IA de uso general.
(162)
S cieľom čo najlepšie využiť centralizované odborné znalosti a synergie Únie na úrovni Únie by právomoci dohľadu a presadzovania povinností mali vo vzťahu k poskytovateľom modelov AI na všeobecné účely patriť do právomoci Komisie. Úrad pre AI by mal byť schopný vykonávať všetky potrebné opatrenia na monitorovanie účinného vykonávania tohto nariadenia, pokiaľ ide o modely AI na všeobecné účely. Mal by byť schopný vyšetrovať možné porušenia pravidiel týkajúcich sa poskytovateľov modelov AI na všeobecné účely z vlastnej iniciatívy, a to na základe výsledkov svojich monitorovacích činností alebo na žiadosť orgánov dohľadu nad trhom v súlade s podmienkami stanovenými v tomto nariadení. Na podporu účinného monitorovania by mal úrad pre AI umožniť nadväzujúcim poskytovateľom podávať sťažnosti na možné porušenia pravidiel týkajúcich sa poskytovateľov modelov a systémov AI na všeobecné účely.
(163)
Con el fin de complementar los sistemas de gobernanza de los modelos de IA de uso general, el grupo de expertos científicos debe contribuir a las actividades de supervisión de la Oficina de IA y, en determinados casos, puede proporcionar alertas cualificadas a la Oficina de IA que activen actuaciones consecutivas, como investigaciones. Así debe ocurrir cuando el grupo de expertos científicos tenga motivos para sospechar que un modelo de IA de uso general presenta un riesgo concreto e identificable a escala de la Unión. También debe ser este el caso cuando el grupo de expertos científicos tenga motivos para sospechar que un modelo de IA de uso general cumple los criterios que llevarían a clasificarlo como modelo de IA de uso general con riesgo sistémico. A fin de facilitar al grupo de expertos científicos la información necesaria para el desempeño de esas funciones, debe existir un mecanismo que permita al grupo de expertos científicos pedir a la Comisión que solicite documentación o información a un proveedor.
(163)
S cieľom doplniť systémy riadenia a správy modelov AI na všeobecné účely by mal vedecký panel podporovať monitorovacie činnosti úradu pre AI, pričom v určitých prípadoch môže úradu pre AI poskytovať kvalifikované upozornenia, ktoré povedú k následným opatreniam, ako sú vyšetrovania. Malo by tomu tak byť v prípade, keď má vedecký panel dôvodné podozrenie, že model AI na všeobecné účely predstavuje konkrétne a identifikovateľné riziko na úrovni Únie. Okrem toho by tomu tak malo byť v prípade, keď má vedecký panel dôvodné podozrenie, že model AI na všeobecné účely spĺňa kritériá, ktoré by viedli ku klasifikácii tohto modelu ako modelu AI na všeobecné účely so systémovým rizikom. S cieľom poskytnúť vedeckému panelu informácie potrebné na plnenie týchto úloh by mal existovať mechanizmus, prostredníctvom ktorého by vedecký panel mohol požiadať Komisiu, aby od poskytovateľa vyžadovala dokumentáciu alebo informácie.
(164)
La Oficina de IA debe poder adoptar las medidas necesarias para supervisar la aplicación efectiva y el cumplimiento de las obligaciones de los proveedores de modelos de IA de uso general establecidas en el presente Reglamento. La Oficina de IA debe poder investigar posibles infracciones de conformidad con las competencias previstas en el presente Reglamento, por ejemplo, solicitando documentación e información, realizando evaluaciones y solicitando la adopción de medidas a los proveedores de modelos de IA de uso general. En la realización de las evaluaciones, para poder contar con conocimientos especializados independientes, la Oficina de IA debe poder recurrir a expertos independientes para que lleven a cabo las evaluaciones en su nombre. Se debe poder exigir el cumplimiento de las obligaciones mediante, entre otras cosas, solicitudes de adopción de medidas adecuadas, entre las que se incluyen medidas de reducción del riesgo en caso de que se detecten riesgos sistémicos, así como la restricción de la comercialización, la retirada o la recuperación del modelo. Como salvaguardia, cuando sea necesario, además de los derechos procedimentales previstos en el presente Reglamento, los proveedores de modelos de IA de uso general deben tener los derechos procedimentales previstos en el artículo 18 del Reglamento (UE) 2019/1020, que deben aplicarse mutatis mutandis, sin perjuicio de los derechos procesales más específicos previstos en el presente Reglamento.
(164)
Úrad pre AI by mal mať možnosť prijímať potrebné opatrenia na monitorovanie účinného vykonávania a dodržiavania povinností poskytovateľov modelov AI na všeobecné účely stanovených v tomto nariadení. Úrad pre AI by mal mať možnosť vyšetrovať možné porušenia v súlade s právomocami stanovenými v tomto nariadení, a to aj vyžiadaním dokumentácie a informácií, vykonávaním hodnotení, ako aj požadovaním opatrení od poskytovateľov modelov AI na všeobecné účely. S cieľom využiť nezávislé odborné znalosti by mal mať úrad pre AI pri vykonávaní hodnotení možnosť zapojiť nezávislých expertov do vykonávania hodnotení v jeho mene. Dodržiavanie povinností by malo byť vynútiteľné okrem iného prostredníctvom žiadostí o prijatie vhodných opatrení vrátane opatrení na zmiernenie rizika v prípade identifikovaných systémových rizík, ako aj prostredníctvom obmedzenia sprístupňovania na trhu, stiahnutia modelu z trhu alebo stiahnutia modelu od používateľa. Ako záruka v prípade, že je to potrebné nad rámec procesných práv stanovených v tomto nariadení, by poskytovatelia modelov AI na všeobecné účely mali mať procesné práva stanovené v článku 18 nariadenia (EÚ) 2019/1020, ktoré by sa mali mutatis mutandis uplatňovať bez toho, aby boli dotknuté konkrétnejšie procesné práva stanovené v tomto nariadení.
(165)
El desarrollo de sistemas de IA que no sean sistemas de IA de alto riesgo conforme a los requisitos establecidos en el presente Reglamento puede dar lugar a la adopción más amplia de una IA ética y fiable en la Unión. Se debe alentar a los proveedores de sistemas de IA que no son de alto riesgo a crear códigos de conducta, entre los que se incluyen los correspondientes mecanismos de gobernanza, destinados a impulsar la aplicación voluntaria de la totalidad o parte de los requisitos aplicables a los sistemas de IA de alto riesgo, adaptados teniendo en cuenta la finalidad prevista de los sistemas y el menor riesgo planteado y teniendo en cuenta las soluciones técnicas disponibles y las mejores prácticas del sector, como las tarjetas de modelo y de datos Asimismo, se debe animar a los proveedores y, en su caso, a los responsables del despliegue de todos los sistemas de IA, ya sean o no de alto riesgo, y de los modelos de IA, a aplicar, con carácter voluntario, requisitos adicionales relativos, por ejemplo, a los elementos de las Directrices éticas de la Unión para una IA fiable, la sostenibilidad medioambiental, medidas de alfabetización en materia de IA, la inclusividad y la diversidad en el diseño y el desarrollo de los sistemas de IA, lo que incluye tener en cuenta a las personas vulnerables y la accesibilidad de las personas con discapacidad, la participación de las partes interesadas, con la participación, según proceda, de las partes interesadas pertinentes, como las organizaciones empresariales y de la sociedad civil, el mundo académico, los organismos de investigación, los sindicatos y las organizaciones de protección de los consumidores, en el diseño y el desarrollo de los sistemas de IA, y la diversidad de los equipos de desarrollo, también por lo que respecta a la paridad de género. Para garantizar la efectividad de los códigos de conducta voluntarios, estos deben basarse en objetivos claros e indicadores clave del rendimiento que permitan medir la consecución de dichos objetivos. También deben desarrollarse de manera inclusiva, según proceda, con la participación de las partes interesadas pertinentes, como las organizaciones empresariales y de la sociedad civil, el mundo académico, los organismos de investigación, los sindicatos y las organizaciones de protección de los consumidores. La Comisión podría formular iniciativas, también de carácter sectorial, encaminadas a facilitar la disminución de los obstáculos técnicos que dificultan el intercambio transfronterizo de datos para el desarrollo de la IA, también en relación con la infraestructura de acceso a los datos y la interoperabilidad semántica y técnica de distintos tipos de datos.
(165)
Vývoj systémov AI, ktoré nie sú vysokorizikové, v súlade s požiadavkami tohto nariadenia môže viesť k rozsiahlejšiemu zavádzaniu etickej a dôveryhodnej AI v Únii. Poskytovatelia systémov AI, ktoré nie sú vysokorizikové, by sa mali nabádať, aby vytvárali kódexy správania vrátane súvisiacich mechanizmov správy a riadenia s cieľom podporiť dobrovoľné uplatňovanie niektorých alebo všetkých povinných požiadaviek uplatniteľných na vysokorizikové systémy AI, prispôsobených zamýšľanému účelu systémov a nižšiemu súvisiacemu riziku a s prihliadnutím na dostupné technické riešenia a najlepšie odvetvové postupy, ako sú modely a dátové karty. Poskytovatelia všetkých vysokorizikových alebo nerizikových systémov a modelov AI a prípadne subjekty nasadzujúce takéto systémy a modely by sa tiež mali nabádať, aby dobrovoľne uplatňovali dodatočné požiadavky týkajúce sa napríklad prvkov únijných etických usmernení pre dôveryhodnú AI, environmentálnej udržateľnosti, opatrení týkajúcich sa gramotnosti v oblasti AI, inkluzívneho a rôznorodého dizajnu a vývoja systémov AI vrátane pozornosti venovanej zraniteľným osobám a prístupnosti pre osoby so zdravotným postihnutím, účasti zainteresovaných strán, podľa potreby za účasti relevantných zainteresovaných strán, ako sú podniky a organizácie občianskej spoločnosti, akademická obec a výskumné organizácie, odborové zväzy a organizácie na ochranu spotrebiteľa, pri navrhovaní a vývoji systémov AI, ako aj rozmanitosti vývojárskych tímov vrátane rodovej rovnováhy. Aby sa zabezpečila účinnosť dobrovoľných kódexov správania, mali by byť založené na jasných cieľoch a kľúčových ukazovateľoch výkonu na meranie dosahovania týchto cieľov. Mali by sa podľa potreby rozvíjať inkluzívnym spôsobom aj so zapojením relevantných zainteresovaných strán, ako sú podniky a organizácie občianskej spoločnosti, akademická obec a výskumné organizácie, odborové zväzy a organizácie na ochranu spotrebiteľa. Komisia môže vypracovať iniciatívy, a to aj odvetvovej povahy, na uľahčenie znižovania technických prekážok, ktoré bránia cezhraničnej výmene údajov na účely rozvoja AI, a to aj v oblasti infraštruktúry prístupu k údajom a sémantickej a technickej interoperability rôznych typov údajov.
(166)
Es importante que los sistemas de IA asociados a productos que el presente Reglamento no considera de alto riesgo y que, por lo tanto, no están obligados a cumplir los requisitos establecidos para los sistemas de IA de alto riesgo sean, no obstante, seguros una vez introducidos en el mercado o puestos en servicio. Para contribuir a este objetivo, se aplicaría, como red de seguridad, el Reglamento (UE) 2023/988 del Parlamento Europeo y del Consejo (53).
(166)
Je dôležité, aby systémy AI týkajúce sa výrobkov, ktoré v súlade s týmto nariadením nie sú vysokorizikové, a preto sa v súvislosti s nimi nevyžaduje, aby spĺňali požiadavky stanovené pre vysokorizikové systémy AI, však boli pri uvádzaní na trh alebo do prevádzky bezpečné. S cieľom prispieť k dosiahnutiu tohto cieľa by sa ako záchranná sieť uplatňovalo nariadenie Európskeho parlamentu a Rady (EÚ) 2023/988 (53).
(167)
Todas las partes implicadas en la aplicación del presente Reglamento deben respetar la confidencialidad de la información y los datos que obtengan en el ejercicio de sus funciones, de conformidad con el Derecho de la Unión o nacional, con vistas a garantizar una cooperación fiable y constructiva entre las autoridades competentes a escala de la Unión y nacional. Deben desempeñar sus funciones y actividades de manera que se protejan, en particular, los derechos de propiedad intelectual e industrial, la información empresarial confidencial y los secretos comerciales, la aplicación eficaz del presente Reglamento, los intereses de seguridad pública y nacional, la integridad de los procedimientos penales y administrativos y la integridad de la información clasificada.
(167)
V záujme zabezpečenia dôvernej a konštruktívnej spolupráce príslušných orgánov na úrovni Únie a vnútroštátnej úrovni by všetky strany zapojené do uplatňovania tohto nariadenia mali rešpektovať dôvernosť informácií a údajov získaných pri výkone svojich úloh v súlade s právom Únie a vnútroštátnym právom. Svoje úlohy a činnosti by mali vykonávať takým spôsobom, aby chránili najmä práva duševného vlastníctva, dôverné obchodné informácie a obchodné tajomstvo, účinné vykonávanie tohto nariadenia, verejné záujmy a záujmy národnej bezpečnosti, integritu trestného a správneho konania a integritu utajovaných skutočností.
(168)
Se debe poder exigir el cumplimiento del presente Reglamento mediante la imposición de sanciones y otras medidas de ejecución. Los Estados miembros deben tomar todas las medidas necesarias para garantizar que se apliquen las disposiciones del presente Reglamento, también estableciendo sanciones efectivas, proporcionadas y disuasorias para las infracciones, y para respetar el principio de non bis in idem. A fin de reforzar y armonizar las sanciones administrativas por infracción del presente Reglamento, deben establecerse los límites máximos para la imposición de las multas administrativas en el caso de ciertas infracciones concretas. A la hora de determinar la cuantía de las multas, los Estados miembros deben tener en cuenta, en cada caso concreto, todas las circunstancias pertinentes de la situación de que se trate, considerando especialmente la naturaleza, gravedad y duración de la infracción y de sus consecuencias, así como el tamaño del proveedor, en particular si este es una pyme o una empresa emergente. El Supervisor Europeo de Protección de Datos debe estar facultado para imponer multas a las instituciones, los órganos y los organismos de la Unión incluidos en el ámbito de aplicación del presente Reglamento.
(168)
Dodržiavanie tohto nariadenia by malo byť vymáhateľné prostredníctvom ukladania sankcií a iných opatrení na presadzovanie práva. Členské štáty by mali prijať všetky opatrenia potrebné na zabezpečenie vykonávania ustanovení tohto nariadenia vrátane stanovenia účinných, primeraných a odrádzajúcich sankcií za ich porušenie a na dodržiavanie zásady ne bis in idem. S cieľom posilniť a harmonizovať správne sankcie za porušenie tohto nariadenia by sa mali ustanoviť horné hranice na stanovenie správnych pokút za určité konkrétne porušenia. Pri posudzovaní výšky pokút by členské štáty mali v každom jednotlivom prípade zohľadniť všetky relevantné okolnosti konkrétnej situácie s náležitým zreteľom najmä na povahu, závažnosť a trvanie porušenia a jeho dôsledky, ako aj na veľkosť poskytovateľa, najmä ak je poskytovateľom MSP alebo startup. Európsky dozorný úradník pre ochranu údajov by mal mať právomoc ukladať správne pokuty inštitúciám, agentúram a orgánom Únie, ktoré patria do rozsahu pôsobnosti tohto nariadenia.
(169)
Se debe poder exigir el cumplimiento de las obligaciones impuestas en virtud del presente Reglamento a los proveedores de modelos de IA de uso general mediante, entre otras cosas, la imposición de multas. A tal fin, también deben establecerse multas de una cuantía apropiada en caso de incumplimiento de dichas obligaciones, lo que incluye el incumplimiento de las medidas solicitadas por la Comisión de conformidad con el presente Reglamento, con sujeción a los plazos de prescripción pertinentes de conformidad con el principio de proporcionalidad. Todas las decisiones adoptadas por la Comisión en virtud del presente Reglamento están sujetas al control del Tribunal de Justicia de la Unión Europea, de conformidad con lo dispuesto en el TFUE, incluida la competencia jurisdiccional plena del Tribunal de Justicia en materia de sanciones con arreglo al artículo 261 del TFUE.
(169)
Dodržiavanie povinností poskytovateľov modelov AI na všeobecné účely uložených podľa tohto nariadenia by malo byť vymáhateľné okrem iného prostredníctvom pokút. Na tento účel by sa mali stanoviť aj primerané úrovne pokút za porušenie týchto povinností vrátane nedodržania opatrení požadovaných Komisiou v súlade s týmto nariadením, s výhradou primeraných premlčacích lehôt v súlade so zásadou proporcionality. Všetky rozhodnutia prijaté Komisiou podľa tohto nariadenia môže preskúmať Súdny dvor Európskej únie v súlade so ZFEÚ vrátane neobmedzenej právomoci Súdneho dvora, pokiaľ ide o sankcie podľa článku 261 ZFEÚ.
(170)
El Derecho de la Unión y nacional ya prevén vías de recurso efectivas para las personas físicas y jurídicas cuyos derechos y libertades se vean perjudicados por el uso de sistemas de IA. Sin perjuicio de dichas vías de recurso, toda persona física o jurídica que tenga motivos para considerar que se ha producido una infracción del presente Reglamento debe tener derecho a presentar una reclamación ante la autoridad de vigilancia del mercado pertinente.
(170)
V práve Únie a vo vnútroštátnom práve sa už stanovujú účinné prostriedky nápravy pre fyzické a právnické osoby, ktorých práva a slobody sú nepriaznivo ovplyvnené používaním systémov AI. Bez toho, aby boli dotknuté tieto prostriedky nápravy, každá fyzická alebo právnická osoba, ktorá má dôvody domnievať sa, že došlo k porušeniu tohto nariadenia, by mala byť oprávnená podať sťažnosť príslušnému orgánu dohľadu nad trhom.
(171)
Las personas afectadas deben tener derecho a obtener una explicación cuando la decisión de un responsable del despliegue se base principalmente en los resultados de salida de determinados sistemas de IA de alto riesgo que entran dentro del ámbito de aplicación del presente Reglamento y cuando dicha decisión produzca efectos jurídicos o afecte significativamente de modo similar a dichas personas, de manera que consideren que tiene un efecto negativo en su salud, su seguridad o sus derechos fundamentales. Dicha explicación debe ser clara y significativa y servir de base para que las personas afectadas puedan ejercer sus derechos. El derecho a obtener una explicación no debe aplicarse a la utilización de sistemas de IA para los que se deriven excepciones o restricciones con arreglo al Derecho nacional o de la Unión, y solo debe aplicarse en la medida en que este derecho no esté ya previsto en el Derecho de la Unión.
(171)
Dotknuté osoby by mali mať právo dostať o vysvetlenie, keď sa rozhodnutie nasadzujúceho subjektu zakladá hlavne na výstupe z určitých vysokorizikových systémov AI, ktoré patria do rozsahu pôsobnosti tohto nariadenia, a keď má toto rozhodnutie právne účinky alebo podobne významne ovplyvňuje uvedené osoby spôsobom, ktorý podľa nich nepriaznivo ovplyvňuje ich zdravie, bezpečnosť alebo základné práva. Uvedené vysvetlenie by malo byť jasné a zmysluplné a malo by dotknutým osobám poskytnúť základ na uplatňovanie ich práv. Právo na vysvetlenie by sa nemalo vzťahovať na používanie systémov AI, pre ktoré z práva Únie alebo vnútroštátneho práva vyplývajú výnimky alebo obmedzenia, a malo by sa uplatňovať len v rozsahu, v akom toto právo ešte nie je stanovené v právnych predpisoch Únie.
(172)
Las personas que informen sobre infracciones del presente Reglamento deben quedar protegidas por el Derecho de la Unión. Así pues, cuando se informe sobre infracciones del presente Reglamento y en lo que respecta a la protección de las personas que informen sobre dichas infracciones debe aplicarse la Directiva (UE) 2019/1937 del Parlamento Europeo y del Consejo (54).
(172)
Osoby nahlasujúce porušenia tohto nariadenia by mali byť chránené podľa práva Únie. Na nahlasovanie porušení tohto nariadenia a na ochranu osôb nahlasujúcich tieto porušenia by sa preto mala vzťahovať smernica Európskeho parlamentu a Rady (EÚ) 2019/1937 (54).
(173)
A fin de garantizar que el marco reglamentario pueda adaptarse cuando sea necesario, deben delegarse en la Comisión los poderes para adoptar actos con arreglo al artículo 290 del TFUE de modo que pueda modificar las condiciones en las que un sistema de IA no debe considerarse un sistema de alto riesgo, la lista de sistemas de IA de alto riesgo, las disposiciones relativas a la documentación técnica, el contenido de la declaración UE de conformidad, las disposiciones relativas a los procedimientos de evaluación de la conformidad, las disposiciones que establecen a qué sistemas de IA de alto riesgo debe aplicarse el procedimiento de evaluación de la conformidad basado en la evaluación del sistema de gestión de la calidad y en la evaluación de la documentación técnica, el umbral, los parámetros de referencia y los indicadores, lo que incluye la posibilidad de complementar dichos parámetros de referencia e indicadores, de las normas de clasificación de los modelos de IA de uso general con riesgo sistémico, los criterios para clasificar un modelo como modelo de IA de uso general con riesgo sistémico, la documentación técnica para los proveedores de modelos de IA de uso general y la información sobre transparencia para los proveedores de modelos de IA de uso general. Reviste especial importancia que la Comisión lleve a cabo las consultas oportunas durante la fase preparatoria, en particular con expertos, y que esas consultas se realicen de conformidad con los principios establecidos en el Acuerdo interinstitucional de 13 de abril de 2016 sobre la mejora de la legislación (55). En particular, a fin de garantizar una participación equitativa en la preparación de los actos delegados, el Parlamento Europeo y el Consejo reciben toda la documentación al mismo tiempo que los expertos de los Estados miembros, y sus expertos tienen acceso sistemáticamente a las reuniones de los grupos de expertos de la Comisión que se ocupen de la preparación de actos delegados.
(173)
S cieľom zabezpečiť, aby sa regulačný rámec mohol v prípade potreby upraviť, by sa mala na Komisiu delegovať právomoc prijímať akty v súlade s článkom 290 ZFEÚ na účely zmeny podmienok, za ktorých sa systém AI nemá považovať za vysokorizikový, zoznamu vysokorizikových systémov AI, ustanovení týkajúcich sa technickej dokumentácie, obsahu EÚ vyhlásenia o zhode, ustanovení týkajúcich sa postupov posudzovania zhody, ustanovení, ktorými sa stanovujú vysokorizikové systémy AI, na ktoré by sa mal vzťahovať postup posudzovania zhody založený na posúdení systému riadenia kvality a posúdení technickej dokumentácie, prahovej hodnoty, referenčných hodnôt a ukazovateľov, a to aj doplnením týchto referenčných hodnôt a ukazovateľov, v pravidlách pre klasifikáciu modelov AI na všeobecné účely so systémovým rizikom, kritérií označovania modelov AI na všeobecné účely so systémovým rizikom, technickej dokumentácie pre poskytovateľov modelov AI na všeobecné účely a transparentnosti informácií pre poskytovateľov modelov AI na všeobecné účely. Je osobitne dôležité, aby Komisia počas prípravných prác uskutočnila príslušné konzultácie, a to aj na úrovni expertov, a aby tieto konzultácie vykonávala v súlade so zásadami stanovenými v Medziinštitucionálnej dohode z 13. apríla 2016 o lepšej tvorbe práva (55). Predovšetkým v záujme rovnakého zastúpenia pri príprave delegovaných aktov sa všetky dokumenty doručujú Európskemu parlamentu a Rade v rovnakom čase ako expertom z členských štátov, a experti Európskeho parlamentu a Rady majú systematicky prístup na zasadnutia skupín expertov Komisie, ktoré sa zaoberajú prípravou delegovaných aktov.
(174)
Habida cuenta de los rápidos avances tecnológicos y de los conocimientos técnicos necesarios para la aplicación efectiva del presente Reglamento, la Comisión debe evaluar y revisar el presente Reglamento a más tardar el 2 de agosto de 2029 y posteriormente cada cuatro años e informar al Parlamento Europeo y al Consejo. Además, teniendo en cuenta las implicaciones por lo que respecta al ámbito de aplicación del presente Reglamento, la Comisión debe llevar a cabo una evaluación de la necesidad de modificar la lista de sistemas de IA de alto riesgo y la lista de prácticas prohibidas una vez al año. Asimismo, a más tardar 2 de agosto de 2028 y posteriormente cada cuatro años, la Comisión debe evaluar y comunicar al Parlamento Europeo y al Consejo la necesidad de modificar la lista de ámbitos de alto riesgo que figura en el anexo del presente Reglamento, los sistemas de IA incluidos en el ámbito de aplicación de las obligaciones de transparencia, la eficacia del sistema de supervisión y gobernanza y los avances en el desarrollo de documentos de normalización sobre el desarrollo eficiente desde el punto de vista energético de modelos de IA de uso general, incluida la necesidad de medidas o acciones adicionales. Por último, a más tardar el 2 de agosto de 2028 y posteriormente cada tres años, la Comisión debe evaluar la repercusión y la eficacia de los códigos de conducta voluntarios para fomentar la aplicación de los requisitos establecidos para los sistemas de IA de alto riesgo a los sistemas de IA que no sean sistemas de IA de alto riesgo y, posiblemente, otros requisitos adicionales para dichos sistemas de IA.
(174)
Vzhľadom na rýchly technologický vývoj a technické odborné znalosti potrebné na účinné uplatňovanie tohto nariadenia by Komisia mala toto nariadenie vyhodnotiť a preskúmať do 2. augusta 2029 a potom každé štyri roky a podať správu Európskemu parlamentu a Rade. Okrem toho, berúc do úvahy dôsledky pre rozsah pôsobnosti tohto nariadenia, by Komisia mala raz ročne posúdiť potrebu zmeniť zoznam vysokorizikových systémov AI a zoznam zakázaných praktík. Komisia by taktiež mala do 2. augusta 2028 a potom každé štyri roky vyhodnotiť potrebu zmeniť zoznam položiek vysokorizikových oblastí v prílohe k tomuto nariadeniu, systémy AI v rozsahu povinností týkajúcich sa transparentnosti, účinnosť systému dohľadu a správy a riadenia a pokrok vo vývoji normalizačných produktov týkajúcich sa energeticky efektívneho vývoja modelov AI na všeobecné účely vrátane potreby ďalších opatrení alebo krokov, a podať o tom správu Európskemu parlamentu a Rade. Komisia by mala do 2. augusta 2028 a potom každé tri roky vyhodnotiť vplyv a efektívnosť dobrovoľných kódexov správania na podporu uplatňovania požiadaviek stanovených pre vysokorizikové systémy AI v prípade systémov AI, ktoré nie sú vysokorizikové, a prípadne ďalších dodatočných požiadaviek na takéto systémy AI.
(175)
A fin de garantizar condiciones uniformes de ejecución del presente Reglamento, deben conferirse a la Comisión competencias de ejecución. Dichas competencias deben ejercerse de conformidad con el Reglamento (UE) n.o 182/2011 del Parlamento Europeo y del Consejo (56).
(175)
S cieľom zabezpečiť jednotné podmienky vykonávania tohto nariadenia by sa mali na Komisiu preniesť vykonávacie právomoci. Uvedené právomoci by sa mali vykonávať v súlade s nariadením Európskeho parlamentu a Rady (EÚ) č. 182/2011 (56).
(176)
Dado que el objetivo del presente Reglamento, a saber, mejorar el funcionamiento del mercado interior y promover la adopción de una IA centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación, no pueden ser alcanzados de manera suficiente por los Estados miembros, sino que, debido a sus dimensiones y efectos, pueden lograrse mejor a escala de la Unión, esta puede adoptar medidas, de acuerdo con el principio de subsidiariedad establecido en el artículo 5 del TUE. De conformidad con el principio de proporcionalidad establecido en el mismo artículo, el presente Reglamento no excede de lo necesario para alcanzar dicho objetivo.
(176)
Keďže cieľ tohto nariadenia, a to zlepšiť fungovanie vnútorného trhu a podporovať zavádzanie dôveryhodnej AI sústredenej na človeka a súčasne zabezpečiť vysokú úroveň ochrany zdravia, bezpečnosti, základných práv zakotvených v charte vrátane demokracie, právneho štátu a ochranu životného prostredia pred škodlivými účinkami systémov AI v Únii, a zároveň podporovať inovácie, nie je možné uspokojivo dosiahnuť na úrovni členských štátov a z dôvodu rozsahu alebo dôsledkov činnosti ho možno lepšie dosiahnuť na úrovni Únie, môže Únia prijať opatrenia v súlade so zásadou subsidiarity podľa článku 5 Zmluvy o EÚ. V súlade so zásadou proporcionality podľa uvedeného článku toto nariadenie neprekračuje rámec nevyhnutný na dosiahnutie tohto cieľa.
(177)
A fin de garantizar la seguridad jurídica, garantizar un período de adaptación adecuado para los operadores y evitar perturbaciones del mercado, también garantizando la continuidad del uso de los sistemas de IA, es conveniente que el presente Reglamento se aplique a los sistemas de IA de alto riesgo que se hayan introducido en el mercado o se hayan puesto en servicio antes de la fecha general de aplicación del Reglamento únicamente si, a partir de esa fecha, dichos sistemas se ven sometidos a cambios significativos en su diseño o su finalidad prevista. Conviene aclarar que, a este respecto, el concepto de «cambio significativo» debe entenderse como equivalente en sustancia al de «modificación sustancial», que se utiliza únicamente con respecto a los sistemas de IA de alto riesgo de conformidad con el presente Reglamento. Con carácter excepcional y a efectos de la rendición pública de cuentas, los operadores de sistemas de IA que sean componentes de sistemas informáticos de gran magnitud establecidos por los actos jurídicos enumerados en un anexo del presente Reglamento y los operadores de sistemas de IA de alto riesgo destinados a ser utilizados por las autoridades públicas deben adoptar, respectivamente, las medidas necesarias para cumplir los requisitos del presente Reglamento antes del final de 2030 y, a más tardar el 2 de agosto de 2030.
(177)
S cieľom zabezpečiť právnu istotu a primerané adaptačné obdobie pre prevádzkovateľov a zabrániť narušeniu trhu, a to aj zabezpečením kontinuity používania systémov AI, je vhodné, aby sa toto nariadenie uplatňovalo na vysokorizikové systémy AI, ktoré boli uvedené na trh alebo do prevádzky pred všeobecným dňom začatia jeho uplatňovania, len ak od uvedeného dňa dizajn alebo zamýšľaný účel týchto systémov prešli významnými zmenami. Je vhodné spresniť, že v tejto súvislosti by sa pojem významnej zmeny mal vykladať tak, že je vo svojej podstate rovnocenný s pojmom podstatnej zmeny, ktorý sa používa len v súvislosti s vysokorizikovými systémami AI podľa tohto nariadenia. Výnimočne a vzhľadom na verejnú zodpovednosť by prevádzkovatelia systémov AI, ktoré sú komponentmi rozsiahlych informačných systémov zriadených právnymi aktmi uvedenými v prílohe k tomuto nariadeniu, a prevádzkovatelia vysokorizikových systémov AI, ktoré majú používať orgány verejnej moci, mali prijať potrebné kroky na dosiahnutie súladu s požiadavkami tohto nariadenia do konca roka 2030 a do 2. augusta 2030.
(178)
Se anima a los proveedores de sistemas de IA de alto riesgo a que empiecen a cumplir, de forma voluntaria, las obligaciones pertinentes del presente Reglamento ya durante el período transitorio.
(178)
Poskytovatelia vysokorizikových systémov AI sa vyzývajú, aby dobrovoľne začali plniť príslušné povinnosti stanovené v tomto nariadení už počas prechodného obdobia.
(179)
El presente Reglamento debe aplicarse a partir del 2 de agosto de 2026. No obstante, teniendo en cuenta el riesgo inaceptable asociado a determinadas formas de uso de la IA, las prohibiciones, así como las disposiciones generales del presente Reglamento, deben aplicarse ya desde el 2 de febrero de 2025. Aunque dichas prohibiciones no surtan pleno efecto hasta después del establecimiento de la gobernanza y la aplicación del presente Reglamento, es importante anticipar la aplicación de las prohibiciones para tener en cuenta los riesgos inaceptables y adaptar otros procedimientos, por ejemplo, en el ámbito del Derecho civil. Además, la infraestructura relacionada con la gobernanza y el sistema de evaluación de la conformidad deben estar operativos antes de esa fecha, por lo que las disposiciones relativas a los organismos notificados y la estructura de gobernanza deben ser aplicables a partir del 2 de agosto de 2026. Dada la rápida evolución tecnológica y el elevado ritmo de adopción de modelos de IA de uso general, las obligaciones de los proveedores de modelos de IA de uso general deben aplicarse desde el 2 de agosto de 2025. Los códigos de buenas prácticas deben estar finalizados a más tardar el 2 de mayo de 2025 al objeto de permitir a los proveedores demostrar el cumplimiento de sus obligaciones dentro del plazo previsto. La Oficina de IA debe velar por que las normas y los procedimientos de clasificación estén actualizados con arreglo a los avances tecnológicos. Asimismo, los Estados miembros deben establecer y poner en conocimiento de la Comisión las normas referentes a las sanciones, incluidas las multas administrativas, y asegurarse de que para la fecha de aplicación del presente Reglamento se apliquen de manera adecuada y efectiva. Por lo tanto, las disposiciones relativas a las sanciones deben aplicarse a partir del 2 de agosto de 2025.
(179)
Toto nariadenie by sa malo uplatňovať od 2. augusta 2026. Vzhľadom na neprijateľné riziko spojené s používaním AI určitými spôsobmi by sa však zákazy, ako aj všeobecné ustanovenia tohto nariadenia, mali uplatňovať už od 2. februára 2025. Zatiaľ čo plný účinok týchto zákazov vyplýva zo zavedenia správy a riadenia a presadzovania tohto nariadenia, je dôležité predpokladať uplatňovanie zákazov, aby sa zohľadnili neprijateľné riziká a aby sa dosiahol vplyv na iné postupy, napríklad v občianskom práve. Taktiež platí, že infraštruktúra súvisiaca so správou a riadením a so systémom posudzovania zhody by však mala byť funkčná pred 2. augusta 2026, a preto by sa ustanovenia o notifikovaných osobách a štruktúre správy a riadenia mali uplatňovať od 2. augusta 2025. Vzhľadom na rýchle tempo technologického pokroku a prijímanie modelov AI na všeobecné účely by sa povinnosti poskytovateľov modelov AI na všeobecné účely mali začať uplatňovať od 2. augusta 2025. Kódexy postupov by mali byť pripravené do 2. mája 2025, aby sa poskytovateľom umožnilo včas preukázať plnenie predpisov. Úrad pre AI by mal zabezpečiť, aby pravidlá a postupy klasifikácie boli aktuálne vzhľadom na technologický vývoj. Okrem toho by členské štáty mali stanoviť pravidlá týkajúce sa sankcií vrátane správnych pokút, oznámiť ich Komisii a zabezpečiť ich riadne a účinné vykonávanie do dátumu začatia uplatňovania tohto nariadenia. Ustanovenia o sankciách by sa preto mali začať uplatňovať od 2. augusta 2025.
(180)
El Supervisor Europeo de Protección de Datos y el Comité Europeo de Protección de Datos, a los que se consultó de conformidad con el artículo 42, apartados 1 y 2, del Reglamento (UE) 2018/1725, emitieron su dictamen conjunto el 18 de junio de 2021.
(180)
V súlade s článkom 42 ods. 1 a 2 nariadenia (EÚ) 2018/1725 sa konzultovalo s európskym dozorným úradníkom pre ochranu údajov a s Európskym výborom na ochranu údajov, ktorí 18. júna 2021 vydali svoje spoločné stanovisko,
HAN ADOPTADO EL PRESENTE REGLAMENTO:
1. El presente Reglamento se aplicará a:
1. Toto nariadenie sa vzťahuje na:
a)
los proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA o que introduzcan en el mercado modelos de IA de uso general en la Unión, con independencia de si dichos proveedores están establecidos o ubicados en la Unión o en un tercer país;
a)
poskytovateľov, ktorí v Únii uvádzajú na trh alebo do prevádzky systémy AI alebo uvádzajú na trh modely AI na všeobecné účely, bez ohľadu na to, či sú títo poskytovatelia usadení alebo sa nachádzajú v Únii alebo v tretej krajine;
b)
los responsables del despliegue de sistemas de IA que estén establecidos o ubicados en la Unión;
b)
subjekty nasadzujúce systémy AI, ktoré majú miesto usadenia alebo sa nachádzajú v Únii;
c)
los proveedores y responsables del despliegue de sistemas de IA que estén establecidos o ubicados en un tercer país, cuando los resultados de salida generados por el sistema de IA se utilicen en la Unión;
c)
poskytovateľov systémov AI a subjekty nasadzujúce systémy AI, ktoré majú miesto usadenia alebo sa nachádzajú v tretej krajine, ak sa výstup vytvorený systémom AI používa v Únii;
d)
los importadores y distribuidores de sistemas de IA;
d)
dovozcov a distribútorov systémov AI;
e)
los fabricantes de productos que introduzcan en el mercado o pongan en servicio un sistema de IA junto con su producto y con su propio nombre o marca;
e)
výrobcov výrobkov, ktorí uvádzajú na trh alebo do prevádzky systém AI spolu so svojím výrobkom a pod vlastným menom alebo ochrannou známkou;
f)
los representantes autorizados de los proveedores que no estén establecidos en la Unión;
f)
splnomocnených zástupcov poskytovateľov, ktorí nie sú usadení v Únii;
g)
las personas afectadas que estén ubicadas en la Unión.
g)
dotknuté osoby, ktoré sa nachádzajú v Únii.
2. A los sistemas de IA clasificados como sistemas de IA de alto riesgo de conformidad con el artículo 6, apartado 1, y relativos a productos regulados por los actos legislativos de armonización de la Unión enumerados en la sección B del anexo I, únicamente se les aplicará el artículo 6, apartado 1, y los artículos 102 a 109 y el artículo 112. El artículo 57 se aplicará únicamente en la medida en que los requisitos para los sistemas de IA de alto riesgo en virtud del presente Reglamento se hayan integrado en dichos actos legislativos de armonización de la Unión.
2. Na systémy AI klasifikované v súlade s článkom 6 ods. 1 ako vysokorizikové systémy AI súvisiace s výrobkami, na ktoré sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I oddiele B, sa uplatňuje len článok 6 ods. 1, články 102 až 109 a článok 112. Článok 57 sa uplatňuje len v rozsahu, v akom boli požiadavky na vysokorizikové systémy AI podľa tohto nariadenia začlenené do uvedených harmonizačných právnych predpisov Únie.
3. El presente Reglamento no se aplicará a los ámbitos que queden fuera del ámbito de aplicación del Derecho de la Unión y, en cualquier caso, no afectará a las competencias de los Estados miembros en materia de seguridad nacional, independientemente del tipo de entidad a la que los Estados miembros hayan encomendado el desempeño de tareas en relación con dichas competencias.
3. Toto nariadenie sa neuplatňuje na oblasti mimo rozsahu pôsobnosti práva Únie a v žiadnom prípade nemá vplyv na právomoci členských štátov týkajúce sa národnej bezpečnosti, a to bez ohľadu na typ subjektu, ktorý členské štáty poverili vykonávaním úloh v súvislosti s týmito právomocami.
El presente Reglamento no se aplicará a los sistemas de IA que, y en la medida en que, se introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin modificaciones, exclusivamente con fines militares, de defensa o de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades.
Toto nariadenie sa neuplatňuje na systémy AI, ak a pokiaľ sa uvádzajú na trh, uvádzajú do prevádzky alebo sa používajú, či už upravené alebo nie, výlučne na vojenské alebo obranné účely alebo na účely národnej bezpečnosti, a to bez ohľadu na typ subjektu vykonávajúceho tieto činnosti.
El presente Reglamento no se aplicará a los sistemas de IA que no se introduzcan en el mercado o no se pongan en servicio en la Unión en los casos en que sus resultados de salida se utilicen en la Unión exclusivamente con fines militares, de defensa o de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades.
Toto nariadenie sa neuplatňuje na systémy AI, ktoré sa neuvádzajú na trh ani do prevádzky v Únii, ak sa výstup používa v Únii výlučne na vojenské alebo obranné účely alebo na účely národnej bezpečnosti, a to bez ohľadu na typ subjektu vykonávajúceho tieto činnosti.
4. El presente Reglamento no se aplicará a las autoridades públicas de terceros países ni a las organizaciones internacionales que entren dentro del ámbito de aplicación de este Reglamento conforme al apartado 1 cuando dichas autoridades u organizaciones utilicen sistemas de IA en el marco de acuerdos o de la cooperación internacionales con fines de garantía del cumplimiento del Derecho y cooperación judicial con la Unión o con uno o varios Estados miembros, siempre que tal tercer país u organización internacional ofrezca garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas.
4. Toto nariadenie sa neuplatňuje na orgány verejnej moci v tretej krajine ani na medzinárodné organizácie, ktoré podľa odseku 1 patria do rozsahu pôsobnosti tohto nariadenia, ak tieto orgány alebo organizácie používajú systémy AI v rámci medzinárodných dohôd o spolupráci alebo dohôd o presadzovaní práva a justičnej spolupráci s Úniou alebo s jedným alebo viacerými členskými štátmi, pod podmienkou, že táto tretia krajina alebo medzinárodná organizácia poskytuje primerané záruky, pokiaľ ide o ochranu základných práv a slobôd jednotlivcov.
5. El presente Reglamento no afectará a la aplicación de las disposiciones relativas a la responsabilidad de los prestadores de servicios intermediarios que figuran en el capítulo II del Reglamento (UE) 2022/2065.
5. Týmto nariadením nie je dotknuté uplatňovanie ustanovení o zodpovednosti poskytovateľov sprostredkovateľských služieb uvedených v kapitole II nariadenia (EÚ) 2022/2065.
6. El presente Reglamento no se aplicará a los sistemas o modelos de IA, incluidos sus resultados de salida, desarrollados y puestos en servicio específicamente con la investigación y el desarrollo científicos como única finalidad.
6. Toto nariadenie sa neuplatňuje na systémy alebo modely AI vrátane ich výstupov, ktoré sú osobitne vyvinuté a uvedené do prevádzky výlučne na účely vedeckého výskumu a vývoja.
7. El Derecho de la Unión en materia de protección de los datos personales, la intimidad y la confidencialidad de las comunicaciones se aplicará a los datos personales tratados en relación con los derechos y obligaciones establecidos en el presente Reglamento. El presente Reglamento no afectará a los Reglamentos (UE) 2016/679 o (UE) 2018/1725 ni a las Directivas 2002/58/CE o (UE) 2016/680, sin perjuicio del artículo 10, apartado 5, y el artículo 59 del presente Reglamento.
7. Na osobné údaje spracúvané v súvislosti s právami a povinnosťami stanovenými v tomto nariadení sa vzťahuje právo Únie o ochrane osobných údajov, súkromia a dôvernosti komunikácie. Toto nariadenie nemá vplyv na nariadenie (EÚ) 2016/679 či (EÚ) 2018/1725, ani na smernicu 2002/58/ES alebo (EÚ) 2016/680 bez toho, aby bol dotknutý článok 10 ods. 5 a článok 59 tohto nariadenia.
8. El presente Reglamento no se aplicará a ninguna actividad de investigación, prueba o desarrollo relativa a sistemas de IA o modelos de IA antes de su introducción en el mercado o puesta en servicio. Estas actividades se llevarán a cabo de conformidad con el Derecho de la Unión aplicable. Las pruebas en condiciones reales no estarán cubiertas por esa exclusión.
8. Toto nariadenie sa neuplatňuje na žiadnu výskumnú, testovaciu ani vývojovú činnosť týkajúcu sa systémov AI alebo modelov AI pred ich uvedením na trh alebo do prevádzky. Takéto činnosti sa vykonávajú v súlade s uplatniteľným právom Únie. Toto vylúčenie sa nevzťahuje na testovanie v reálnych podmienkach.
9. El presente Reglamento se entenderá sin perjuicio de las normas establecidas por otros actos jurídicos de la Unión relativos a la protección de los consumidores y a la seguridad de los productos.
9. Týmto nariadením nie sú dotknuté pravidlá stanovené v iných právnych aktoch Únie týkajúcich sa ochrany spotrebiteľa a bezpečnosti výrobkov.
10. El presente Reglamento no se aplicará a las obligaciones de los responsables del despliegue que sean personas físicas que utilicen sistemas de IA en el ejercicio de una actividad puramente personal de carácter no profesional.
10. Toto nariadenie sa neuplatňuje na povinnosti nasadzujúcich subjektov, ktoré sú fyzickými osobami používajúcimi systémy AI v rámci čisto osobnej neprofesionálnej činnosti.
11. El presente Reglamento no impedirá que la Unión o los Estados miembros mantengan o introduzcan disposiciones legales, reglamentarias o administrativas que sean más favorables a los trabajadores en lo que atañe a la protección de sus derechos respecto al uso de sistemas de IA por parte de los empleadores ni que fomenten o permitan la aplicación de convenios colectivos que sean más favorables a los trabajadores.
11. Toto nariadenie nebráni Únii ani členským štátom v tom, aby zachovali v platnosti alebo prijali zákony, iné právne predpisy alebo správne opatrenia, ktoré sú pre pracovníkov priaznivejšie z hľadiska ochrany ich práv v súvislosti s používaním systémov AI zamestnávateľmi, alebo aby podporovali alebo umožňovali uplatňovanie kolektívnych zmlúv, ktoré sú pre pracovníkov priaznivejšie.
12. El presente Reglamento no se aplicará a los sistemas de IA divulgados con arreglo a licencias libres y de código abierto, a menos que se introduzcan en el mercado o se pongan en servicio como sistemas de IA de alto riesgo o como sistemas de IA que entren en el ámbito de aplicación del artículo 5 o del artículo 50.
12. Toto nariadenie sa neuplatňuje na systémy AI vydané na základe bezplatných licencií s otvoreným zdrojovým kódom, pokiaľ nie sú uvedené na trh alebo do prevádzky ako vysokorizikové systémy AI alebo ako systém AI, na ktorý sa vzťahuje článok 5 alebo článok 50.
Prácticas de IA prohibidas
Zakázané praktiky využívajúce AI
1. Quedan prohibidas las siguientes prácticas de IA:
1. Zakazujú sa tieto praktiky využívajúce AI:
a)
la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un colectivo de personas, mermando de manera apreciable su capacidad para tomar una decisión informada y haciendo que tomen una decisión que de otro modo no habrían tomado, de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona, a otra persona o a un colectivo de personas;
a)
uvádzanie na trh, uvádzanie do prevádzky alebo používanie systému AI, ktorý využíva podprahové techniky mimo vedomia osoby alebo účelovo manipulatívne alebo klamlivé techniky s cieľom alebo účinkom podstatne narušiť správanie osoby alebo skupiny osôb tým, že sa citeľne oslabí ich schopnosť prijať informované rozhodnutie, čo zapríčiní, že prijmú rozhodnutie, ktoré by inak neprijali, a to spôsobom, ktorý tejto osobe, inej osobe alebo skupine osôb spôsobuje alebo pri ktorom je odôvodnené predpokladať, že pravdepodobne spôsobí značnú ujmu;
b)
la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que explote alguna de las vulnerabilidades de una persona física o un determinado colectivo de personas derivadas de su edad o discapacidad, o de una situación social o económica específica, con la finalidad o el efecto de alterar de manera sustancial el comportamiento de dicha persona o de una persona que pertenezca a dicho colectivo de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona o a otra;
b)
uvádzanie na trh, uvádzanie do prevádzky alebo používanie systému AI, ktorý využíva ktorúkoľvek zo zraniteľností fyzickej osoby alebo osobitnej skupiny osôb z dôvodu ich veku, zdravotného postihnutia alebo osobitnej sociálnej alebo ekonomickej situácie s cieľom alebo účinkom podstatne narušiť správanie tejto osoby alebo osoby patriacej do tejto skupiny spôsobom, ktorý tejto alebo inej osobe spôsobuje alebo pri ktorom je odôvodnené predpokladať, že pravdepodobne spôsobí značnú ujmu;
c)
la introducción en el mercado, la puesta en servicio o la utilización de sistemas de IA para evaluar o clasificar a personas físicas o a colectivos de personas durante un período determinado de tiempo atendiendo a su comportamiento social o a características personales o de su personalidad conocidas, inferidas o predichas, de forma que la puntuación ciudadana resultante provoque una o varias de las situaciones siguientes:
c)
uvádzanie na trh, uvádzanie do prevádzky alebo používanie systémov AI na hodnotenie alebo klasifikáciu fyzických osôb alebo skupín osôb počas určitého obdobia na základe ich spoločenského správania alebo známych, odvodených či predpokladaných osobných alebo osobnostných charakteristík, pričom takto získané sociálne skóre vedie k jednému alebo obidvom z týchto výsledkov:
i)
un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos de personas en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos originalmente,
i)
ku škodlivému alebo nepriaznivému zaobchádzaniu s určitými fyzickými osobami alebo skupinami osôb v sociálnych kontextoch, ktoré nesúvisia s kontextami, v ktorých boli údaje pôvodne generované alebo zhromaždené;
ii)
un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos de personas que sea injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este;
ii)
ku škodlivému alebo nepriaznivému zaobchádzaniu s určitými fyzickými osobami alebo skupinami osôb, ktoré je neodôvodnené alebo neprimerané ich spoločenskému správaniu alebo jeho závažnosti;
d)
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de un sistema de IA para realizar evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad; esta prohibición no se aplicará a los sistemas de IA utilizados para apoyar la valoración humana de la implicación de una persona en una actividad delictiva que ya se base en hechos objetivos y verificables directamente relacionados con una actividad delictiva;
d)
uvádzanie na trh, uvádzanie do prevádzky na tento konkrétny účel alebo používanie systému AI na posudzovanie rizík fyzických osôb s cieľom posúdiť alebo predvídať riziko toho, že fyzická osoba spácha trestný čin, a to výlučne na základe profilovania fyzickej osoby alebo posúdenia jej osobnostných vlastností a charakteristík; tento zákaz sa nevzťahuje na systémy AI používané na podporu ľudského posúdenia zapojenia osoby do trestnej činnosti, ktoré je už založené na objektívnych a overiteľných skutočnostiach priamo spojených s trestnou činnosťou;
e)
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión;
e)
uvádzanie na trh, uvádzanie do prevádzky na tento konkrétny účel alebo používanie systémov AI, ktoré vytvárajú alebo rozširujú databázy na rozpoznávanie tváre prostredníctvom necielenej extrakcie podôb tváre z internetu alebo zo záznamov CCTV;
f)
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA para inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos, excepto cuando el sistema de IA esté destinado a ser instalado o introducido en el mercado por motivos médicos o de seguridad;
f)
uvádzanie na trh, uvádzanie do prevádzky na tento konkrétny účel alebo používanie systémov AI na odvodzovanie emócií fyzickej osoby v oblasti pracoviska a vzdelávacích inštitúcií s výnimkou prípadov, keď je používanie systému AI určené na uvedenie do prevádzky alebo na trh zo zdravotných alebo bezpečnostných dôvodov;
g)
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual; esta prohibición no incluye el etiquetado o filtrado de conjuntos de datos biométricos adquiridos lícitamente, como imágenes, basado en datos biométricos ni la categorización de datos biométricos en el ámbito de la garantía del cumplimiento del Derecho;
g)
uvádzanie na trh, uvádzanie do prevádzky na tento konkrétny účel alebo používanie systémov biometrickej kategorizácie, ktoré jednotlivo kategorizujú fyzické osoby na základe ich biometrických údajov s cieľom odvodiť alebo vyvodiť ich rasu, politické názory, členstvo v odboroch, náboženské alebo filozofické presvedčenie, sexuálny život alebo sexuálnu orientáciu; tento zákaz sa nevzťahuje na žiadne označovanie ani filtrovanie zákonne získaných súborov biometrických údajov, ako sú obrázky, na základe biometrických údajov alebo kategorizácie biometrických údajov v oblasti presadzovania práva;
h)
el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho, salvo y en la medida en que dicho uso sea estrictamente necesario para alcanzar uno o varios de los objetivos siguientes:
h)
používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva, pokiaľ takéto použitie nie je nevyhnutne potrebné na jeden z týchto cieľov:
i)
la búsqueda selectiva de víctimas concretas de secuestro, trata de seres humanos o explotación sexual de seres humanos, así como la búsqueda de personas desaparecidas,
i)
cielené pátranie po konkrétnych obetiach únosov, obchodovania s ľuďmi alebo sexuálneho vykorisťovania ľudí, ako aj pátranie po nezvestných osobách;
ii)
la prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de una amenaza real y actual o real y previsible de un atentado terrorista,
ii)
predchádzanie konkrétnemu, závažnému a bezprostrednému ohrozeniu života alebo fyzickej bezpečnosti fyzických osôb alebo skutočnej a existujúcej alebo skutočnej a predvídateľnej hrozbe teroristického útoku;
iii)
la localización o identificación de una persona sospechosa de haber cometido un delito a fin de llevar a cabo una investigación o un enjuiciamiento penales o de ejecutar una sanción penal por alguno de los delitos mencionados en el anexo II que en el Estado miembro de que se trate se castigue con una pena o una medida de seguridad privativas de libertad cuya duración máxima sea de al menos cuatro años.
iii)
lokalizácia alebo identifikácia osoby podozrivej zo spáchania trestného činu na účel vedenia vyšetrovania alebo stíhania trestného činu alebo výkonu trestnej sankcie za trestné činy uvedené v prílohe II, za ktoré možno v dotknutom členskom štáte uložiť trest odňatia slobody alebo ochranné opatrenie obmedzujúce slobodu s hornou hranicou trestnej sadzby najmenej štyri roky.
El párrafo primero, letra h), se entiende sin perjuicio de lo dispuesto en el artículo 9 del Reglamento (UE) 2016/679 en lo que respecta al tratamiento de datos biométricos con fines distintos de la garantía del cumplimiento del Derecho.
Prvým pododsekom písm. h) nie je dotknutý článok 9 nariadenia (EÚ) 2016/679 na účely spracúvania biometrických údajov na iné účely ako je presadzovania práva.
2. El uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho para cualquiera de los objetivos mencionados en el apartado 1, párrafo primero, letra h), debe desplegarse para los fines establecidos en dicha letra, únicamente para confirmar la identidad de la persona que constituya el objetivo específico y tendrá en cuenta los siguientes aspectos:
2. Systémy diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch sa na účely presadzovania práva na dosiahnutie ktoréhokoľvek z cieľov uvedených v odseku 1 prvom pododseku písm. h) nasadzujú na účely stanovené v uvedenom písmene, len aby sa potvrdila totožnosť špecificky zacieleného jednotlivca, pričom sa zohľadnia tieto skutočnosti:
a)
la naturaleza de la situación que dé lugar al posible uso, y en particular la gravedad, probabilidad y magnitud del perjuicio que se produciría de no utilizarse el sistema;
a)
povaha situácie, ktorá viedla k možnému použitiu, najmä závažnosť, pravdepodobnosť a rozsah ujmy, ktorá by bola spôsobená v prípade nepoužitia systému;
b)
las consecuencias que tendría el uso del sistema en los derechos y las libertades de las personas implicadas, y en particular la gravedad, probabilidad y magnitud de dichas consecuencias.
b)
dôsledky použitia systému pre práva a slobody všetkých dotknutých osôb, najmä závažnosť, pravdepodobnosť a rozsah týchto dôsledkov.
Además, el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho para cualquiera de los objetivos mencionados en el apartado 1, párrafo primero, letra h), del presente artículo deberá cumplir garantías y condiciones necesarias y proporcionadas en relación con el uso de conformidad con el Derecho nacional que autorice dicho uso, en particular en lo que respecta a las limitaciones temporales, geográficas y personales. El uso del sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público solo se autorizará si la autoridad garante del cumplimiento del Derecho ha completado una evaluación de impacto relativa a los derechos fundamentales según lo dispuesto en el artículo 27 y ha registrado el sistema en la base de datos de la UE de conformidad con el artículo 49. No obstante, en casos de urgencia debidamente justificados, se podrá empezar a utilizar tales sistemas sin el registro en la base de datos de la UE, siempre que dicho registro se complete sin demora indebida.
Používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva na dosiahnutie ktoréhokoľvek z cieľov uvedených v odseku 1 prvom pododseku písm. h) tohto článku musí okrem toho byť v súlade s nevyhnutnými a primeranými zárukami a podmienkami týkajúcimi sa tohto používania, a to podľa vnútroštátnych právnych predpisov oprávňujúcich ich použitie, najmä pokiaľ ide o časové, geografické a osobné obmedzenia. Používanie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch sa povolí len vtedy, ak orgán presadzovania práva dokončil posúdenie vplyvu na základné práva, ako sa stanovuje v článku 27, a zaregistroval systém v databáze Únie podľa článku 49. V riadne odôvodnených naliehavých prípadoch sa však používanie takýchto systémov môže začať bez registrácie v databáze Únie za predpokladu, že sa takáto registrácia dokončí bez zbytočného odkladu.
3. A los efectos del apartado 1, párrafo primero, letra h), y el apartado 2, todo uso de un sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho estará supeditado a la concesión de una autorización previa por parte de una autoridad judicial o una autoridad administrativa independiente cuya decisión sea vinculante del Estado miembro en el que vaya a utilizarse dicho sistema, que se expedirá previa solicitud motivada y de conformidad con las normas detalladas del Derecho nacional mencionadas en el apartado 5. No obstante, en una situación de urgencia debidamente justificada, se podrá empezar a utilizar tal sistema sin autorización siempre que se solicite dicha autorización sin demora indebida, a más tardar en un plazo de veinticuatro horas. Si se rechaza dicha autorización, el uso se interrumpirá con efecto inmediato y todos los datos, así como los resultados y la información de salida generados por dicho uso, se desecharán y suprimirán inmediatamente.
3. Na účely odseku 1 prvého pododseku písm. h) a odseku 2 podlieha každé použitie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva predchádzajúcemu povoleniu, ktoré udeľuje justičný orgán alebo nezávislý správny orgán, ktorého rozhodnutie je záväzné, členského štátu, v ktorom sa má použitie uskutočniť, vydanému na základe odôvodnenej žiadosti a v súlade s podrobnými pravidlami vnútroštátneho práva uvedenými v odseku 5. V riadne odôvodnenej naliehavej situácii sa však použitie takéhoto systému môže začať bez povolenia za predpokladu, že sa o takéto povolenie požiada bez zbytočného odkladu, najneskôr však do 24 hodín. Ak sa takéto povolenie zamietne, používanie sa s okamžitou účinnosťou zastaví a všetky údaje, ako aj výsledky a výstupy tohto používania sa okamžite vyradia a vymažú.
La autoridad judicial competente o una autoridad administrativa independiente cuya decisión sea vinculante únicamente concederá la autorización cuando tenga constancia, sobre la base de pruebas objetivas o de indicios claros que se le aporten, de que el uso del sistema de identificación biométrica remota «en tiempo real» es necesario y proporcionado para alcanzar alguno de los objetivos especificados en el apartado 1, párrafo primero, letra h), el cual se indicará en la solicitud, y, en particular, se limita a lo estrictamente necesario en lo que se refiere al período de tiempo, así como al ámbito geográfico y personal. Al pronunciarse al respecto, esa autoridad tendrá en cuenta los aspectos mencionados en el apartado 2. Dicha autoridad no podrá adoptar ninguna decisión que produzca efectos jurídicos adversos para una persona exclusivamente sobre la base de los resultados de salida del sistema de identificación biométrica remota «en tiempo real».
Príslušný justičný orgán alebo nezávislý správny orgán, ktorého rozhodnutie je záväzné, udelí povolenie len vtedy, ak sa na základe objektívnych dôkazov alebo jasných indícií, ktoré mu boli predložené, presvedčí, že použitie predmetného systému diaľkovej biometrickej identifikácie v reálnom čase je potrebné a primerané na dosiahnutie niektorého z cieľov uvedených v odseku 1 prvom pododseku písm. h), ako sa uvádza v žiadosti, a najmä je naďalej obmedzené na to, čo je striktne nevyhnutné, pokiaľ ide o časový a geografický rozsah a rozsah týkajúci sa osobných aspektov. Pri rozhodovaní o žiadosti tento orgán zohľadní skutočnosti uvedené v odseku 2. Žiadne rozhodnutie, ktoré má pre osobu nepriaznivé právne účinky, sa nesmie prijať výlučne na základe výstupu systému diaľkovej biometrickej identifikácie v reálnom čase.
4. Sin perjuicio de lo dispuesto en el apartado 3, todo uso de un sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho se notificará a la autoridad de vigilancia del mercado pertinente y a la autoridad nacional de protección de datos de conformidad con las normas nacionales a que se refiere el apartado 5. La notificación contendrá, como mínimo, la información especificada en el apartado 6 y no incluirá datos operativos sensibles.
4. Bez toho, aby bol dotknutý odsek 3, každé použitie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva sa oznámi príslušnému orgánu dohľadu nad trhom a vnútroštátnemu orgánu pre ochranu údajov v súlade s vnútroštátnymi pravidlami uvedenými v odseku 5. Oznámenie obsahuje aspoň informácie uvedené v odseku 6 a neobsahuje citlivé operačné údaje.
5. Los Estados miembros podrán decidir contemplar la posibilidad de autorizar, ya sea total o parcialmente, el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho dentro de los límites y en las condiciones que se indican en el apartado 1, párrafo primero, letra h), y los apartados 2 y 3. Los Estados miembros de que se trate deberán establecer en sus respectivos Derechos nacionales las normas detalladas necesarias aplicables a la solicitud, la concesión y el ejercicio de las autorizaciones a que se refiere el apartado 3, así como a la supervisión y la presentación de informes relacionadas con estas. Dichas normas especificarán también para qué objetivos de los enumerados en el apartado 1, párrafo primero, letra h), y en su caso en relación con qué delitos de los indicados en la letra h), inciso iii), se podrá autorizar a las autoridades competentes para que utilicen esos sistemas con fines de garantía del cumplimiento del Derecho. Los Estados miembros notificarán dichas normas a la Comisión a más tardar treinta días después de su adopción. Los Estados miembros podrán adoptar, de conformidad con el Derecho de la Unión, leyes más restrictivas sobre el uso de sistemas de identificación biométrica remota.
5. Členský štát sa môže rozhodnúť, že na účely presadzovania práva v rámci obmedzení a za podmienok uvedených v odseku 1 prvom pododseku písm. h) a odsekoch 2 a 3 stanoví možnosť úplne alebo čiastočne povoliť používanie systému diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch. Dotknuté členské štáty vo svojom vnútroštátnom práve stanovia potrebné podrobné pravidlá na podávanie žiadostí o povolenia uvedené v odseku 3, ich vydávanie a výkon, ako aj pre dohľad nad nimi a podávanie správ o nich. V týchto pravidlách sa takisto uvedie, v súvislosti s ktorým z cieľov uvedených v odseku 1 prvom pododseku písm. h) a s ktorým z trestných činov uvedených v bode iii) uvedeného písmena h) môžu byť príslušné orgány oprávnené používať tieto systémy na účely presadzovania práva. Členské štáty oznámia tieto pravidlá Komisii najneskôr 30 dní po ich prijatí. Členské štáty môžu v súlade s právom Únie zaviesť prísnejšie právne predpisy o používaní systémov diaľkovej biometrickej identifikácie.
6. Las autoridades nacionales de vigilancia del mercado y las autoridades nacionales de protección de datos de los Estados miembros a las que se haya notificado el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho con arreglo al apartado 4 presentarán a la Comisión informes anuales sobre dicho uso. A tal fin, la Comisión facilitará a los Estados miembros y a las autoridades nacionales de vigilancia del mercado y de protección de datos un modelo que incluya información sobre el número de decisiones adoptadas por las autoridades judiciales competentes o una autoridad administrativa independiente cuya decisión sea vinculante en relación con las solicitudes de autorización de conformidad con el apartado 3, así como su resultado.
6. Vnútroštátne orgány dohľadu nad trhom a vnútroštátne orgány pre ochranu údajov členských štátov, ktorým bolo oznámené používanie systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva podľa odseku 4, predkladajú Komisii výročné správy o takomto používaní. Na tento účel Komisia poskytne členským štátom a vnútroštátnym orgánom dohľadu nad trhom a orgánom pre ochranu údajov vzor vrátane informácií o počte rozhodnutí prijatých príslušnými justičnými orgánmi alebo nezávislým správnym orgánom, ktorého rozhodnutie je záväzné v nadväznosti na žiadosti o povolenie v súlade s odsekom 3, a o ich výsledku.
7. La Comisión publicará informes anuales sobre el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho elaborados basados en datos agregados relativos a los Estados miembros sobre la base de los informes anuales a que se refiere el apartado 6. Dichos informes anuales no incluirán datos operativos sensibles de las actividades de garantía del cumplimiento del Derecho conexas.
7. Komisia uverejňuje výročné správy o používaní systémov diaľkovej biometrickej identifikácie v reálnom čase vo verejne prístupných priestoroch na účely presadzovania práva, pričom vychádza zo súhrnných údajov z členských štátov na základe výročných správ uvedených v odseku 6. Tieto výročné správy nesmú obsahovať citlivé operačné údaje o súvisiacich činnostiach v oblasti presadzovania práva.
8. El presente artículo no afectará a las prohibiciones aplicables cuando una práctica de IA infrinja otras disposiciones de Derecho de la Unión.
8. Týmto článkom nie sú dotknuté zákazy, ktoré sa uplatňujú, ak určitá praktika využívajúca AI porušuje iné právne predpisy Únie.
Reglas de clasificación de los sistemas de IA de alto riesgo
Pravidlá klasifikácie vysokorizikových systémov AI
1. Con independencia de si se ha introducido en el mercado o se ha puesto en servicio sin estar integrado en los productos que se mencionan en las letras a) y b), un sistema de IA se considerará de alto riesgo cuando reúna las dos condiciones que se indican a continuación:
1. Bez ohľadu na to, či sa systém AI uvádza na trh alebo uvádza do prevádzky nezávisle od výrobkov uvedených v písmenách a) a b), považuje sa daný systém AI za vysokorizikový, ak sú splnené obe tieto podmienky:
a)
que el sistema de IA esté destinado a ser utilizado como componente de seguridad de un producto que entre en el ámbito de aplicación de los actos legislativos de armonización de la Unión enumerados en el anexo I, o que el propio sistema de IA sea uno de dichos productos, y
a)
systém AI je určený na používanie ako bezpečnostný komponent výrobku, na ktorý sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I, alebo je systém AI sám osebe takýmto výrobkom;
b)
que el producto del que el sistema de IA sea componente de seguridad con arreglo a la letra a), o el propio sistema de IA como producto, deba someterse a una evaluación de la conformidad de terceros para su introducción en el mercado o puesta en servicio con arreglo a los actos legislativos de armonización de la Unión enumerados en el anexo I.
b)
výrobok, ktorého bezpečnostným komponentom podľa písmena a) je systém AI, alebo samotný systém AI ako výrobok sa musí podrobiť posúdeniu zhody treťou stranou s cieľom uviesť daný výrobok na trh alebo do prevádzky podľa harmonizačných právnych predpisov Únie uvedených v prílohe I.
2. Además de los sistemas de IA de alto riesgo a que se refiere el apartado 1, también se considerarán de alto riesgo los sistemas de IA contemplados en el anexo III.
2. Okrem vysokorizikových systémov AI uvedených v odseku 1 sa za vysokorizikové považujú systémy AI uvedené v prílohe III.
3. No obstante lo dispuesto en el apartado 2, un sistema de IA a que se refiere el anexo III no se considerará de alto riesgo cuando no plantee un riesgo importante de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas físicas, también al no influir sustancialmente en el resultado de la toma de decisiones.
3. Odchylne od odseku 2 sa systém AI uvedený v prílohe III nepovažuje za vysokorizikový, ak nepredstavuje významné riziko ujmy na zdraví, bezpečnosti alebo základných právach fyzických osôb, vrátane toho, že podstatným spôsobom neovplyvňuje výsledok rozhodovania.
El párrafo primero se aplicará cuando se cumpla cualquiera de las condiciones siguientes:
Prvý pododsek sa uplatňuje, ak je splnená ktorákoľvek z týchto podmienok:
a)
que el sistema de IA esté destinado a realizar una tarea de procedimiento limitada;
a)
systém AI je určený na vykonávanie úzko vymedzenej procedurálnej úlohy;
b)
que el sistema de IA esté destinado a mejorar el resultado de una actividad humana previamente realizada;
b)
systém AI je určený na zlepšenie výsledku predtým dokončenej ľudskej činnosti;
c)
que el sistema de IA esté destinado a detectar patrones de toma de decisiones o desviaciones con respecto a patrones de toma de decisiones anteriores y no esté destinado a sustituir la valoración humana previamente realizada sin una revisión humana adecuada, ni a influir en ella, o
c)
systém AI je určený na zisťovanie vzorcov rozhodovania alebo odchýlok od vzorcov predchádzajúceho rozhodovania a nie je určený na to, aby bez riadneho ľudského preskúmania nahradil alebo ovplyvnil predtým dokončené ľudské posúdenie, alebo
d)
que el sistema de IA esté destinado a realizar una tarea preparatoria para una evaluación que sea pertinente a efectos de los casos de uso enumerados en el anexo III.
d)
systém AI je určený na vykonávanie prípravnej úlohy pri posudzovaní relevantnom na účely prípadov použitia uvedených v prílohe III.
No obstante lo dispuesto en el párrafo primero, los sistemas de IA a que se refiere el anexo III siempre se considerarán de alto riesgo cuando el sistema de IA efectúe la elaboración de perfiles de personas físicas.
Bez ohľadu na prvý pododsek sa systém AI uvedený v prílohe III vždy považuje za vysokorizikový, ak sa ním vykonáva profilovanie fyzických osôb.
4. El proveedor que considere que un sistema de IA contemplado en el anexo III no es de alto riesgo documentará su evaluación antes de que dicho sistema sea introducido en el mercado o puesto en servicio. Dicho proveedor estará sujeto a la obligación de registro establecida en el artículo 49, apartado 2. A petición de las autoridades nacionales competentes, el proveedor facilitará la documentación de la evaluación.
4. Poskytovateľ, ktorý sa domnieva, že systém AI uvedený v prílohe III nie je vysokorizikový, zdokumentuje svoje posúdenie pred uvedením tohto systému na trh alebo do prevádzky. Takýto poskytovateľ podlieha registračnej povinnosti stanovenej v článku 49 ods. 2. Na žiadosť vnútroštátnych príslušných orgánov poskytovateľ poskytne dokumentáciu o posúdení.
5. La Comisión, previa consulta al Consejo Europeo de Inteligencia Artificial (en lo sucesivo, «Consejo de IA»), y a más tardar el 2 de febrero de 2026, proporcionará directrices que especifiquen la aplicación práctica del presente artículo en consonancia con el artículo 96, junto con una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que sean de alto riesgo y que no sean de alto riesgo.
5. Komisia po konzultácii s Európskou radou pre AI (ďalej len „rada pre AI“) a najneskôr do 2. februára 2026 poskytne usmernenia, v ktorých spresní praktické vykonávanie tohto článku v súlade s článkom 96 spolu s komplexným zoznamom praktických príkladov prípadov použitia systémov AI, ktoré sú vysokorizikové, a prípadov použitia systémov AI, ktoré nie sú vysokorizikové.
6. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar el apartado 3, párrafo segundo, del presente artículo, añadiendo nuevas condiciones a las establecidas en dicho apartado, o modificando estas, cuando existan pruebas concretas y fiables de la existencia de sistemas de IA que entren en el ámbito de aplicación del anexo III, pero que no planteen un riesgo importante de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas físicas.
6. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 s cieľom zmeniť odsek 3 druhý pododsek tohto článku doplnením nových podmienok k podmienkam v ňom stanoveným alebo ich upravením, ak existujú konkrétne a spoľahlivé dôkazy o existencii systémov AI, ktoré patria do rozsahu pôsobnosti prílohy III, ale nepredstavujú významné riziko ujmy na zdraví, bezpečnosti alebo základných právach fyzických osôb.
7. La Comisión adoptará actos delegados con arreglo al artículo 97 al objeto de modificar el apartado 3, párrafo segundo, del presente artículo, suprimiendo cualquiera de las condiciones establecidas en él, cuando existan pruebas concretas y fiables de que es necesario para mantener el nivel de protección de la salud, la seguridad y los derechos fundamentales previsto en el presente Reglamento.
7. Komisia prijme delegované akty v súlade s článkom 97 s cieľom zmeniť odsek 3 druhý pododsek tohto článku vypustením ktorejkoľvek z podmienok v ňom stanovených, ak existujú konkrétne a spoľahlivé dôkazy o tom, že je to potrebné na zachovanie úrovne ochrany zdravia, bezpečnosti a základných práv stanovenej týmto nariadením.
8. Ninguna modificación de las condiciones establecidas en el apartado 3, párrafo segundo, adoptada de conformidad con los apartados 6 y 7 del presente artículo, reducirá el nivel global de protección de la salud, la seguridad y los derechos fundamentales previsto en el presente Reglamento, y cualquier modificación garantizará la coherencia con los actos delegados adoptados con arreglo al artículo 7, apartado 1, y tendrá en cuenta la evolución tecnológica y del mercado.
8. Žiadna zmena podmienok stanovených v odseku 3 druhom pododseku prijatá v súlade s odsekmi 6 a 7 tohto článku nesmie znížiť celkovú úroveň ochrany zdravia, bezpečnosti a základných práv stanovenú týmto nariadením a musí zabezpečiť súlad s delegovanými aktmi prijatými podľa článku 7 ods. 1 a zohľadniť vývoj na trhu a technologický vývoj.
Sistema de gestión de riesgos
1. Se establecerá, implantará, documentará y mantendrá un sistema de gestión de riesgos en relación con los sistemas de IA de alto riesgo.
1. V súvislosti s vysokorizikovými systémami AI sa zriadi, zavedie, zdokumentuje a udržiava systém riadenia rizík.
2. El sistema de gestión de riesgos se entenderá como un proceso iterativo continuo planificado y ejecutado durante todo el ciclo de vida de un sistema de IA de alto riesgo, que requerirá revisiones y actualizaciones sistemáticas periódicas. Constará de las siguientes etapas:
2. Systém riadenia rizík sa vykladá ako nepretržitý iteratívny proces plánovaný a uskutočňovaný počas celého životného cyklu vysokorizikového systému AI, ktorý si vyžaduje pravidelné systematické preskúmanie a aktualizovanie. Zahŕňa tieto kroky:
a)
la determinación y el análisis de los riesgos conocidos y previsibles que el sistema de IA de alto riesgo pueda plantear para la salud, la seguridad o los derechos fundamentales cuando el sistema de IA de alto riesgo se utilice de conformidad con su finalidad prevista;
a)
identifikáciu a analýzu známych a odôvodnene predvídateľných rizík, ktoré vysokorizikový systém AI môže predstavovať pre zdravie, bezpečnosť alebo základné práva, keď sa vysokorizikový systém AI používa v súlade s jeho zamýšľaným účelom;
b)
la estimación y la evaluación de los riesgos que podrían surgir cuando el sistema de IA de alto riesgo se utilice de conformidad con su finalidad prevista y cuando se le dé un uso indebido razonablemente previsible;
b)
odhad a hodnotenie rizík, ktoré môžu vzniknúť, keď sa vysokorizikový systém AI používa v súlade s jeho zamýšľaným účelom a za podmienok odôvodnene predvídateľného nesprávneho použitia;
c)
la evaluación de otros riesgos que podrían surgir, a partir del análisis de los datos recogidos con el sistema de vigilancia poscomercialización a que se refiere el artículo 72;
c)
hodnotenie ďalších možných rizík na základe analýzy údajov získaných zo systému monitorovania po uvedení na trh v zmysle článku 72;
d)
la adopción de medidas adecuadas y específicas de gestión de riesgos diseñadas para hacer frente a los riesgos detectados con arreglo a la letra a).
d)
prijatie vhodných a cielených opatrení na riadenie rizík určených na riešenie rizík identifikovaných podľa písmena a).
3. Los riesgos a que se refiere el presente artículo son únicamente aquellos que pueden mitigarse o eliminarse razonablemente mediante el desarrollo o el diseño del sistema de IA de alto riesgo o el suministro de información técnica adecuada.
3. Tento článok sa vzťahuje len na tie riziká, ktoré možno primerane zmierniť alebo odstrániť vývojom alebo dizajnom vysokorizikového systému AI alebo poskytnutím primeraných technických informácií.
4. Las medidas de gestión de riesgos mencionadas en el apartado 2, letra d), tendrán debidamente en cuenta los efectos y la posible interacción derivados de la aplicación combinada de los requisitos establecidos en la presente sección, con vistas a reducir al mínimo los riesgos de manera más eficaz al tiempo que se logra un equilibrio adecuado en la aplicación de las medidas para cumplir dichos requisitos.
4. V opatreniach na riadenie rizík uvedených v odseku 2 písm. d) sa náležite zohľadnia účinky a možné interakcie vyplývajúce z kombinovaného uplatňovania požiadaviek stanovených v tomto oddiele s cieľom účinnejšie minimalizovať riziká a zároveň dosiahnuť primeranú rovnováhu pri vykonávaní opatrení na splnenie týchto požiadaviek.
5. Las medidas de gestión de riesgos mencionadas en el apartado 2, letra d), considerarán aceptables los riesgos residuales pertinentes asociados a cada peligro, así como el riesgo residual general de los sistemas de IA de alto riesgo.
5. Opatrenia na riadenie rizík uvedené v odseku 2 písm. d) musia byť také, aby sa relevantné zvyškové riziká spojené s jednotlivými nebezpečenstvami, ako aj celkové zvyškové riziko vysokorizikových systémov AI považovali za prijateľné.
A la hora de determinar las medidas de gestión de riesgos más adecuadas, se procurará:
Pri určovaní najvhodnejších opatrení na riadenie rizík sa zabezpečí:
a)
eliminar o reducir los riesgos detectados y evaluados de conformidad con el apartado 2 en la medida en que sea técnicamente viable mediante un diseño y un desarrollo adecuados del sistema de IA de alto riesgo;
a)
odstránenie alebo zníženie rizík identifikovaných a vyhodnotených podľa odseku 2, pokiaľ je to technicky možné prostredníctvom primeraného dizajnu a vývoja vysokorizikového systému AI;
b)
implantar, cuando proceda, unas medidas de mitigación y control apropiadas que hagan frente a los riesgos que no puedan eliminarse;
b)
v relevantnom prípade zavedenie primeraných zmierňujúcich a kontrolných opatrení na riešenie rizík, ktoré nemožno odstrániť;
c)
proporcionar la información requerida conforme al artículo 13 y, cuando proceda, impartir formación a los responsables del despliegue.
c)
poskytovanie informácií požadovaných podľa článku 13 a v relevantnom prípade odborná príprava pre nasadzujúce subjekty.
Con vistas a eliminar o reducir los riesgos asociados a la utilización del sistema de IA de alto riesgo, se tendrán debidamente en cuenta los conocimientos técnicos, la experiencia, la educación y la formación que se espera que posea el responsable del despliegue, así como el contexto en el que está previsto que se utilice el sistema.
V záujme odstraňovania alebo znižovania rizík súvisiacich s používaním vysokorizikového systému AI sa náležite zohľadnia technické znalosti, skúsenosti, vzdelanie, odborná príprava, ktoré sa očakávajú od nasadzujúceho subjektu, ako aj predpokladaný kontext, v ktorom sa má systém používať.
6. Los sistemas de IA de alto riesgo serán sometidos a pruebas destinadas a determinar cuáles son las medidas de gestión de riesgos más adecuadas y específicas. Dichas pruebas comprobarán que los sistemas de IA de alto riesgo funcionan de manera coherente con su finalidad prevista y cumplen los requisitos establecidos en la presente sección.
6. Vysokorizikové systémy AI sa testujú na účel identifikácie najvhodnejších a cielených opatrení na riadenie rizík. Testovaním sa zabezpečí, aby vysokorizikové systémy AI fungovali konzistentne s ich zamýšľaným účelom a spĺňali požiadavky stanovené v tomto oddiele.
7. Los procedimientos de prueba podrán incluir pruebas en condiciones reales de conformidad con el artículo 60.
7. Postupy testovania môžu zahŕňať testovanie v reálnych podmienkach v súlade s článkom 60.
8. Las pruebas de los sistemas de IA de alto riesgo se realizarán, según proceda, en cualquier momento del proceso de desarrollo y, en todo caso, antes de su introducción en el mercado o puesta en servicio. Las pruebas se realizarán utilizando parámetros y umbrales de probabilidades previamente definidos que sean adecuados para la finalidad prevista del sistema de IA de alto riesgo.
8. Testovanie vysokorizikových systémov AI sa vykonáva podľa potreby kedykoľvek počas celého procesu vývoja a v každom prípade pred ich uvedením na trh alebo do prevádzky. Testovanie sa vykonáva na základe vopred vymedzených metrík a pravdepodobnostných prahových hodnôt, ktoré sú primerané zamýšľanému účelu vysokorizikového systému AI.
9. Cuando se implante el sistema de gestión de riesgos previsto en los apartados 1 a 7, los proveedores prestarán atención a si, en vista de su finalidad prevista, es probable que el sistema de IA de alto riesgo afecte negativamente a las personas menores de dieciocho años y, en su caso, a otros colectivos vulnerables.
9. Pri implementácii systému riadenia rizík stanoveného v odsekoch 1 až 7 poskytovatelia zvážia, či vysokorizikový systém AI vzhľadom na svoj zamýšľaný účel pravdepodobne nepriaznivo neovplyvní osoby mladšie ako 18 rokov a prípadne iné zraniteľné skupiny.
10. En el caso de los proveedores de sistemas de IA de alto riesgo que estén sujetos a requisitos relativos a procesos internos de gestión de riesgos con arreglo a otras disposiciones pertinentes del Derecho de la Unión, los aspectos previstos en los apartados 1 a 9 podrán formar parte de los procedimientos de gestión de riesgos establecidos con arreglo a dicho Derecho, o combinarse con ellos.
10. V prípade poskytovateľov vysokorizikových systémov AI, na ktorých sa vzťahujú požiadavky týkajúce sa vnútorných procesov riadenia rizík podľa iných príslušných ustanovení práva Únie, môžu byť aspekty stanovené v odsekoch 1 až 9 súčasťou postupov riadenia rizík stanovených podľa uvedeného práva alebo kombinované s týmito postupmi.
Datos y gobernanza de datos
1. Los sistemas de IA de alto riesgo que utilizan técnicas que implican el entrenamiento de modelos de IA con datos se desarrollarán a partir de conjuntos de datos de entrenamiento, validación y prueba que cumplan los criterios de calidad a que se refieren los apartados 2 a 5 siempre que se utilicen dichos conjuntos de datos.
1. Vysokorizikové systémy AI, ktoré využívajú techniky zahŕňajúce trénovanie modelov AI s údajmi, sa musia vyvíjať na základe súborov trénovacích, validačných a testovacích údajov, ktoré spĺňajú kritériá kvality uvedené v odsekoch 2 až 5, a to vždy, keď sa takéto súbory údajov používajú.
2. Los conjuntos de datos de entrenamiento, validación y prueba se someterán a prácticas de gobernanza y gestión de datos adecuadas para la finalidad prevista del sistema de IA de alto riesgo. Dichas prácticas se centrarán, en particular, en lo siguiente:
2. Na súbory trénovacích, validačných a testovacích údajov sa vzťahujú postupy správy a riadenia údajov vhodné na zamýšľaný účel vysokorizikového systému AI. Tieto postupy sa týkajú najmä:
a)
las decisiones pertinentes relativas al diseño;
a)
príslušných dizajnových rozhodnutí;
b)
los procesos de recogida de datos y el origen de los datos y, en el caso de los datos personales, la finalidad original de la recogida de datos;
b)
procesov zberu údajov a pôvodu údajov a v prípade osobných údajov pôvodného účelu zberu údajov;
c)
las operaciones de tratamiento oportunas para la preparación de los datos, como la anotación, el etiquetado, la depuración, la actualización, el enriquecimiento y la agregación;
c)
príslušných spracovateľských operácií prípravy údajov, ako je anotácia, označovanie, čistenie, aktualizácia, obohacovanie a agregácia;
d)
la formulación de supuestos, en particular en lo que respecta a la información que se supone que miden y representan los datos;
d)
formulovania predpokladov, najmä pokiaľ ide o informácie, ktoré majú údaje merať a reprezentovať;
e)
una evaluación de la disponibilidad, la cantidad y la adecuación de los conjuntos de datos necesarios;
e)
posúdenia dostupnosti, množstva a vhodnosti potrebných súborov údajov;
f)
el examen atendiendo a posibles sesgos que puedan afectar a la salud y la seguridad de las personas, afectar negativamente a los derechos fundamentales o dar lugar a algún tipo de discriminación prohibida por el Derecho de la Unión, especialmente cuando las salidas de datos influyan en las informaciones de entrada de futuras operaciones;
f)
preskúmania z hľadiska možnej zaujatosti, ktorá môže mať vplyv na zdravie a bezpečnosť osôb, negatívny vplyv na základné práva alebo môže viesť k diskriminácii zakázanej právom Únie, najmä ak výstupy údajov ovplyvňujú vstupy pre budúce operácie;
g)
medidas adecuadas para detectar, prevenir y mitigar posibles sesgos detectados con arreglo a la letra f);
g)
vhodných opatrení na odhaľovanie, prevenciu a zmierňovanie možnej zaujatosti identifikovanej podľa písmena f);
h)
la detección de lagunas o deficiencias pertinentes en los datos que impidan el cumplimiento del presente Reglamento, y la forma de subsanarlas.
h)
identifikácie relevantných medzier alebo nedostatkov v údajoch, ktoré bránia súladu s týmto nariadením, a spôsobu, akým možno tieto medzery a nedostatky odstrániť.
3. Los conjuntos de datos de entrenamiento, validación y prueba serán pertinentes, suficientemente representativos y, en la mayor medida posible, carecerán de errores y estarán completos en vista de su finalidad prevista. Asimismo, tendrán las propiedades estadísticas adecuadas, por ejemplo, cuando proceda, en lo que respecta a las personas o los colectivos de personas en relación con los cuales está previsto que se utilice el sistema de IA de alto riesgo. Los conjuntos de datos podrán reunir esas características para cada conjunto de datos individualmente o para una combinación de estos.
3. Súbory trénovacích, validačných a testovacích údajov musia byť relevantné, dostatočne reprezentatívne a v čo najväčšej možnej miere bez chýb a úplné vzhľadom na zamýšľaný účel. Musia mať primerané štatistické vlastnosti, a to prípadne aj pokiaľ ide o osoby alebo skupiny osôb, vo vzťahu ku ktorým sa má vysokorizikový systém AI používať. Uvedené charakteristiky súborov údajov sa môžu splniť na úrovni jednotlivých súborov údajov alebo na úrovni ich kombinácie.
4. Los conjuntos de datos tendrán en cuenta, en la medida necesaria para la finalidad prevista, las características o elementos particulares del entorno geográfico, contextual, conductual o funcional específico en el que está previsto que se utilice el sistema de IA de alto riesgo.
4. Súbory údajov musia, pokiaľ si to vyžaduje zamýšľaný účel, zohľadňovať charakteristiky alebo prvky, ktoré sú špecifické pre konkrétne geografické, kontextuálne, behaviorálne alebo funkčné podmienky, v ktorých sa má vysokorizikový systém AI používať.
5. En la medida en que sea estrictamente necesario para garantizar la detección y corrección de los sesgos asociados a los sistemas de IA de alto riesgo de conformidad con lo dispuesto en el apartado 2, letras f) y g), del presente artículo, los proveedores de dichos sistemas podrán tratar excepcionalmente las categorías especiales de datos personales siempre que ofrezcan las garantías adecuadas en relación con los derechos y las libertades fundamentales de las personas físicas. Además de las disposiciones establecidas en los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y la Directiva (UE) 2016/680, para que se produzca dicho tratamiento deben cumplirse todas las condiciones siguientes:
5. Pokiaľ je to nevyhnutne potrebné na účel zabezpečenia odhaľovania a nápravy zaujatosti v súvislosti s vysokorizikovými systémami AI v súlade s odsekom 2 písm. f) a g) tohto článku, poskytovatelia takýchto systémov môžu výnimočne spracúvať osobitné kategórie osobných údajov pod podmienkou primeraných záruk pre základné práva a slobody fyzických osôb. Okrem ustanovení uvedených v nariadeniach (EÚ) 2016/679 a (EÚ) 2018/1725 a v smernici (EÚ) 2016/680 na to, aby došlo k takémuto spracúvaniu, musia byť splnené všetky tieto podmienky:
a)
que el tratamiento de otros datos, como los sintéticos o los anonimizados, no permita efectuar de forma efectiva la detección y corrección de sesgos;
a)
odhalenie a nápravu zaujatosti nemožno účinne dosiahnuť spracúvaním iných údajov vrátane syntetických alebo anonymizovaných údajov;
b)
que las categorías especiales de datos personales estén sujetas a limitaciones técnicas relativas a la reutilización de los datos personales y a medidas punteras en materia de seguridad y protección de la intimidad, incluida la seudonimización;
b)
osobitné kategórie osobných údajov podliehajú technickým obmedzeniam opakovaného použitia osobných údajov a najmodernejším bezpečnostným opatreniam a opatreniam na zachovanie súkromia vrátane pseudonymizácie;
c)
que las categorías especiales de datos personales estén sujetas a medidas para garantizar que los datos personales tratados estén asegurados, protegidos y sujetos a garantías adecuadas, incluidos controles estrictos y documentación del acceso, a fin de evitar el uso indebido y garantizar que solo las personas autorizadas tengan acceso a dichos datos personales con obligaciones de confidencialidad adecuadas;
c)
osobitné kategórie osobných údajov podliehajú opatreniam na zabezpečenie toho, aby spracúvané osobné údaje boli zabezpečené, chránené, podliehali primeraným zárukám vrátane prísnych kontrol a dokumentácie prístupu, aby sa zabránilo zneužitiu a zabezpečilo, aby k týmto osobným údajom mali prístup len oprávnené osoby s primeranými povinnosťami zachovávania dôvernosti;
d)
que las categorías especiales de datos personales no se transmitan ni transfieran a terceros y que estos no puedan acceder de ningún otro modo a ellos;
d)
osobitné kategórie osobných údajov sa nesmú zasielať, prenášať ani inak sprístupňovať iným stranám;
e)
que las categorías especiales de datos personales se eliminen una vez que se haya corregido el sesgo o los datos personales hayan llegado al final de su período de conservación, si esta fecha es anterior;
e)
osobitné kategórie osobných údajov sa vymažú po náprave zaujatosti alebo uplynutí obdobia uchovávania osobných údajov, podľa toho, čo nastane skôr;
f)
que los registros de las actividades de tratamiento con arreglo a los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y la Directiva (UE) 2016/680 incluyan las razones por las que el tratamiento de categorías especiales de datos personales era estrictamente necesario para detectar y corregir sesgos, y por las que ese objetivo no podía alcanzarse mediante el tratamiento de otros datos.
f)
záznamy o spracovateľských činnostiach podľa nariadení (EÚ) 2016/679 a (EÚ) 2018/1725 a smernice (EÚ) 2016/680 obsahujú dôvody, prečo bolo spracúvanie osobitných kategórií osobných údajov nevyhnutne potrebné na odhaľovanie a nápravu zaujatosti a prečo uvedený cieľ nebolo možné dosiahnuť spracúvaním iných údajov.
6. Para el desarrollo de sistemas de IA de alto riesgo que no empleen técnicas que impliquen el entrenamiento de modelos de IA, los apartados 2 a 5 se aplicarán únicamente a los conjuntos de datos de prueba.
6. Pri vývoji vysokorizikových systémov AI, pri ktorých sa nevyužívajú techniky zahŕňajúce trénovanie modelov AI, sa odseky 2 až 5 vzťahujú len na testovacie súbory údajov.
1. La documentación técnica de un sistema de IA de alto riesgo se elaborará antes de su introducción en el mercado o puesta en servicio, y se mantendrá actualizada.
1. Pred uvedením vysokorizikového systému AI na trh alebo do prevádzky sa vypracuje technická dokumentácia tohto systému, ktorá sa aktualizuje.
La documentación técnica se redactará de modo que demuestre que el sistema de IA de alto riesgo cumple los requisitos establecidos en la presente sección y que proporcione de manera clara y completa a las autoridades nacionales competentes y a los organismos notificados la información necesaria para evaluar la conformidad del sistema de IA con dichos requisitos. Contendrá, como mínimo, los elementos contemplados en el anexo IV. Las pymes, incluidas las empresas emergentes, podrán facilitar los elementos de la documentación técnica especificada en el anexo IV de manera simplificada. A tal fin, la Comisión establecerá un formulario simplificado de documentación técnica orientado a las necesidades de las pequeñas empresas y las microempresas. Cuando una pyme, incluidas las empresas emergentes, opte por facilitar la información exigida en el anexo IV de manera simplificada, utilizará el formulario a que se refiere el presente apartado. Los organismos notificados aceptarán dicho formulario a efectos de la evaluación de la conformidad.
Technická dokumentácia sa vypracuje tak, aby sa v nej preukazovalo, že vysokorizikový systém AI spĺňa požiadavky stanovené v tomto oddiele, a aby sa vnútroštátnym príslušným orgánom a notifikovaným osobám poskytli v jasnej a komplexnej podobe všetky informácie potrebné na posúdenie súladu systému AI s uvedenými požiadavkami. Musí obsahovať aspoň prvky stanovené v prílohe IV. MSP vrátane startupov môžu poskytovať prvky technickej dokumentácie uvedené v prílohe IV zjednodušeným spôsobom. Na tento účel vytvorí Komisia zjednodušený formulár technickej dokumentácie zameraný na potreby malých podnikov a mikropodnikov. Ak sa MSP vrátane startupov rozhodnú poskytovať informácie požadované v prílohe IV zjednodušeným spôsobom, použijú formulár uvedený v tomto odseku. Notifikované osoby akceptujú formulár na účely posudzovania zhody.
2. Cuando se introduzca en el mercado o se ponga en servicio un sistema de IA de alto riesgo asociado a un producto que entre en el ámbito de aplicación de los actos legislativos de armonización de la Unión mencionados en el anexo I, sección A, se elaborará un único conjunto de documentos técnicos que contenga toda la información mencionada en el apartado 1, así como la información que exijan dichos actos legislativos.
2. Ak sa na trh alebo do prevádzky uvádza vysokorizikový systém AI súvisiaci s výrobkom, na ktorý sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I oddiele A, vypracuje sa jeden súbor technickej dokumentácie obsahujúci všetky informácie stanovené v odseku 1, ako aj informácie požadované podľa uvedených právnych aktov.
3. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar el anexo IV, cuando sea necesario, para garantizar que, en vista de los avances técnicos, la documentación técnica proporcione toda la información necesaria para evaluar si el sistema cumple los requisitos establecidos en la presente sección.
3. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 s cieľom zmeniť v prípade potreby prílohu IV, aby sa zabezpečilo, že technická dokumentácia bude vzhľadom na technický pokrok poskytovať všetky informácie potrebné na posúdenie súladu systému s požiadavkami stanovenými v tomto oddiele.
1. Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que puedan ser vigilados de manera efectiva por personas físicas durante el período que estén en uso, lo que incluye dotarlos de herramientas de interfaz humano-máquina adecuadas.
1. Vysokorizikové systémy AI musia byť dizajnované a vyvinuté tak, aby nad nimi počas obdobia ich používania mohli fyzické osoby vykonávať účinný dohľad, a to aj pomocou vhodných nástrojov rozhrania človek – stroj.
2. El objetivo de la supervisión humana será prevenir o reducir al mínimo los riesgos para la salud, la seguridad o los derechos fundamentales que pueden surgir cuando se utiliza un sistema de IA de alto riesgo conforme a su finalidad prevista o cuando se le da un uso indebido razonablemente previsible, en particular cuando dichos riesgos persistan a pesar de la aplicación de otros requisitos establecidos en la presente sección.
2. Ľudský dohľad sa zameriava na prevenciu alebo minimalizáciu rizík pre zdravie, bezpečnosť alebo základné práva, ktoré môžu vzniknúť pri používaní vysokorizikového systému AI v súlade so zamýšľaným účelom alebo za podmienok odôvodnene predvídateľného nesprávneho použitia, najmä ak takéto riziká pretrvávajú napriek uplatňovaniu iných požiadaviek stanovených v tomto oddiele.
3. Las medidas de supervisión serán proporcionales a los riesgos, al nivel de autonomía y al contexto de uso del sistema de IA de alto riesgo, y se garantizarán bien mediante uno de los siguientes tipos de medidas, bien mediante ambos:
3. Opatrenia dohľadu musia byť primerané rizikám, úrovni autonómnosti a kontextu používania vysokorizikového systému AI a zabezpečia sa jedným alebo oboma z týchto druhov opatrení:
a)
las medidas que el proveedor defina y que integre, cuando sea técnicamente viable, en el sistema de IA de alto riesgo antes de su introducción en el mercado o su puesta en servicio;
a)
opatrenia, ktoré identifikuje poskytovateľ, a ak je to technicky uskutočniteľné, začlení ich do vysokorizikového systému AI pred jeho uvedením na trh alebo do prevádzky;
b)
las medidas que el proveedor defina antes de la introducción del sistema de IA de alto riesgo en el mercado o de su puesta en servicio y que sean adecuadas para que las ponga en práctica el responsable del despliegue.
b)
opatrenia, ktoré identifikuje poskytovateľ pred uvedením vysokorizikového systému AI na trh alebo do prevádzky a ktoré môže zaviesť nasadzujúci subjekt.
4. A efectos de la puesta en práctica de lo dispuesto en los apartados 1, 2 y 3, el sistema de IA de alto riesgo se ofrecerá al responsable del despliegue de tal modo que las personas físicas a quienes se encomiende la supervisión humana puedan, según proceda y de manera proporcionada a:
4. Na účely vykonávania odsekov 1, 2 a 3 sa vysokorizikový systém AI poskytuje nasadzujúcemu subjektu takým spôsobom, aby fyzickým osobám, ktorým je zverený ľudský dohľad, umožňoval podľa potreby a primerane:
a)
entender adecuadamente las capacidades y limitaciones pertinentes del sistema de IA de alto riesgo y poder vigilar debidamente su funcionamiento, por ejemplo, con vistas a detectar y resolver anomalías, problemas de funcionamiento y comportamientos inesperados;
a)
riadne pochopiť príslušné kapacity a obmedzenia vysokorizikového systému AI a byť schopný riadne monitorovať jeho prevádzku, a to aj s cieľom odhaľovať a riešiť anomálie, poruchy a neočakávaný výkon;
b)
ser conscientes de la posible tendencia a confiar automáticamente o en exceso en los resultados de salida generados por un sistema de IA de alto riesgo («sesgo de automatización»), en particular con aquellos sistemas que se utilizan para aportar información o recomendaciones con el fin de que personas físicas adopten una decisión;
b)
byť si neustále vedomý možnej tendencie automatického spoliehania sa alebo nadmerného spoliehania sa na výstupy vytvorené vysokorizikovým systémom AI (ďalej len „náchylnosť k automatizácii“), a to najmä v prípade vysokorizikových systémov AI používaných na poskytovanie informácií alebo odporúčaní pre rozhodnutia, ktoré majú prijať fyzické osoby;
c)
interpretar correctamente los resultados de salida del sistema de IA de alto riesgo, teniendo en cuenta, por ejemplo, los métodos y herramientas de interpretación disponibles;
c)
správne interpretovať výstupy vysokorizikového systému AI, s prihliadnutím napríklad na dostupné interpretačné nástroje a metódy;
d)
decidir, en cualquier situación concreta, no utilizar el sistema de IA de alto riesgo o descartar, invalidar o revertir los resultados de salida que este genere;
d)
v akejkoľvek konkrétnej situácii rozhodnúť, že sa vysokorizikový systém AI nepoužije alebo sa výstup vysokorizikového systému AI inak nezohľadní, potlačí alebo zvráti;
e)
intervenir en el funcionamiento del sistema de IA de alto riesgo o interrumpir el sistema pulsando un botón de parada o mediante un procedimiento similar que permita que el sistema se detenga de forma segura.
e)
zasiahnuť do prevádzky vysokorizikového systému AI alebo prerušiť systém pomocou tlačidla „stop“ alebo podobným postupom, ktorý umožňuje zastaviť systém v bezpečnom stave.
5. En el caso de los sistemas de IA de alto riesgo mencionados en el anexo III, punto 1, letra a), las medidas a que se refiere el apartado 3 del presente artículo garantizarán, además, que el responsable del despliegue no actúe ni tome ninguna decisión basándose en la identificación generada por el sistema, salvo si al menos dos personas físicas con la competencia, formación y autoridad necesarias han verificado y confirmado por separado dicha identificación.
5. V prípade vysokorizikových systémov AI uvedených v prílohe III bode 1 písm. a) musia byť opatrenia podľa odseku 3 tohto článku také, aby sa navyše zabezpečilo, že nasadzujúci subjekt na základe identifikácie vyplývajúcej zo systému nekoná ani neprijme žiadne rozhodnutie, pokiaľ takáto identifikácia nebola zvlášť overená a potvrdená aspoň dvoma fyzickými osobami, ktoré majú potrebnú spôsobilosť, odbornú prípravu a právomoc.
El requisito de la verificación por parte de al menos dos personas físicas por separado no se aplicará a los sistemas de IA de alto riesgo utilizados con fines de garantía del cumplimiento del Derecho, de migración, de control fronterizo o de asilo cuando el Derecho nacional o de la Unión considere que la aplicación de este requisito es desproporcionada.
Požiadavka na samostatné overenie aspoň dvoma fyzickými osobami sa nevzťahuje na vysokorizikové systémy AI používané na účely presadzovania práva, migrácie, kontroly hraníc alebo azylu, keď sa podľa práva Únie alebo vnútroštátneho práva uplatňovanie tejto požiadavky považuje za neprimerané.
Precisión, solidez y ciberseguridad
Presnosť, spoľahlivosť a kybernetická bezpečnosť
1. Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que alcancen un nivel adecuado de precisión, solidez y ciberseguridad y funcionen de manera uniforme en esos sentidos durante todo su ciclo de vida.
1. Vysokorizikové systémy AI musia byť dizajnované a vyvinuté tak, aby dosahovali primeranú úroveň presnosti, spoľahlivosti a kybernetickej bezpečnosti a aby v týchto ohľadoch fungovali konzistentne počas celého svojho životného cyklu.
2. Para abordar los aspectos técnicos sobre la forma de medir los niveles adecuados de precisión y solidez establecidos en el apartado 1 y cualquier otro parámetro de rendimiento pertinente, la Comisión, en cooperación con las partes interesadas y organizaciones pertinentes, como las autoridades de metrología y de evaluación comparativa, fomentará, según proceda, el desarrollo de parámetros de referencia y metodologías de medición.
2. S cieľom riešiť technické aspekty spôsobu merania primeraných úrovní presnosti a spoľahlivosti stanovených v odseku 1 a akékoľvek iné relevantné metriky výkonu Komisia v spolupráci s príslušnými zainteresovanými stranami a organizáciami, ako sú orgány v oblasti metrológie a referenčného porovnávania, podľa potreby podporuje vypracovanie referenčných hodnôt a metodík merania.
3. En las instrucciones de uso que acompañen a los sistemas de IA de alto riesgo se indicarán los niveles de precisión de dichos sistemas, así como los parámetros pertinentes para medirla.
3. Úrovne presnosti a príslušné metriky na meranie presnosti vysokorizikových systémov AI sa uvádzajú v priloženom návode na použitie.
4. Los sistemas de IA de alto riesgo serán lo más resistentes posible en lo que respecta a los errores, fallos o incoherencias que pueden surgir en los propios sistemas o en el entorno en el que funcionan, en particular a causa de su interacción con personas físicas u otros sistemas. Se adoptarán medidas técnicas y organizativas a este respecto.
4. Vysokorizikové systémy AI musia byť čo najodolnejšie, pokiaľ ide o chyby, poruchy alebo nezrovnalosti, ktoré sa môžu vyskytnúť v rámci systému alebo prostredia, v ktorom sa systém prevádzkuje, a to najmä z dôvodu ich interakcie s fyzickými osobami alebo inými systémami. V tejto súvislosti sa prijmú technické a organizačné opatrenia.
La solidez de los sistemas de IA de alto riesgo puede lograrse mediante soluciones de redundancia técnica, tales como copias de seguridad o planes de prevención contra fallos.
Spoľahlivosť vysokorizikových systémov AI možno dosiahnuť technickými riešeniami na vytvorenie redundancie, ktoré môžu zahŕňať plány zálohovania alebo núdzového režimu.
Los sistemas de IA de alto riesgo que continúan aprendiendo tras su introducción en el mercado o puesta en servicio se desarrollarán de tal modo que se elimine o reduzca lo máximo posible el riesgo de que los resultados de salida que pueden estar sesgados influyan en la información de entrada de futuras operaciones (bucles de retroalimentación) y se garantice que dichos bucles se subsanen debidamente con las medidas de reducción de riesgos adecuadas.
Vysokorizikové systémy AI, ktoré sa po uvedení na trh alebo do prevádzky ďalej učia, sa vyvíjajú tak, aby sa odstránilo alebo v čo najväčšej miere znížilo riziko, že prípadné skreslené výstupy budú mať vplyv na vstup pre budúce operácie (ďalej len „slučky spätnej väzby“), a aby sa zaistilo, že akékoľvek takéto slučky spätnej väzby sa budú náležite riešiť vhodnými zmierňujúcimi opatreniami.
5. Los sistemas de IA de alto riesgo serán resistentes a los intentos de terceros no autorizados de alterar su uso, sus resultados de salida o su funcionamiento aprovechando las vulnerabilidades del sistema.
5. Vysokorizikové systémy AI musia byť odolné voči pokusom neoprávnených tretích strán o zmenu ich používania, výstupov alebo výkonu využívaním zraniteľností systému.
Las soluciones técnicas encaminadas a garantizar la ciberseguridad de los sistemas de IA de alto riesgo serán adecuadas a las circunstancias y los riesgos pertinentes.
Technické riešenia zamerané na zabezpečenie kybernetickej bezpečnosti vysokorizikových systémov AI musia byť primerané príslušným okolnostiam a rizikám.
Entre las soluciones técnicas destinadas a subsanar vulnerabilidades específicas de la IA figurarán, según corresponda, medidas para prevenir, detectar, combatir, resolver y controlar los ataques que traten de manipular el conjunto de datos de entrenamiento («envenenamiento de datos»), o los componentes entrenados previamente utilizados en el entrenamiento («envenenamiento de modelos»), la información de entrada diseñada para hacer que el modelo de IA cometa un error («ejemplos adversarios» o «evasión de modelos»), los ataques a la confidencialidad o los defectos en el modelo.
Technické riešenia zamerané na zraniteľnosti špecifické pre AI v prípade potreby zahŕňajú opatrenia na prevenciu, detekciu, reakciu, riešenie a kontrolu v prípade útokov, ktoré sa pokúšajú manipulovať súbor trénovacích údajov (ďalej len „otrávenie údajov“) alebo vopred natrénované komponenty používané pri tréningu (ďalej len „otrávenie modelov“), vstupov koncipovaných tak, aby model AI urobil chybu (ďalej len „odporujúce si príklady“ alebo „oklamanie modelov“), útokov na dôvernosť alebo nedostatkov modelu.
Sistema de gestión de la calidad
1. Los proveedores de sistemas de IA de alto riesgo establecerán un sistema de gestión de la calidad que garantice el cumplimiento del presente Reglamento. Dicho sistema deberá consignarse de manera sistemática y ordenada en documentación en la que se recojan las políticas, los procedimientos y las instrucciones e incluirá, al menos, los siguientes aspectos:
1. Poskytovatelia vysokorizikových systémov AI zavedú systém riadenia kvality, ktorým sa zabezpečí súlad s týmto nariadením. Tento systém sa systematicky a usporiadane zdokumentuje vo forme písomných zásad, postupov a pokynov a zahŕňa aspoň tieto aspekty:
a)
una estrategia para el cumplimiento de la normativa, incluido el cumplimiento de los procedimientos de evaluación de la conformidad y de los procedimientos de gestión de las modificaciones de los sistemas de IA de alto riesgo;
a)
stratégiu dodržiavania regulačných požiadaviek vrátane dodržiavania postupov posudzovania zhody a postupov riadenia zmien vysokorizikového systému AI;
b)
las técnicas, los procedimientos y las actuaciones sistemáticas que se utilizarán en el diseño y el control y la verificación del diseño del sistema de IA de alto riesgo;
b)
techniky, postupy a systematické opatrenia, ktoré sa majú použiť pri dizajnovaní vysokorizikového systému AI, kontrole jeho dizajnu a overovaní jeho dizajnu;
c)
las técnicas, los procedimientos y las actuaciones sistemáticas que se utilizarán en el desarrollo del sistema de IA de alto riesgo y en el control y el aseguramiento de la calidad de este;
c)
techniky, postupy a systematické opatrenia, ktoré sa majú použiť pri vývoji vysokorizikového systému AI a pri kontrole a zabezpečení jeho kvality;
d)
los procedimientos de examen, prueba y validación que se llevarán a cabo antes, durante y después del desarrollo del sistema de IA de alto riesgo, así como la frecuencia con que se ejecutarán;
d)
postupy preskúmania, testovania a validácie, ktoré sa majú vykonávať pred vývojom vysokorizikového systému AI, počas neho a po ňom, a frekvencia, s akou sa musia vykonávať;
e)
las especificaciones técnicas, incluidas las normas, que se aplicarán y, cuando las normas armonizadas pertinentes no se apliquen en su totalidad o no cubran todos los requisitos pertinentes establecidos en la sección 2, los medios que se utilizarán para velar por que el sistema de IA de alto riesgo cumpla dichos requisitos;
e)
technické špecifikácie vrátane noriem, ktoré sa majú uplatňovať, a v prípade, že sa príslušné harmonizované normy neuplatňujú v plnom rozsahu alebo sa nevzťahujú na všetky príslušné požiadavky stanovené v oddiele 2, prostriedky, ktoré sa majú použiť na zabezpečenie toho, aby vysokorizikový systém AI spĺňal tieto požiadavky;
f)
los sistemas y procedimientos de gestión de datos, lo que incluye su adquisición, recopilación, análisis, etiquetado, almacenamiento, filtrado, prospección, agregación, conservación y cualquier otra operación relacionada con los datos que se lleve a cabo antes de la introducción en el mercado o puesta en servicio de sistemas de IA de alto riesgo y con esa finalidad;
f)
systémy a postupy správy údajov vrátane získavania údajov, zberu údajov, ich analýzy, označovania, ukladania, filtrovania, hĺbkovej analýzy, agregácie, uchovávania a všetkých ďalších operácií týkajúcich sa údajov, ktoré sa vykonávajú pred uvedením vysokorizikových systémov AI na trh alebo do prevádzky a na účely ich uvedenia na trh alebo do prevádzky;
g)
el sistema de gestión de riesgos que se menciona en el artículo 9;
g)
systém riadenia rizík uvedený v článku 9;
h)
el establecimiento, aplicación y mantenimiento de un sistema de vigilancia poscomercialización de conformidad con el artículo 72;
h)
vytvorenie, zavedenie a vedenie systému monitorovania po uvedení na trh v súlade s článkom 72;
i)
los procedimientos asociados a la notificación de un incidente grave con arreglo al artículo 73;
i)
postupy týkajúce sa oznamovania závažných incidentov v súlade s článkom 73;
j)
la gestión de la comunicación con las autoridades nacionales competentes, otras autoridades pertinentes, incluidas las que permiten acceder a datos o facilitan el acceso a ellos, los organismos notificados, otros operadores, los clientes u otras partes interesadas;
j)
vybavovanie komunikácie s vnútroštátnymi príslušnými orgánmi, inými relevantnými orgánmi vrátane tých, ktoré poskytujú alebo podporujú prístup k údajom, s notifikovanými osobami, inými prevádzkovateľmi, zákazníkmi alebo inými zainteresovanými stranami;
k)
los sistemas y procedimientos para llevar un registro de toda la documentación e información pertinente;
k)
systémy a postupy vedenia záznamov o všetkých príslušných dokumentoch a informáciách;
l)
la gestión de los recursos, incluidas medidas relacionadas con la seguridad del suministro;
l)
riadenie zdrojov vrátane opatrení týkajúcich sa bezpečnosti dodávok;
m)
un marco de rendición de cuentas que defina las responsabilidades del personal directivo y de otra índole en relación con todos los aspectos enumerados en este apartado.
m)
rámec zodpovednosti, v ktorom sa stanovia povinnosti manažmentu a ostatných zamestnancov, pokiaľ ide o všetky aspekty uvedené v tomto odseku.
2. La aplicación de los aspectos mencionados en el apartado 1 será proporcional al tamaño de la organización del proveedor. Los proveedores respetarán, en todo caso, el grado de rigor y el nivel de protección requerido para garantizar la conformidad de sus sistemas de IA de alto riesgo con el presente Reglamento.
2. Implementácia aspektov uvedených v odseku 1 musí byť primeraná veľkosti organizácie poskytovateľa. Poskytovatelia musia v každom prípade dodržiavať mieru prísnosti a úroveň ochrany, ktoré sa vyžadujú na zabezpečenie súladu ich vysokorizikových systémov AI s týmto nariadením.
3. Los proveedores de sistemas de IA de alto riesgo que estén sujetos a obligaciones relativas a los sistemas de gestión de la calidad o una función equivalente con arreglo al Derecho sectorial pertinente de la Unión podrán incluir los aspectos enumerados en el apartado 1 como parte de los sistemas de gestión de la calidad con arreglo a dicho Derecho.
3. Poskytovatelia vysokorizikových systémov AI, na ktorých sa vzťahujú povinnosti týkajúce sa systémov riadenia kvality alebo rovnocennej funkcie podľa príslušného odvetvového práva Únie, môžu zahŕňať aspekty uvedené v odseku 1 ako súčasť systémov riadenia kvality stanovených podľa uvedeného práva.
4. En el caso de los proveedores que sean entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros, se considerará que se ha cumplido la obligación de establecer un sistema de gestión de la calidad, salvo en relación con lo dispuesto en el apartado 1, letras g), h) e i), del presente artículo cuando se respeten las normas sobre los sistemas o procesos de gobernanza interna de acuerdo con el Derecho pertinente de la Unión en materia de servicios financieros. A tal fin, se tendrán en cuenta todas las normas armonizadas que se mencionan en el artículo 40.
4. V prípade poskytovateľov, ktorí sú finančnými inštitúciami, na ktoré sa vzťahujú požiadavky týkajúce sa ich vnútornej správy a riadenia, dojednaní alebo postupov podľa práva Únie v oblasti finančných služieb, sa povinnosť zaviesť systém riadenia kvality s výnimkou odseku 1 písm. g), h) a i) tohto článku považuje za splnenú dodržiavaním pravidiel týkajúcich sa vnútornej správy a riadenia, dojednaní alebo postupov podľa príslušného práva Únie v oblasti finančných služieb. Na tento účel sa zohľadnia všetky harmonizované normy uvedené v článku 40.
Representantes autorizados de los proveedores de sistemas de IA de alto riesgo
Splnomocnení zástupcovia poskytovateľov vysokorizikových systémov AI
1. Antes de comercializar sus sistemas de IA de alto riesgo en el mercado de la Unión, los proveedores establecidos en terceros países tendrán que nombrar, mediante un mandato escrito, a un representante autorizado que esté establecido en la Unión.
1. Poskytovatelia usadení v tretích krajinách pred sprístupnením svojich vysokorizikových systémov AI na trhu Únie písomným splnomocnením vymenujú splnomocneného zástupcu usadeného v Únii.
2. Los proveedores permitirán que su representante autorizado pueda efectuar las tareas especificadas en el mandato recibido del proveedor.
2. Poskytovateľ umožní svojmu splnomocnenému zástupcovi vykonávať úlohy uvedené v splnomocnení, ktoré mu udelil poskytovateľ.
3. Los representantes autorizados efectuarán las tareas especificadas en el mandato recibido del proveedor. Facilitarán a las autoridades de vigilancia del mercado, cuando lo soliciten, una copia del mandato en una de las lenguas oficiales de las instituciones de la Unión según lo indicado por la autoridad de competente. A los efectos del presente Reglamento, el mandato habilitará al representante autorizado para realizar las tareas siguientes:
3. Splnomocnený zástupca vykonáva úlohy uvedené v splnomocnení, ktoré mu udelil poskytovateľ. Na požiadanie poskytne orgánom dohľadu nad trhom kópiu splnomocnenia v jednom z úradných jazykov inštitúcií Únie, ktorý určí príslušný orgán. Na účely tohto nariadenia sa splnomocnený zástupca splnomocnením poveruje, aby vykonával tieto úlohy:
a)
verificar que se han elaborado la declaración UE de conformidad a que se refiere el artículo 47 y la documentación técnica a que se refiere el artículo 11 y que el proveedor ha llevado a cabo un procedimiento de evaluación de la conformidad adecuado;
a)
overiť, či sa vypracovalo EÚ vyhlásenie o zhode uvedené v článku 47 a technická dokumentácia uvedená v článku 11 a či poskytovateľ vykonal príslušný postup posudzovania zhody;
b)
conservar a disposición de las autoridades competentes y de las autoridades u organismos nacionales a que se refiere el artículo 74, apartado 10, durante un período de diez años a contar desde la introducción en el mercado o la puesta en servicio del sistema de IA de alto riesgo, los datos de contacto del proveedor que haya nombrado al representante autorizado, una copia de la declaración UE de conformidad a que se refiere el artículo 47, la documentación técnica y, en su caso, el certificado expedido por el organismo notificado;
b)
uchovávať pre príslušné orgány a vnútroštátne orgány alebo subjekty uvedené v článku 74 ods. 10 počas obdobia 10 rokov po uvedení vysokorizikového systému AI na trh alebo do prevádzky, kontaktné údaje poskytovateľa, ktorý splnomocneného zástupcu vymenoval, kópiu EÚ vyhlásenia o zhode uvedeného v článku 47, technickú dokumentáciu a v relevantnom prípade certifikát vydaný notifikovanou osobou;
c)
proporcionar a una autoridad competente, previa solicitud motivada, toda la información y la documentación, incluida la mencionada en el presente párrafo, letra b), que sean necesarias para demostrar la conformidad de un sistema de IA de alto riesgo con los requisitos establecidos en la sección 2, incluido el acceso a los archivos de registro a que se refiere el artículo 12, apartado 1, generados automáticamente por ese sistema, en la medida en que dichos archivos estén bajo el control del proveedor;
c)
poskytnúť príslušnému orgánu na základe odôvodnenej žiadosti všetky informácie a dokumentáciu vrátane dokumentácie uvedenej v písmene b) tohto pododseku potrebné na preukázanie súladu vysokorizikového systému AI s požiadavkami stanovenými v oddiele 2 vrátane prístupu k logom, ako sa uvádza v článku 12 ods. 1, automaticky generovaným vysokorizikovým systémom AI, pokiaľ sú tieto logy pod kontrolou poskytovateľa;
d)
cooperar con las autoridades competentes, previa solicitud motivada, en todas las acciones que estas emprendan en relación con el sistema de IA de alto riesgo, en particular para reducir y mitigar los riesgos que este presente;
d)
spolupracovať s príslušnými orgánmi na základe odôvodnenej žiadosti pri každom opatrení, ktoré takýto orgán prijme v súvislosti s vysokorizikovým systémom AI, najmä s cieľom znížiť a zmierniť riziká, ktoré vysokorizikový systém AI predstavuje;
e)
cuando proceda, cumplir las obligaciones de registro a que se refiere el artículo 49, apartado 1, o si el registro lo lleva a cabo el propio proveedor, garantizar que la información a que se refiere el anexo VIII, sección A, punto 3, es correcta.
e)
v relevantných prípadoch plniť registračné povinnosti uvedené v článku 49 ods. 1, alebo ak registráciu vykonáva sám poskytovateľ, zabezpečiť správnosť informácií uvedených v prílohe VIII oddiele A bode 3.
El mandato habilitará al representante autorizado para que las autoridades competentes se pongan en contacto con él, además de con el proveedor o en lugar de con el proveedor, con referencia a todas las cuestiones relacionadas con la garantía del cumplimiento del presente Reglamento.
Splnomocnením sa splnomocnený zástupca oprávňuje, aby sa okrem poskytovateľa alebo namiesto neho naň obracali príslušné orgány vo všetkých otázkach týkajúcich sa zabezpečenia súladu s týmto nariadením.
4. El representante autorizado pondrá fin al mandato si considera o tiene motivos para considerar que el proveedor contraviene las obligaciones que le atañen con arreglo al presente Reglamento. En tal caso, además, informará de inmediato de la terminación del mandato y de los motivos de esta medida a la autoridad de vigilancia del mercado pertinente, así como, cuando proceda, al organismo notificado pertinente.
4. Splnomocnený zástupca splnomocnenie vypovie, ak sa domnieva alebo má dôvod domnievať sa, že poskytovateľ koná v rozpore so svojimi povinnosťami podľa tohto nariadenia. V takom prípade bezodkladne informuje príslušný orgán dohľadu nad trhom a v relevantnom prípade aj príslušnú notifikovanú osobu o výpovedi splnomocnenia a jej dôvodoch.
Obligaciones de los importadores
1. Antes de introducir un sistema de IA de alto riesgo en el mercado, los importadores se asegurarán de que el sistema sea conforme con el presente Reglamento verificando que:
1. Pred uvedením vysokorizikového systému AI na trh jeho dovozcovia zabezpečia, aby bol tento systém v zhode s týmto nariadením, a to overením, že:
a)
el proveedor del sistema de IA de alto riesgo haya llevado a cabo el procedimiento de evaluación de la conformidad pertinente a que se refiere el artículo 43;
a)
poskytovateľ vysokorizikového systému AI vykonal príslušný postup posudzovania zhody uvedený v článku 43;
b)
el proveedor haya elaborado la documentación técnica de conformidad con el artículo 11 y el anexo IV;
b)
poskytovateľ vypracoval technickú dokumentáciu v súlade s článkom 11 a prílohou IV;
c)
el sistema lleve el marcado CE exigido y vaya acompañado de la declaración UE de conformidad a que se refiere el artículo 47 y de las instrucciones de uso;
c)
systém bol označený požadovaným označením CE a bolo k nemu priložené EÚ vyhlásenie o zhode uvedené v článku 47 a návod na použitie;
d)
el proveedor haya designado a un representante autorizado de conformidad con el artículo 22, apartado 1.
d)
poskytovateľ vymenoval splnomocneného zástupcu v súlade s článkom 22 ods. 1.
2. Si el importador tiene motivos suficientes para considerar que un sistema de IA de alto riesgo no es conforme con el presente Reglamento, ha sido falsificado o va acompañado de documentación falsificada, no lo introducirá en el mercado hasta que se haya conseguido la conformidad de dicho sistema. Si el sistema de IA de alto riesgo presenta un riesgo en el sentido del artículo 79, apartado 1, el importador informará de ello al proveedor del sistema, a los representantes autorizados y a las autoridades de vigilancia del mercado.
2. Ak má dovozca dostatočné dôvody domnievať sa, že vysokorizikový systém AI nie je v zhode s týmto nariadením, alebo je sfalšovaný, alebo že ho sprevádza sfalšovaná dokumentácia, neuvedie tento systém na trh, kým sa tento systém neuvedie do súladu. Ak vysokorizikový systém AI predstavuje riziko v zmysle článku 79 ods. 1, dovozca o tom informuje poskytovateľa tohto systému, splnomocneného zástupcu a orgány dohľadu nad trhom.
3. Los importadores indicarán, en el embalaje del sistema de IA de alto riesgo o en la documentación que lo acompañe, cuando proceda, su nombre, su nombre comercial registrado o marca registrada y su dirección de contacto.
3. Dovozcovia uvedú svoje meno, registrované obchodné meno alebo registrovanú ochrannú známku a adresu, na ktorej ich možno kontaktovať, na vysokorizikovom systéme AI, na obale tohto systému, alebo v relevantnom prípade v jeho sprievodnej dokumentácii.
4. Mientras sean responsables de un sistema de IA de alto riesgo, los importadores se asegurarán de que las condiciones de almacenamiento o transporte, cuando proceda, no comprometan el cumplimiento de los requisitos establecidos en la sección 2 por parte de dicho sistema.
4. Dovozcovia zabezpečia, aby v čase, keď nesú za vysokorizikový systém AI zodpovednosť, podmienky jeho uskladnenia alebo prepravy v relevantných prípadoch neohrozovali jeho súlad s požiadavkami stanovenými v oddiele 2.
5. Los importadores conservarán, durante un período de diez años a contar desde la introducción en el mercado o la puesta en servicio del sistema de IA de alto riesgo, una copia del certificado expedido por el organismo notificado, en su caso, de las instrucciones de uso y de la declaración UE de conformidad a que se refiere el artículo 47.
5. Dovozcovia uchovávajú kópiu prípadného certifikátu vydaného notifikovanou osobou, návodu na použitie a EÚ vyhlásenia o zhode uvedeného v článku 47 počas obdobia 10 rokov po uvedení vysokorizikového systému AI na trh alebo do prevádzky.
6. Los importadores proporcionarán a las autoridades competentes pertinentes, previa solicitud motivada, toda la información y la documentación, incluidas las referidas en el apartado 5, que sean necesarias para demostrar la conformidad de un sistema de IA de alto riesgo con los requisitos establecidos en la sección 2 en una lengua que estas puedan entender fácilmente. A tal efecto, velarán asimismo por que la documentación técnica pueda ponerse a disposición de esas autoridades.
6. Dovozcovia poskytnú relevantným príslušným orgánom na základe odôvodnenej žiadosti všetky potrebné informácie a dokumentáciu vrátane tej, ktorá je uvedená v odseku 5, na preukázanie zhody vysokorizikového systému AI s požiadavkami stanovenými v oddiele 2 v jazyku, ktorému tieto orgány bez problémov rozumejú. Na tento účel takisto zabezpečia, aby sa týmto orgánom mohla sprístupniť technická dokumentácia.
7. Los importadores cooperarán con las autoridades competentes pertinentes en cualquier medida que estas adopten en relación con un sistema de IA de alto riesgo introducido en el mercado por los importadores, en particular para reducir y mitigar los riesgos que este presente.
7. Dovozcovia spolupracujú s relevantnými príslušnými orgánmi pri každom opatrení, ktoré tieto orgány prijmú v súvislosti s vysokorizikovým systémom AI, ktorý dovozcovia uviedli na trh, najmä s cieľom znížiť a zmierniť riziká, ktoré takýto systém predstavuje.
Obligaciones de los distribuidores
1. Antes de comercializar un sistema de IA de alto riesgo, los distribuidores verificarán que este lleve el marcado CE exigido, que vaya acompañado de una copia de la declaración UE de conformidad a que se refiere el artículo 47 y de las instrucciones de uso, y que el proveedor y el importador de dicho sistema, según corresponda, hayan cumplido sus obligaciones establecidas en el artículo 16, letras b) y c), y el artículo 23, apartado 3, respectivamente.
1. Pred sprístupnením vysokorizikového systému AI na trhu distribútori overia, či je tento systém označený požadovaným označením CE, či je k nemu pripojená kópia EÚ vyhlásenia o zhode uvedeného v článku 47 a návod na použitie a či si poskytovateľ tohto systému splnil svoje povinnosti stanovené v článku 16 písm. b) a c) a dovozca tohto systému svoje povinnosti stanovené v článku 23 ods. 3.
2. Si un distribuidor considera o tiene motivos para considerar, con arreglo a la información en su poder, que un sistema de IA de alto riesgo no es conforme con los requisitos establecidos en la sección 2, no lo comercializará hasta que se haya conseguido esa conformidad. Además, si el sistema de IA de alto riesgo presenta un riesgo en el sentido del artículo 79, apartado 1, el distribuidor informará de ello al proveedor o importador del sistema, según corresponda.
2. Ak sa distribútor na základe informácií, ktoré má k dispozícii, domnieva alebo má dôvod domnievať sa, že vysokorizikový systém AI nie je v zhode s požiadavkami stanovenými v oddiele 2, tento vysokorizikový systém AI nesprístupní na trhu, kým sa tento systém neuvedie do súladu s uvedenými požiadavkami. Ak vysokorizikový systém AI navyše predstavuje riziko v zmysle článku 79 ods. 1, distribútor o tom informuje poskytovateľa alebo v relevantnom prípade dovozcu systému.
3. Mientras sean responsables de un sistema de IA de alto riesgo, los distribuidores se asegurarán de que las condiciones de almacenamiento o transporte, cuando proceda, no comprometen el cumplimiento por parte del sistema de los requisitos establecidos en la sección 2.
3. Distribútori zabezpečia, aby v čase, keď nesú za vysokorizikový systém AI zodpovednosť, podmienky jeho uskladnenia alebo prepravy v relevantných prípadoch neohrozovali súlad systému s požiadavkami stanovenými v oddiele 2.
4. Los distribuidores que consideren o tengan motivos para considerar, con arreglo a la información en su poder, que un sistema de IA de alto riesgo que han comercializado no es conforme con los requisitos establecidos en la sección 2 adoptarán las medidas correctoras necesarias para que sea conforme, para retirarlo del mercado o recuperarlo, o velarán por que el proveedor, el importador u otro operador pertinente, según proceda, adopte dichas medidas correctoras. Cuando un sistema de IA de alto riesgo presente un riesgo en el sentido del artículo 79, apartado 1, su distribuidor informará inmediatamente de ello al proveedor o al importador del sistema y a las autoridades competentes respecto al sistema de IA de alto riesgo de que se trate y dará detalles, en particular, sobre la no conformidad y las medidas correctoras adoptadas.
4. Distribútor, ktorý sa na základe informácií, ktoré má k dispozícii, domnieva alebo má dôvod domnievať sa, že vysokorizikový systém AI, ktorý sprístupnil na trhu, nie je v zhode s požiadavkami stanovenými v oddiele 2, prijme nápravné opatrenia potrebné na dosiahnutie zhody tohto systému s uvedenými požiadavkami, na jeho stiahnutie z trhu alebo stiahnutie od používateľa, alebo zabezpečí, aby uvedené nápravné opatrenia prijal poskytovateľ, dovozca alebo v relevantnom prípade akýkoľvek relevantný prevádzkovateľ. Ak vysokorizikový systém AI predstavuje riziko v zmysle článku 79 ods. 1, distribútor o tom bezodkladne informuje poskytovateľa alebo dovozcu systému a orgány príslušné pre dotknutý vysokorizikový systém AI, pričom uvedie podrobnosti najmä o nedodržaní požiadaviek a o všetkých prijatých nápravných opatreniach.
5. Previa solicitud motivada de una autoridad competente pertinente, los distribuidores de un sistema de IA de alto riesgo proporcionarán a esa autoridad toda la información y la documentación relativas a sus actuaciones con arreglo a los apartados 1 a 4 que sean necesarias para demostrar que dicho sistema cumple los requisitos establecidos en la sección 2.
5. Na základe odôvodnenej žiadosti relevantného príslušného orgánu distribútori vysokorizikového systému AI poskytnú tomuto orgánu všetky informácie a dokumentáciu o svojej činnosti podľa odsekov 1 až 4 potrebné na preukázanie zhody tohto systému s požiadavkami stanovenými v oddiele 2.
6. Los distribuidores cooperarán con las autoridades competentes pertinentes en cualquier medida que estas adopten en relación con un sistema de IA de alto riesgo comercializado por los distribuidores, en particular para reducir o mitigar los riesgos que este presente.
6. Distribútori spolupracujú s relevantnými príslušnými orgánmi pri každom opatrení, ktoré tieto orgány prijmú v súvislosti s vysokorizikovým systémom AI, ktorý distribútori sprístupnili na trhu, najmä s cieľom znížiť alebo zmierniť riziká, ktoré tento systém predstavuje.
Responsabilidades a lo largo de la cadena de valor de la IA
Povinnosti v celom hodnotovom reťazci AI
1. Cualquier distribuidor, importador, responsable del despliegue o tercero será considerado proveedor de un sistema de IA de alto riesgo a los efectos del presente Reglamento y estará sujeto a las obligaciones del proveedor previstas en el artículo 16 en cualquiera de las siguientes circunstancias:
1. Každý distribútor, dovozca, nasadzujúci subjekt alebo iná tretia strana sa na účely tohto nariadenia považuje za poskytovateľa vysokorizikového systému AI a vzťahujú sa na neho povinnosti poskytovateľa podľa článku 16 za ktorejkoľvek z týchto okolností:
a)
cuando ponga su nombre o marca en un sistema de IA de alto riesgo previamente introducido en el mercado o puesto en servicio, sin perjuicio de los acuerdos contractuales que estipulen que las obligaciones se asignan de otro modo;
a)
umiestnia svoje meno alebo ochrannú známku na vysokorizikový systém AI, ktorý už bol uvedený na trh alebo do prevádzky, bez toho, aby boli dotknuté zmluvné dojednania, v ktorých sa stanovuje, že povinnosti sú rozdelené inak;
b)
cuando modifique sustancialmente un sistema de IA de alto riesgo que ya haya sido introducido en el mercado o puesto en servicio de tal manera que siga siendo un sistema de IA de alto riesgo con arreglo al artículo 6;
b)
vykonajú podstatnú zmenu vysokorizikového systému AI, ktorý už bol uvedený na trh alebo už bol uvedený do prevádzky takým spôsobom, že zostáva vysokorizikovým systémom AI podľa článku 6;
c)
cuando modifique la finalidad prevista de un sistema de IA, incluido un sistema de IA de uso general, que no haya sido considerado de alto riesgo y ya haya sido introducido en el mercado o puesto en servicio, de tal manera que el sistema de IA de que se trate se convierta en un sistema de IA de alto riesgo de conformidad con el artículo 6.
c)
menia zamýšľaný účel systému AI vrátane systému AI na všeobecné účely, ktorý nebol klasifikovaný ako vysokorizikový a už bol uvedený na trh alebo do prevádzky takým spôsobom, že sa z dotknutého systému AI stane vysokorizikový systém AI v súlade s článkom 6.
2. Cuando se den las circunstancias mencionadas en el apartado 1, el proveedor que inicialmente haya introducido en el mercado el sistema de IA o lo haya puesto en servicio dejará de ser considerado proveedor de ese sistema de IA específico a efectos del presente Reglamento. Ese proveedor inicial cooperará estrechamente con los nuevos proveedores y facilitará la información necesaria, el acceso técnico u otra asistencia razonablemente previstos que sean necesarios para el cumplimiento de las obligaciones establecidas en el presente Reglamento, en particular en lo que respecta al cumplimiento de la evaluación de la conformidad de los sistemas de IA de alto riesgo. El presente apartado no se aplicará en los casos en que el proveedor inicial haya indicado claramente que su sistema de IA no debe ser transformado en un sistema de IA de alto riesgo y, por lo tanto, no está sujeto a la obligación de facilitar la documentación.
2. Ak nastanú okolnosti uvedené v odseku 1, poskytovateľ, ktorý pôvodne uviedol systém AI na trh alebo do prevádzky, sa už na účely tohto nariadenia nepovažuje za poskytovateľa tohto konkrétneho systému AI. Tento pôvodný poskytovateľ úzko spolupracuje s novými poskytovateľmi a sprístupňuje potrebné informácie a poskytuje odôvodnene očakávaný technický prístup a inú pomoc, ktoré sú potrebné na plnenie povinností stanovených v tomto nariadení, najmä pokiaľ ide o súlad s posudzovaním zhody vysokorizikových systémov AI. Tento odsek sa neuplatňuje v prípadoch, keď pôvodný poskytovateľ jasne uviedol, že jeho systém AI sa nemá zmeniť na vysokorizikový systém AI, a preto sa naň nevzťahuje povinnosť odovzdať dokumentáciu.
3. En el caso de los sistemas de IA de alto riesgo que sean componentes de seguridad de productos contemplados en los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, el fabricante del producto será considerado proveedor del sistema de IA de alto riesgo y estará sujeto a las obligaciones previstas en el artículo 16 en alguna de las siguientes circunstancias:
3. V prípade vysokorizikových systémov AI, ktoré sú bezpečnostnými komponentmi výrobkov, na ktoré sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I oddiele A, sa výrobca týchto výrobkov považuje za poskytovateľa vysokorizikového systému AI a podlieha povinnostiam podľa článku 16 za ktorejkoľvek z týchto okolností:
a)
que el sistema de IA de alto riesgo se introduzca en el mercado junto con el producto bajo el nombre o la marca del fabricante del producto;
a)
vysokorizikový systém AI sa uvádza na trh spolu s výrobkom pod menom alebo ochrannou známkou výrobcu výrobku;
b)
que el sistema de IA de alto riesgo se ponga en servicio bajo el nombre o la marca del fabricante del producto después de que el producto haya sido introducido en el mercado.
b)
vysokorizikový systém AI sa po uvedení výrobku na trh uvedie do prevádzky pod menom alebo ochrannou známkou výrobcu výrobku.
4. El proveedor de un sistema de IA de alto riesgo y el tercero que suministre un sistema de IA de alto riesgo, herramientas, servicios, componentes o procesos que se utilicen o integren en un sistema de IA de alto riesgo especificarán, mediante acuerdo escrito, la información, las capacidades, el acceso técnico y otra asistencia que sean necesarios, sobre la base del estado de la técnica generalmente reconocido, para que el proveedor del sistema de IA de alto riesgo pueda cumplir plenamente las obligaciones establecidas en el presente Reglamento. El presente apartado no se aplicará a terceros que pongan a disposición del público herramientas, servicios, procesos o componentes distintos de modelos de IA de uso general, en el marco de una licencia libre y de código abierto.
4. Poskytovateľ vysokorizikového systému AI a tretia strana, ktorá dodáva systém AI, nástroje, služby, komponenty alebo procesy AI, ktoré sa používajú alebo sú integrované vo vysokorizikovom systéme AI, prostredníctvom písomnej dohody spresnia potrebné informácie, spôsobilosti, technický prístup a inú pomoc na základe všeobecne uznávaného aktuálneho stavu vývoja, aby poskytovateľ vysokorizikového systému AI mohol v plnej miere plniť povinnosti stanovené v tomto nariadení. Tento odsek sa nevzťahuje na tretie strany, ktoré sprístupňujú verejnosti nástroje, služby, procesy alebo komponenty, ktoré nie sú modelmi AI na všeobecné účely, na základe bezplatnej licencie s otvoreným zdrojovým kódom.
La Oficina de IA podrá elaborar y recomendar cláusulas contractuales tipo, de carácter voluntario, entre los proveedores de sistemas de IA de alto riesgo y terceros que suministren herramientas, servicios, componentes o procesos que se utilicen o integren en los sistemas de IA de alto riesgo. Cuando elabore esas cláusulas contractuales tipo de carácter voluntario, la Oficina de IA tendrá en cuenta los posibles requisitos contractuales aplicables en determinados sectores o modelos de negocio. Las cláusulas contractuales tipo de carácter voluntario se publicarán y estarán disponibles gratuitamente en un formato electrónico fácilmente utilizable.
Úrad pre AI môže vypracovať a odporučiť nezáväzné vzorové podmienky zmlúv medzi poskytovateľmi vysokorizikových systémov AI a tretími stranami, ktoré dodávajú nástroje, služby, komponenty alebo procesy, ktoré sa používajú alebo sú integrované vo vysokorizikových systémoch AI. Úrad pre AI by mal pri vypracúvaní týchto nezáväzných vzorových podmienok zohľadniť možné zmluvné požiadavky uplatniteľné v konkrétnych odvetviach alebo obchodných prípadoch. Nezáväzné vzorové podmienky sa uverejnia a bezplatne sprístupnia v ľahko použiteľnom elektronickom formáte.
5. Los apartados 2 y 3 se entenderán sin perjuicio de la necesidad de observar y proteger los derechos de propiedad intelectual e industrial, la información empresarial confidencial y los secretos comerciales, de conformidad con el Derecho de la Unión y nacional.
5. Odsekmi 2 a 3 nie je dotknutá potreba dodržiavať a chrániť práva duševného vlastníctva, dôverné obchodné informácie a obchodné tajomstvo v súlade s právom Únie a vnútroštátnym právom.
Obligaciones de los responsables del despliegue de sistemas de IA de alto riesgo
Povinnosti subjektov nasadzujúcich vysokorizikové systémy AI
1. Los responsables del despliegue de sistemas de IA de alto riesgo adoptarán medidas técnicas y organizativas adecuadas para garantizar que utilizan dichos sistemas con arreglo a las instrucciones de uso que los acompañen, de acuerdo con los apartados 3 y 6.
1. Subjekty nasadzujúce vysokorizikové systémy AI prijmú vhodné technické a organizačné opatrenia s cieľom zabezpečiť, aby používali takéto systémy v súlade s návodom na použitie, ktorý je k nim priložený, a to podľa odsekov 3 a 6.
2. Los responsables del despliegue encomendarán la supervisión humana a personas físicas que tengan la competencia, la formación y la autoridad necesarias.
2. Nasadzujúce subjekty pridelia ľudský dohľad fyzickým osobám, ktoré majú potrebnú spôsobilosť, odbornú prípravu a právomoci, ako aj nevyhnutnú podporu.
3. Las obligaciones previstas en los apartados 1 y 2 no afectan a otras obligaciones que el Derecho nacional o de la Unión imponga a los responsables del despliegue ni a su libertad para organizar sus propios recursos y actividades con el fin de poner en práctica las medidas de supervisión humana que indique el proveedor.
3. Povinnosťami uvedenými v odsekoch 1 a 2 nie sú dotknuté iné povinnosti nasadzujúceho subjektu vyplývajúce z práva Únie alebo vnútroštátneho práva ani slobodné rozhodovanie nasadzujúceho subjektu pri organizovaní svojich vlastných zdrojov a činností na účely vykonávania opatrení na zabezpečenie ľudského dohľadu, ako ich uviedol poskytovateľ.
4. Sin perjuicio de lo dispuesto en los apartados 1 y 2, el responsable del despliegue se asegurará de que los datos de entrada sean pertinentes y suficientemente representativos en vista de la finalidad prevista del sistema de IA de alto riesgo, en la medida en que ejerza el control sobre dichos datos.
4. Bez toho, aby boli dotknuté odseky 1 a 2, a pokiaľ má nasadzujúci subjekt kontrolu nad vstupnými údajmi, tento nasadzujúci subjekt zabezpečí, aby vstupné údaje boli relevantné a dostatočne reprezentatívne z hľadiska zamýšľaného účelu vysokorizikového systému AI.
5. Los responsables del despliegue vigilarán el funcionamiento del sistema de IA de alto riesgo basándose en las instrucciones de uso y, cuando proceda, informarán a los proveedores con arreglo al artículo 72. Cuando los responsables del despliegue tengan motivos para considerar que utilizar el sistema de IA de alto riesgo conforme a sus instrucciones puede dar lugar a que ese sistema de AI presente un riesgo en el sentido del artículo 79, apartado 1, informarán, sin demora indebida, al proveedor o distribuidor y a la autoridad de vigilancia del mercado pertinente y suspenderán el uso de ese sistema. Cuando los responsables del despliegue detecten un incidente grave, informarán asimismo inmediatamente de dicho incidente, en primer lugar, al proveedor y, a continuación, al importador o distribuidor y a la autoridad de vigilancia del mercado pertinente. En el caso de que el responsable del despliegue no consiga contactar con el proveedor, el artículo 73 se aplicará mutatis mutandis. Esta obligación no comprenderá los datos operativos sensibles de los responsables del despliegue de sistemas de IA que sean autoridades garantes del cumplimiento del Derecho.
5. Nasadzujúce subjekty monitorujú prevádzku vysokorizikového systému AI na základe návodu na použitie, a ak je to relevantné, informujú poskytovateľov v súlade s článkom 72. Ak majú nasadzujúce subjekty dôvod domnievať sa, že používanie vysokorizikového systému AI v súlade s návodom môže viesť k tomu, že uvedený systém AI predstavuje riziko v zmysle článku 79 ods. 1, bez zbytočného odkladu informujú poskytovateľa alebo distribútora a relevantný orgán dohľadu nad trhom a používanie tohto systému pozastavia. Ak nasadzujúce subjekty zistia závažný incident, bezodkladne o tom najprv informujú poskytovateľa a potom dovozcu alebo distribútora a príslušné orgány dohľadu nad trhom. V prípade, že nasadzujúci subjekt nedokáže poskytovateľa kontaktovať, uplatňuje sa mutatis mutandis článok 73. Táto povinnosť sa nevzťahuje na citlivé operačné údaje subjektov nasadzujúcich systémy AI, ktoré sú orgánmi presadzovania práva.
En el caso de los responsables del despliegue que sean entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros, se considerará que se ha cumplido la obligación de vigilancia prevista en el párrafo primero cuando se respeten las normas sobre sistemas, procesos y mecanismos de gobernanza interna de acuerdo con el Derecho pertinente en materia de servicios financieros.
V prípade nasadzujúcich subjektov, ktoré sú finančnými inštitúciami, na ktoré sa vzťahujú požiadavky týkajúce sa ich vnútornej správy a riadenia, dojednaní alebo postupov podľa práva Únie v oblasti finančných služieb, sa monitorovacia povinnosť stanovená v prvom pododseku považuje za splnenú, ak sú dodržané pravidlá týkajúce sa vnútornej správy a riadenia, postupov a mechanizmov podľa príslušného práva v oblasti finančných služieb.
6. Los responsables del despliegue de sistemas de IA de alto riesgo conservarán los archivos de registro que los sistemas de IA de alto riesgo generen automáticamente en la medida en que dichos archivos estén bajo su control, durante un período de tiempo adecuado para la finalidad prevista del sistema de IA de alto riesgo, de al menos seis meses, salvo que se disponga otra cosa en el Derecho de la Unión o nacional aplicable, en particular en el Derecho de la Unión en materia de protección de datos personales.
6. Subjekty nasadzujúce vysokorizikové systémy AI uchovávajú logy automaticky generované týmto vysokorizikovým systémom AI, pokiaľ sú takéto logy pod ich kontrolou, počas obdobia primeraného zamýšľanému účelu vysokorizikového systému AI, a to najmenej šesť mesiacov, ak sa v uplatniteľnom práve Únie alebo vo vnútroštátnom práve, najmä v práve Únie o ochrane osobných údajov nestanovuje inak.
Los responsables del despliegue que sean entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros mantendrán los archivos de registro como parte de la documentación conservada en virtud del Derecho de la Unión en materia de servicios financieros.
Nasadzujúce subjekty, ktoré sú finančnými inštitúciami, a na ktoré sa vzťahujú požiadavky týkajúce sa ich vnútornej správy a riadenia, dojednaní alebo postupov podľa práva Únie v oblasti finančných služieb, uchovávajú logy ako súčasť dokumentácie uchovávanej v súlade s príslušným právom Únie v oblasti finančných služieb.
7. Antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo, los responsables del despliegue que sean empleadores informarán a los representantes de los trabajadores y a los trabajadores afectados de que estarán expuestos a la utilización del sistema de IA de alto riesgo. Esta información se facilitará, cuando proceda, con arreglo a las normas y procedimientos establecidos en el Derecho de la Unión y nacional y conforme a las prácticas en materia de información a los trabajadores y sus representantes.
7. Pred uvedením vysokorizikového systému AI do prevádzky alebo používaním na pracovisku nasadzujúce subjekty, ktoré sú zamestnávateľmi, informujú zástupcov pracovníkov a dotknutých pracovníkov o tom, že budú vystavení používaniu vysokorizikového systému AI. Tieto informácie sa v uplatniteľných prípadoch poskytujú v súlade s pravidlami a postupmi stanovenými v práve Únie a vo vnútroštátnom práve a praxi v oblasti informovania pracovníkov a ich zástupcov.
8. Los responsables del despliegue de sistemas de IA de alto riesgo que sean autoridades públicas o instituciones, órganos y organismos de la Unión cumplirán las obligaciones de registro a que se refiere el artículo 49. Cuando dichos responsables del despliegue constaten que el sistema de IA de alto riesgo que tienen previsto utilizar no ha sido registrado en la base de datos de la UE a que se refiere el artículo 71, no utilizarán dicho sistema e informarán al proveedor o al distribuidor.
8. Subjekty nasadzujúce vysokorizikové systémy AI, ktoré sú orgánmi verejnej moci alebo inštitúciami, orgánmi, úradmi alebo agentúrami Únie, plnia povinnosti týkajúce sa registrácie uvedené v článku 49. Ak nasadzujúce subjekty zistia, že vysokorizikový systém AI, ktorý plánujú používať, nebol zaregistrovaný v databáze Únie uvedenej v článku 71, nepoužívajú tento systém a informujú o tom poskytovateľa alebo distribútora.
9. Cuando proceda, los responsables del despliegue de sistemas de IA de alto riesgo utilizarán la información facilitada conforme al artículo 13 del presente Reglamento para cumplir la obligación de llevar a cabo una evaluación de impacto relativa a la protección de datos que les imponen el artículo 35 del Reglamento (UE) 2016/679 o el artículo 27 de la Directiva (UE) 2016/680.
9. Na splnenie svojej povinnosti vykonať posúdenie vplyvu na ochranu údajov podľa článku 35 nariadenia (EÚ) 2016/679 alebo článku 27 smernice (EÚ) 2016/680 subjekty nasadzujúce vysokorizikové systémy AI podľa okolností využijú informácie poskytnuté podľa článku 13 tohto nariadenia.
10. No obstante lo dispuesto en la Directiva (UE) 2016/680, en el marco de una investigación cuya finalidad sea la búsqueda selectiva de una persona sospechosa de haber cometido un delito o condenada por ello, el responsable del despliegue de un sistema de IA de alto riego de identificación biométrica remota en diferido solicitará, ex ante o sin demora indebida y a más tardar en un plazo de cuarenta y ocho horas, a una autoridad judicial o administrativa cuyas decisiones sean vinculantes y estén sujetas a revisión judicial, una autorización para utilizar ese sistema, salvo cuando se utilice para la identificación inicial de un posible sospechoso sobre la base de hechos objetivos y verificables vinculados directamente al delito. Cada utilización deberá limitarse a lo que resulte estrictamente necesario para investigar un delito concreto.
10. Bez toho, aby bola dotknutá smernica (EÚ) 2016/680, subjekt nasadzujúci vysokorizikový systém AI na účely následnej diaľkovej biometrickej identifikácie v rámci vyšetrovania v prípade cieleného pátrania po osobe podozrivej zo spáchania trestného činu alebo z tohto dôvodu odsúdenej požiada ex ante alebo bez zbytočného odkladu a najneskôr do 48 hodín o povolenie justičného orgánu alebo správneho orgánu, ktorého rozhodnutie je záväzné a podlieha súdnemu preskúmaniu, o použitie tohto systému, s výnimkou prípadov, keď sa systém používa na počiatočnú identifikáciu potenciálnej podozrivej osoby na základe objektívnych a overiteľných skutočností priamo súvisiacich s trestným činom. Každé použitie sa obmedzuje na to, čo je nevyhnutne potrebné na vyšetrovanie konkrétneho trestného činu.
En caso de que se deniegue la autorización contemplada en el párrafo primero, dejará de utilizarse el sistema de identificación biométrica remota en diferido objeto de la solicitud de autorización con efecto inmediato y se eliminarán los datos personales asociados al uso del sistema de IA de alto riesgo para el que se solicitó la autorización.
Ak sa povolenie požadované podľa prvého pododseku zamietne, používanie systému následnej diaľkovej biometrickej identifikácie súvisiace s týmto požadovaným povolením sa s okamžitou účinnosťou zastaví a osobné údaje súvisiace s používaním vysokorizikového systému AI, pre ktoré sa povolenie žiadalo, sa vymažú.
Dicho sistema de IA de alto riego de identificación biométrica remota en diferido no se utilizará en ningún caso a los efectos de la garantía del cumplimiento del Derecho de forma indiscriminada, sin que exista relación alguna con un delito, un proceso penal, una amenaza real y actual o real y previsible de delito, o con la búsqueda de una persona desaparecida concreta. Se velará por que las autoridades garantes del cumplimiento del Derecho no puedan adoptar ninguna decisión que produzca efectos jurídicos adversos para una persona exclusivamente sobre la base de los resultados de salida de dichos sistemas de identificación biométrica remota en diferido.
Takýto vysokorizikový systém AI na následnú diaľkovú biometrickú identifikáciu sa v žiadnom prípade nepoužíva na účely presadzovania práva necieleným spôsobom, bez akejkoľvek súvislosti s trestným činom, trestným konaním, skutočnou a existujúcou alebo skutočnou a predvídateľnou hrozbou trestného činu alebo pátraním po konkrétnej nezvestnej osobe. Zabezpečí sa, aby orgány presadzovania práva nemohli prijať žiadne rozhodnutie, ktoré má nepriaznivé právne účinky na danú osobu, a to výlučne na základe výstupu takýchto systémov následnej diaľkovej biometrickej identifikácie.
El presente apartado se entiende sin perjuicio del artículo 9 del Reglamento (UE) 2016/679 y del artículo 10 de la Directiva (UE) 2016/680 para el tratamiento de los datos biométricos.
Týmto odsekom nie je dotknutý článok 9 nariadenia (EÚ) 2016/679 a článok 10 smernice (EÚ) 2016/680 týkajúce sa spracúvania biometrických údajov.
Con independencia de la finalidad o del responsable del despliegue, se documentará toda utilización de tales sistemas de IA de alto riesgo en el expediente policial pertinente y se pondrá a disposición, previa solicitud, de la autoridad de vigilancia del mercado pertinente y de la autoridad nacional de protección de datos, quedando excluida la divulgación de datos operativos sensibles relacionados con la garantía del cumplimiento del Derecho. El presente párrafo se entenderá sin perjuicio de los poderes conferidas por la Directiva (UE) 2016/680 a las autoridades de control.
Bez ohľadu na účel alebo nasadzujúci subjekt sa každé použitie týchto vysokorizikových systémov AI zdokumentuje v príslušnom policajnom spise a na požiadanie sa sprístupní relevantnému orgánu dohľadu nad trhom a vnútroštátnemu orgánu pre ochranu údajov, s výnimkou zverejnenia citlivých operačných údajov týkajúcich sa presadzovania práva. Týmto pododsekom nie sú dotknuté právomoci, ktoré sa smernicou (EÚ) 2016/680 udeľujú orgánom dohľadu.
Los responsables del despliegue presentarán informes anuales a la autoridad de vigilancia del mercado pertinente y a la autoridad nacional de protección de datos sobre el uso que han hecho de los sistemas de identificación biométrica remota en diferido, quedando excluida la divulgación de datos operativos sensibles relacionados con la garantía del cumplimiento del Derecho. Los informes podrán agregarse de modo que cubran más de un despliegue.
Nasadzujúce subjekty predkladajú relevantným orgánom dohľadu nad trhom a vnútroštátnym orgánom pre ochranu údajov výročné správy o ich používaní systémov následnej diaľkovej biometrickej identifikácie s výnimkou zverejňovania citlivých operačných údajov týkajúcich sa presadzovania práva. Správy možno agregovať tak, aby zahŕňali viac ako len jedno nasadenie.
Los Estados miembros podrán adoptar, de conformidad con el Derecho de la Unión, leyes más restrictivas sobre el uso de sistemas de identificación biométrica remota en diferido.
Členské štáty môžu v súlade s právom Únie zaviesť prísnejšie právne predpisy pre používanie systémov následnej diaľkovej biometrickej identifikácie.
11. Sin perjuicio de lo dispuesto en el artículo 50 del presente Reglamento, los responsables del despliegue de los sistemas de IA de alto riesgo a que se refiere el anexo III que tomen decisiones o ayuden a tomar decisiones relacionadas con personas físicas informarán a las personas físicas de que están expuestas a la utilización de los sistemas de IA de alto riesgo. En el caso de los sistemas de IA de alto riesgo que se utilicen a los efectos de la garantía del cumplimiento del Derecho, se aplicará el artículo 13 de la Directiva (UE) 2016/680.
11. Bez toho, aby bol dotknutý článok 50 tohto nariadenia, subjekty nasadzujúce vysokorizikové systémy AI uvedené v prílohe III, ktoré prijímajú rozhodnutia alebo pomáhajú pri prijímaní rozhodnutí týkajúcich sa fyzických osôb, informujú tieto fyzické osoby o tom, že sa na ne vzťahuje používanie vysokorizikového systému AI. Na vysokorizikové systémy AI používané na účely presadzovania práva sa uplatňuje článok 13 smernice (EÚ) 2016/680.
12. Los responsables del despliegue cooperarán con las autoridades competentes pertinentes en cualquier medida que estas adopten en relación con el sistema de IA de alto riesgo con el objetivo de aplicar el presente Reglamento.
12. Nasadzujúce subjekty spolupracujú s relevantnými príslušnými orgánmi na každom opatrení, ktoré tieto orgány prijmú v súvislosti s vysokorizikovým systémom AI s cieľom vykonávať toto nariadenie.
Evaluación de impacto relativa a los derechos fundamentales para los sistemas de IA de alto riesgo
Posúdenie vplyvu na základné práva v prípade vysokorizikových systémov AI
1. Antes de desplegar uno de los sistemas de IA de alto riesgo a que se refiere el artículo 6, apartado 2, con excepción de los sistemas de IA de alto riesgo destinados a ser utilizados en el ámbito enumerado en el anexo III, punto 2, los responsables del despliegue que sean organismos de Derecho público, o entidades privadas que prestan servicios públicos, y los responsable del despliegue de sistemas de IA de alto riesgo a que se refiere el anexo III, punto 5, letras b) y c), llevarán a cabo una evaluación del impacto que la utilización de dichos sistemas puede tener en los derechos fundamentales. A tal fin, los responsables del despliegue llevarán a cabo una evaluación que consistirá en:
1. Pred nasadením vysokorizikového systému AI uvedeného v článku 6 ods. 2, s výnimkou vysokorizikových systémov AI určených na používanie v oblasti uvedenej v prílohe III bode 2, nasadzujúce subjekty, ktoré sú verejnoprávnymi orgánmi alebo súkromnými subjektmi poskytujúcimi verejné služby, a subjekty nasadzujúce vysokorizikové systémy AI uvedené v prílohe III bode 5 písm. b) a c) vykonajú posúdenie vplyvu na základné práva, ktorý môže mať použitie takéhoto systému. Na tento účel vykonajú nasadzujúce subjekty posúdenie, ktoré zahŕňa:
a)
una descripción de los procesos del responsable del despliegue en los que se utilizará el sistema de IA de alto riesgo en consonancia con su finalidad prevista;
a)
opis procesov nasadzujúceho subjektu, v ktorých sa bude vysokorizikový systém AI používať v súlade s jeho zamýšľaným účelom;
b)
una descripción del período de tiempo durante el cual se prevé utilizar cada sistema de IA de alto riesgo y la frecuencia con la que está previsto utilizarlo;
b)
opis časového úseku a frekvencie, v ktorých sa má každý vysokorizikový systém AI používať;
c)
las categorías de personas físicas y colectivos que puedan verse afectados por su utilización en el contexto específico;
c)
kategórie fyzických osôb a skupín, ktoré pravdepodobne budú ovplyvnené jeho používaním v konkrétnom kontexte;
d)
los riesgos de perjuicio específicos que puedan afectar a las categorías de personas físicas y colectivos determinadas con arreglo a la letra c) del presente apartado, teniendo en cuenta la información facilitada por el proveedor con arreglo al artículo 13;
d)
konkrétne riziká ujmy, ktoré pravdepodobne ovplyvnia kategórie fyzických osôb alebo skupín osôb identifikovaných podľa písmena c) tohto odseku s prihliadnutím na informácie od poskytovateľa podľa článku 13;
e)
una descripción de la aplicación de medidas de supervisión humana, de acuerdo con las instrucciones de uso;
e)
opis vykonávania opatrení v oblasti ľudského dohľadu podľa návodu na použitie;
f)
las medidas que deben adoptarse en caso de que dichos riesgos se materialicen, incluidos los acuerdos de gobernanza interna y los mecanismos de reclamación.
f)
opatrenia, ktoré sa majú prijať v prípade naplnenia týchto rizík, vrátane opatrení zameraných na vnútorné správu a riadenie a mechanizmy riešenia sťažností.
2. La obligación descrita con arreglo al apartado 1 se aplicará al primer uso del sistema de IA de alto riesgo. En casos similares, el responsable del despliegue podrá basarse en evaluaciones de impacto relativas a los derechos fundamentales realizadas previamente o a evaluaciones de impacto existentes realizadas por los proveedores. Si, durante el uso del sistema de IA de alto riesgo, el responsable del despliegue considera que alguno de los elementos enumerados en el apartado 1 ha cambiado o ha dejado de estar actualizado, adoptará las medidas necesarias para actualizar la información.
2. Povinnosť uvedená v odseku 1 sa vzťahuje na prvé použitie vysokorizikového systému AI. Nasadzujúci subjekt sa môže v podobných prípadoch odvolávať na predtým vykonané posúdenie vplyvu na základné práva alebo na existujúce posúdenie vplyvu, ktoré vykonal poskytovateľ. Ak sa počas používania vysokorizikového systému AI nasadzujúci subjekt domnieva, že sa ktorýkoľvek z prvkov uvedených v odseku 1 zmenil alebo už nie je aktuálny, podnikne kroky potrebné na aktualizáciu informácií.
3. Una vez realizada la evaluación a que se refiere el apartado 1 del presente artículo, el responsable del despliegue notificará sus resultados a la autoridad de vigilancia del mercado, presentando el modelo cumplimentado a que se refiere el apartado 5 del presente artículo. En el caso contemplado en el artículo 46, apartado 1, los responsables del despliegue podrán quedar exentos de esta obligación de notificación.
3. Po vykonaní posúdenia vplyvu uvedeného v odseku 1 tohto článku nasadzujúci subjekt notifikuje orgán dohľadu nad trhom o výsledkoch, pričom ako súčasť notifikácie predloží vyplnený vzor uvedený v odseku 5 tohto článku. V prípade uvedenom v článku 46 ods. 1 môžu byť nasadzujúce subjekty oslobodené od notifikačnej povinnosti.
4. Si ya se cumple cualquiera de las obligaciones establecidas en el presente artículo mediante la evaluación de impacto relativa a la protección de datos realizada con arreglo al artículo 35 del Reglamento (UE) 2016/679 o del artículo 27 de la Directiva (UE) 2016/680, la evaluación de impacto relativa a los derechos fundamentales a que se refiere el apartado 1 del presente artículo complementará dicha evaluación de impacto relativa a la protección de datos.
4. Ak je ktorákoľvek z povinností stanovených v tomto článku už splnená prostredníctvom posúdenia vplyvu na ochranu údajov vykonaného podľa článku 35 nariadenia (EÚ) 2016/679 alebo článku 27 smernice (EÚ) 2016/680, posúdenie vplyvu na základné práva uvedené v odseku 1 tohto článku doplní toto posúdenie vplyvu na ochranu údajov.
5. La Oficina de IA elaborará un modelo de cuestionario, también mediante una herramienta automatizada, a fin de facilitar que los responsables del despliegue cumplan sus obligaciones en virtud del presente artículo de manera simplificada.
5. Úrad pre AI vypracuje vzor dotazníka, a to aj prostredníctvom automatizovaného nástroja, s cieľom uľahčiť nasadzujúcim subjektom plnenie ich povinností podľa tohto článku zjednodušeným spôsobom.
1. Cada Estado miembro nombrará o constituirá al menos una autoridad notificante que será responsable de establecer y llevar a cabo los procedimientos necesarios para la evaluación, designación y notificación de los organismos de evaluación de la conformidad, así como de su supervisión. Dichos procedimientos se desarrollarán por medio de la cooperación entre las autoridades notificantes de todos los Estados miembros.
1. Každý členský štát určí alebo zriadi aspoň jeden notifikujúci orgán, ktorý je zodpovedný za stanovenie a vykonávanie potrebných postupov na hodnotenie, určovanie a notifikáciu orgánov posudzovania zhody a ich monitorovanie. Tieto postupy sa vypracujú v rámci spolupráce medzi notifikujúcimi orgánmi všetkých členských štátov.
2. Los Estados miembros podrán decidir que la evaluación y la supervisión contempladas en el apartado 1 sean realizadas por un organismo nacional de acreditación en el sentido del Reglamento (CE) n.o 765/2008 y con arreglo a este.
2. Členské štáty môžu rozhodnúť, že posudzovanie a monitorovanie uvedené v odseku 1 má vykonať vnútroštátny akreditačný orgán v zmysle nariadenia (ES) č. 765/2008 a v súlade s ním.
3. Las autoridades notificantes se constituirán, se organizarán y funcionarán de forma que no surjan conflictos de intereses con los organismos de evaluación de la conformidad y que se garantice la imparcialidad y objetividad de sus actividades.
3. Notifikujúce orgány sa zriaďujú, organizujú a prevádzkujú takým spôsobom, aby nevznikol konflikt záujmov s orgánmi posudzovania zhody a aby bola zaručená objektívnosť a nestrannosť ich činnosti.
4. Las autoridades notificantes se organizarán de forma que las decisiones relativas a la notificación de los organismos de evaluación de la conformidad sean adoptadas por personas competentes distintas de las que llevaron a cabo la evaluación de dichos organismos.
4. Notifikujúce orgány majú takú organizačnú štruktúru, aby rozhodnutia týkajúce sa notifikácie orgánov posudzovania zhody prijímali iné odborne spôsobilé osoby ako osoby, ktoré vykonali posudzovanie týchto orgánov.
5. Las autoridades notificantes no ofrecerán ni ejercerán ninguna actividad que efectúen los organismos de evaluación de la conformidad, ni ningún servicio de consultoría de carácter comercial o competitivo.
5. Notifikujúce orgány neponúkajú ani neposkytujú žiadne činnosti, ktoré vykonávajú orgány posudzovania zhody, ani žiadne poradenské služby na komerčnom alebo konkurenčnom základe.
6. Las autoridades notificantes preservarán la confidencialidad de la información obtenida, de conformidad con lo dispuesto en el artículo 78.
6. Notifikujúce orgány zabezpečia v súlade s článkom 78 dôvernosť informácií, ktoré získajú.
7. Las autoridades notificantes dispondrán de suficiente personal competente para efectuar adecuadamente sus tareas. Cuando proceda, el personal competente tendrá los conocimientos especializados necesarios para ejercer sus funciones, en ámbitos como las tecnologías de la información, la IA y el Derecho, incluida la supervisión de los derechos fundamentales.
7. Notifikujúce orgány musia mať na riadne vykonávanie svojich úloh k dispozícii primeraný počet odborne spôsobilých zamestnancov. Odborne spôsobilí zamestnanci musia mať v relevantných prípadoch na svoju funkciu potrebné odborné znalosti v oblastiach, ako sú informačné technológie, AI a právo vrátane dohľadu nad základnými právami.
Solicitud de notificación por parte de un organismo de evaluación de la conformidad
Žiadosť orgánu posudzovania zhody o notifikáciu
1. Los organismos de evaluación de la conformidad presentarán una solicitud de notificación ante la autoridad notificante del Estado miembro en el que estén establecidos.
1. Žiadosť o notifikáciu predkladajú orgány posudzovania zhody notifikujúcemu orgánu členského štátu, v ktorom sú usadené.
2. La solicitud de notificación irá acompañada de una descripción de las actividades de evaluación de la conformidad, del módulo o módulos de evaluación de la conformidad y los tipos de sistemas de IA en relación con los cuales el organismo de evaluación de la conformidad se considere competente, así como de un certificado de acreditación, si lo hay, expedido por un organismo nacional de acreditación, que declare que el organismo de evaluación de la conformidad cumple los requisitos establecidos en el artículo 31.
2. K žiadosti o notifikáciu sa prikladá opis činností posudzovania zhody, modulu alebo modulov posudzovania zhody a typov systémov AI, vo vzťahu ku ktorým orgán posudzovania zhody tvrdí, že je odborne spôsobilý, ako aj osvedčenie o akreditácii, ak existuje, vydané vnútroštátnym akreditačným orgánom, ktorým sa potvrdzuje, že orgán posudzovania zhody spĺňa požiadavky stanovené v článku 31.
Se añadirá cualquier documento válido relacionado con las designaciones existentes del organismo notificado solicitante en virtud de cualquier otro acto de la legislación de armonización de la Unión.
Priložia sa všetky platné dokumenty týkajúce sa existujúcich prípadov, v ktorých bola žiadajúca notifikovaná osoba určená podľa iných harmonizačných právnych predpisov Únie.
3. Si el organismo de evaluación de la conformidad de que se trate no puede facilitar un certificado de acreditación, entregará a la autoridad notificante todas las pruebas documentales necesarias para verificar, reconocer y supervisar periódicamente que cumple los requisitos establecidos en el artículo 31.
3. Ak dotknutý orgán posudzovania zhody nemôže poskytnúť osvedčenie o akreditácii, poskytne notifikujúcemu orgánu všetky písomné doklady, ktoré sú potrebné na overenie, uznanie a pravidelné monitorovanie plnenia požiadaviek stanovených v článku 31 z jeho strany.
4. En lo que respecta a los organismos notificados designados de conformidad con cualquier otro acto legislativo de armonización de la Unión, todos los documentos y certificados vinculados a dichas designaciones podrán utilizarse para apoyar su procedimiento de designación en virtud del presente Reglamento, según proceda. El organismo notificado actualizará la documentación a que se refieren los apartados 2 y 3 del presente artículo cuando se produzcan cambios pertinentes, para que la autoridad responsable de los organismos notificados pueda supervisar y verificar que se siguen cumpliendo todos los requisitos establecidos en el artículo 31.
4. V prípade notifikovaných osôb, ktoré boli určené podľa iných harmonizačných právnych predpisov Únie, sa ako podklady pre postup ich určenia podľa tohto nariadenia môžu podľa potreby použiť všetky dokumenty a osvedčenia súvisiace s týmito určeniami. Notifikovaná osoba aktualizuje dokumentáciu uvedenú v odsekoch 2 a 3 tohto článku vždy, keď dôjde k relevantným zmenám, aby orgán zodpovedný za notifikované osoby mohol monitorovať a overovať priebežné dodržiavanie všetkých požiadaviek stanovených v článku 31.
Procedimiento de notificación
1. Las autoridades notificantes solo podrán notificar organismos de evaluación de la conformidad que hayan cumplido los requisitos establecidos en el artículo 31.
1. Notifikujúce orgány môžu notifikovať iba orgány posudzovania zhody, ktoré splnili požiadavky stanovené v článku 31.
2. Las autoridades notificantes notificarán a la Comisión y a los demás Estados miembros, mediante el sistema de notificación electrónica desarrollado y gestionado por la Comisión, cada organismo de evaluación de la conformidad a que se refiere el apartado 1.
2. Notifikujúce orgány prostredníctvom elektronického notifikačného nástroja vyvinutého a spravovaného Komisiou oznamujú Komisii a ostatným členským štátom každý orgán posudzovania zhody uvedený v odseku 1.
3. La notificación a que se refiere el apartado 2 del presente artículo incluirá información detallada de las actividades de evaluación de la conformidad, el módulo o módulos de evaluación de la conformidad y los tipos de sistemas de IA afectados, así como la certificación de competencia pertinente. Si la notificación no está basada en el certificado de acreditación a que se refiere el artículo 29, apartado 2, la autoridad notificante facilitará a la Comisión y a los demás Estados miembros las pruebas documentales que demuestren la competencia del organismo de evaluación de la conformidad y las disposiciones existentes destinadas a garantizar que se supervisará periódicamente al organismo y que este continuará satisfaciendo los requisitos establecidos en el artículo 31.
3. Notifikácia uvedená v odseku 2 tohto článku obsahuje všetky podrobnosti o činnostiach posudzovania zhody, module alebo moduloch posudzovania zhody, typoch dotknutých systémov AI a príslušné potvrdenie odbornej spôsobilosti. Ak sa notifikácia nezakladá na osvedčení o akreditácii uvedenom v článku 29 ods. 2, notifikujúci orgán poskytne Komisii a ostatným členským štátom písomné doklady potvrdzujúce odbornú spôsobilosť orgánu posudzovania zhody a zavedené opatrenia s cieľom zabezpečiť, aby bol tento orgán pravidelne monitorovaný a naďalej spĺňal požiadavky stanovené v článku 31.
4. El organismo de evaluación de la conformidad de que se trate únicamente podrá realizar las actividades de un organismo notificado si la Comisión o los demás Estados miembros no formulan ninguna objeción en el plazo de dos semanas tras la notificación de una autoridad notificante cuando esta incluya el certificado de acreditación a que se refiere el artículo 29, apartado 2, o de dos meses tras la notificación de la autoridad notificante cuando esta incluya las pruebas documentales a que se refiere el artículo 29, apartado 3.
4. Dotknutý orgán posudzovania zhody môže vykonávať činnosti notifikovanej osoby len vtedy, ak Komisia ani ostatné členské štáty nevznesú námietky do dvoch týždňov od notifikácie notifikujúcim orgánom, ak táto notifikácia zahŕňa osvedčenie o akreditácii uvedené v článku 29 ods. 2, alebo do dvoch mesiacov od notifikácie notifikujúceho orgánu, ak táto notifikácia zahŕňa písomné doklady uvedené v článku 29 ods. 3.
5. Cuando se formulen objeciones, la Comisión iniciará sin demora consultas con los Estados miembros pertinentes y el organismo de evaluación de la conformidad. En vista de todo ello, la Comisión enviará su decisión al Estado miembro afectado y al organismo de evaluación de la conformidad pertinente.
5. V prípade vznesenia námietok Komisia bezodkladne začne konzultácie s dotknutými členskými štátmi a orgánom posudzovania zhody. Komisia so zreteľom na tieto konzultácie rozhodne, či je povolenie opodstatnené. Komisia svoje rozhodnutie oznámi dotknutému členskému štátu a príslušnému orgánu posudzovania zhody.
Requisitos relativos a los organismos notificados
Požiadavky týkajúce sa notifikovaných osôb
1. Los organismos notificados se establecerán de conformidad con el Derecho nacional de los Estados miembros y tendrán personalidad jurídica.
1. Notifikovaná osoba je zriadená podľa vnútroštátneho práva členského štátu a má právnu subjektivitu.
2. Los organismos notificados satisfarán los requisitos organizativos, de gestión de la calidad, recursos y procesos, necesarios para el desempeño de sus funciones, así como los requisitos adecuados en materia de ciberseguridad.
2. Notifikované osoby musia spĺňať požiadavky týkajúce sa organizácie, riadenia kvality, zdrojov a postupov, ktoré sú potrebné na plnenie ich úloh, ako aj náležité požiadavky na kybernetickú bezpečnosť.
3. La estructura organizativa, la distribución de las responsabilidades, la línea jerárquica y el funcionamiento de los organismos notificados ofrecerán confianza en su desempeño y en los resultados de las actividades de evaluación de la conformidad que realicen los organismos notificados.
3. Organizačná štruktúra, rozdelenie zodpovedností, hierarchické vzťahy a fungovanie notifikovaných osôb musia zabezpečiť dôveru v ich konanie a vo výsledky činností posudzovania zhody, ktoré notifikované osoby vykonávajú.
4. Los organismos notificados serán independientes del proveedor de un sistema de IA de alto riesgo en relación con el cual lleven a cabo actividades de evaluación de la conformidad. Los organismos notificados serán independientes de cualquier otro operador con un interés económico en los sistemas de IA de alto riesgo que se evalúen, así como de cualquier competidor del proveedor. Ello no será óbice para el uso de sistemas de IA de alto riesgo evaluados que sean necesarios para las actividades del organismo de evaluación de la conformidad o para el uso de tales sistemas de alto riesgo con fines personales.
4. Notifikované osoby musia byť nezávislé od poskytovateľa vysokorizikového systému AI, v súvislosti s ktorým vykonávajú činnosti posudzovania zhody. Notifikované osoby musia byť takisto nezávislé od akéhokoľvek iného prevádzkovateľa, ktorý má na posudzovaných vysokorizikových systémoch AI hospodársky záujem, ako aj od akýchkoľvek konkurentov poskytovateľa. Týmto sa nevylučuje používanie posudzovaných vysokorizikových systémov AI, ktoré sú potrebné na výkon činností orgánu posudzovania zhody, alebo používanie takýchto vysokorizikových systémov AI na osobné účely.
5. Los organismos de evaluación de la conformidad, sus máximos directivos y el personal responsable de la realización de las tareas de evaluación de la conformidad no intervendrán directamente en el diseño, el desarrollo, la comercialización o el uso de dichos sistemas de IA de alto riesgo, ni tampoco representarán a las partes que llevan a cabo estas actividades. Además, no efectuarán ninguna actividad que pudiera entrar en conflicto con su independencia de criterio o su integridad en relación con las actividades de evaluación de la conformidad para las que han sido notificados. Ello se aplicará especialmente a los servicios de consultoría.
5. Orgán posudzovania zhody, jeho vrcholový manažment ani zamestnanci zodpovední za vykonávanie jeho úloh posudzovania zhody nesmú byť priamo zapojení do dizajnovania, vývoja, uvádzania na trh alebo používania vysokorizikových systémov AI, ani nesmú zastupovať strany zapojené do týchto činností. Nesmú sa podieľať na žiadnej činnosti, ktorá by mohla ovplyvniť nezávislosť ich úsudku alebo bezúhonnosť vo vzťahu k činnostiam posudzovania zhody, na ktorých vykonávanie sú notifikované. Platí to najmä pre poradenské služby.
6. Los organismos notificados estarán organizados y gestionados de modo que se garantice la independencia, objetividad e imparcialidad de sus actividades. Los organismos notificados documentarán e implantarán una estructura y procedimientos que garanticen la imparcialidad y permitan promover y poner en práctica los principios de imparcialidad aplicables en toda su organización, a todo su personal y en todas sus actividades de evaluación.
6. Notifikované osoby musia mať takú organizačnú štruktúru a fungovať tak, aby sa zaručila nezávislosť, objektivita a nestrannosť ich činností. Notifikované osoby zdokumentujú a zavedú štruktúru a postupy, ktorými sa zaručí nestrannosť a ktorými sa presadzujú a uplatňujú zásady nestrannosti v celej ich organizačnej štruktúre, u všetkých zamestnancov a pri všetkých činnostiach posudzovania.
7. Los organismos notificados contarán con procedimientos documentados que garanticen que su personal, sus comités, sus filiales, sus subcontratistas y todos sus organismos asociados o personal de organismos externos mantengan, de conformidad con el artículo 78, la confidencialidad de la información que llegue a su poder en el desempeño de las actividades de evaluación de la conformidad, excepto en aquellos casos en que la ley exija su divulgación. El personal de los organismos notificados estará sujeto al secreto profesional en lo que respecta a toda la información obtenida en el ejercicio de las funciones que les hayan sido encomendadas en virtud del presente Reglamento, salvo en relación con las autoridades notificantes del Estado miembro en el que desarrollen sus actividades.
7. Notifikované osoby zavedú zdokumentované postupy, ktorými sa zabezpečí, aby ich zamestnanci, výbory, dcérske spoločnosti, subdodávatelia a akýkoľvek pridružený subjekt alebo zamestnanci externých subjektov zachovávali v súlade s článkom 78 dôvernosť informácií, ktoré získajú počas vykonávania činností posudzovania zhody, s výnimkou prípadov, keď sa zverejnenie týchto informácií vyžaduje podľa zákona. Zamestnanci notifikovaných osôb sú povinní zachovávať služobné tajomstvo vo vzťahu k všetkým informáciám, ktoré získali pri vykonávaní svojich úloh podľa tohto nariadenia; táto povinnosť sa neuplatňuje vo vzťahu k notifikujúcim orgánom členského štátu, v ktorom sa ich činnosti vykonávajú.
8. Los organismos notificados contarán con procedimientos para desempeñar sus actividades que tengan debidamente en cuenta el tamaño de los proveedores, el sector en que operan, su estructura y el grado de complejidad del sistema de IA de que se trate.
8. Na vykonávanie činností majú notifikované osoby postupy, pri ktorých sa náležite zohľadňuje veľkosť poskytovateľa, odvetvie, v ktorom podnik pôsobí, jeho štruktúra a stupeň zložitosti dotknutého systému AI
9. Los organismos notificados suscribirán un seguro de responsabilidad adecuado para sus actividades de evaluación de la conformidad, salvo que la responsabilidad la asuma el Estado miembro en que estén establecidos con arreglo al Derecho nacional o que el propio Estado miembro sea directamente responsable de la evaluación de la conformidad.
9. Notifikované osoby v súvislosti so svojimi činnosťami posudzovania zhody uzavrú primerané poistenie zodpovednosti, ak na seba v súlade s vnútroštátnym právom neprevzal zodpovednosť členský štát, v ktorom sú usadené, alebo ak za posudzovanie zhody nezodpovedá priamo tento samotný členský štát.
10. Los organismos notificados serán capaces de llevar a cabo todas sus tareas con arreglo al presente Reglamento con el máximo grado de integridad profesional y la competencia técnica necesaria en el ámbito específico, tanto si dichas tareas las efectúan los propios organismos notificados como si se realizan en su nombre y bajo su responsabilidad.
10. Všetky úlohy, ktoré im prináležia podľa tohto nariadenia, musia byť notifikované osoby spôsobilé vykonávať na najvyššej úrovni profesijnej bezúhonnosti a s náležitou odbornou spôsobilosťou v danej oblasti bez ohľadu na to, či tieto úlohy vykonávajú samotné notifikované osoby alebo sa vykonávajú v ich mene a na ich zodpovednosť.
11. Los organismos notificados contarán con competencias técnicas internas suficientes para poder evaluar de manera eficaz las tareas que lleven a cabo agentes externos en su nombre. El organismo notificado dispondrá permanentemente de suficiente personal administrativo, técnico, jurídico y científico que tenga experiencia y conocimientos relativos a los tipos de sistemas de IA, los datos y la computación de datos pertinentes y a los requisitos establecidos en la sección 2.
11. Notifikované osoby musia byť na internej úrovni dostatočne spôsobilé, aby boli schopné hodnotiť úlohy, ktoré v ich mene vykonávajú externé subjekty. Notifikovaná osoba musí mať trvale k dispozícii dostatočný počet administratívnych, technických, právnických a vedeckých pracovníkov, ktorí majú skúsenosti a vedomosti týkajúce sa relevantných typov systémov AI, údajov a výpočtov údajov, ako aj požiadaviek stanovených v oddiele 2.
12. Los organismos notificados participarán en las actividades de coordinación según lo previsto en el artículo 38. Asimismo, tomarán parte directamente o mediante representación en organizaciones europeas de normalización, o se asegurarán de mantenerse al corriente de la situación actualizada de las normas pertinentes.
12. Notifikované osoby sa zúčastňujú na koordinačných činnostiach uvedených v článku 38. Takisto sa priamo zúčastňujú na činnosti európskych normalizačných organizácií alebo sú v nich zastúpené, alebo zabezpečia, aby boli nepretržite informované o aktuálnom stave príslušných noriem.
Cambios en las notificaciones
1. La autoridad notificante notificará a la Comisión y a los demás Estados miembros cualquier cambio pertinente en la notificación de un organismo notificado a través del sistema de notificación electrónica a que se refiere el artículo 30, apartado 2.
1. Notifikujúci orgán oznamuje Komisii a ostatným členským štátom všetky relevantné zmeny týkajúce sa notifikácie notifikovanej osoby prostredníctvom elektronického nástroja notifikácie uvedeného v článku 30 ods. 2.
2. Los procedimientos establecidos en los artículos 29 y 30 se aplicarán a las ampliaciones del ámbito de aplicación de la notificación.
2. Postupy stanovené v článkoch 29 a 30 sa uplatňujú na rozširovanie rozsahu notifikácie.
Para modificaciones de la notificación distintas de las ampliaciones de su ámbito de aplicación, se aplicarán los procedimientos establecidos en los apartados 3 a 9.
V prípade iných zmien notifikácie, ako je rozšírenie jej rozsahu, sa uplatňujú postupy stanovené v odsekoch 3 až 9.
3. Cuando un organismo notificado decida poner fin a sus actividades de evaluación de la conformidad, informará de ello a la autoridad notificante y a los proveedores afectados tan pronto como sea posible y, cuando se trate de un cese planeado, al menos un año antes de poner fin a sus actividades. Los certificados del organismo notificado podrán seguir siendo válidos durante un plazo de nueve meses después del cese de las actividades del organismo notificado, siempre que otro organismo notificado haya confirmado por escrito que asumirá la responsabilidad de los sistemas de IA de alto riesgo cubiertos por dichos certificados. Este último organismo notificado realizará una evaluación completa de los sistemas de IA de alto riesgo afectados antes del vencimiento de ese plazo de nueve meses y antes de expedir nuevos certificados para esos sistemas. Si el organismo notificado ha puesto fin a sus actividades, la autoridad notificante retirará la designación.
3. Ak sa notifikovaná osoba rozhodne ukončiť svoje činnosti posudzovania zhody, čo najskôr to oznámi notifikujúcemu orgánu a dotknutým poskytovateľom a v prípade plánovaného ukončenia svojich činností aspoň jeden rok pred ich ukončením. Certifikáty notifikovanej osoby môžu zostať v platnosti na obdobie deviatich mesiacov po ukončení činností notifikovanej osoby pod podmienkou, že ďalšia notifikovaná osoba písomne potvrdí, že prevezme zodpovednosť za vysokorizikové systémy AI, na ktoré sa tieto certifikáty vzťahujú. Notifikovaná osoba, ktorá prevzala zodpovednosť za vysokorizikové systémy AI, dokončí úplné posúdenie dotknutých vysokorizikových systémov AI do konca uvedenej deväťmesačnej lehoty pred vydaním nového certifikátu pre tieto systémy. Ak notifikovaná osoba ukončila svoju činnosť, notifikujúci orgán určenie zruší.
4. Si una autoridad notificante tiene motivo suficiente para considerar que un organismo notificado ya no cumple los requisitos establecidos en el artículo 31 o no está cumpliendo sus obligaciones, la autoridad notificante investigará el asunto sin demora y con la máxima diligencia. En ese contexto, informará al organismo notificado de que se trate acerca de las objeciones formuladas y le ofrecerá la posibilidad de exponer sus puntos de vista. Si la autoridad notificante llega a la conclusión de que el organismo notificado ya no cumple los requisitos establecidos en el artículo 31 o no está cumpliendo sus obligaciones, dicha autoridad limitará, suspenderá o retirará la designación, según el caso, dependiendo de la gravedad del incumplimiento de dichos requisitos u obligaciones. Asimismo, informará de ello inmediatamente a la Comisión y a los demás Estados miembros.
4. Ak má notifikujúci orgán dostatočný dôvod domnievať sa, že notifikovaná osoba už nespĺňa požiadavky stanovené v článku 31 alebo že si neplní svoje povinnosti, notifikujúci orgán túto záležitosť bezodkladne čo najdôkladnejšie prešetrí. V tejto súvislosti informuje dotknutú notifikovanú osobu o vznesených námietkach a poskytne jej možnosť na vyjadrenie stanoviska. Ak notifikujúci orgán dospeje k záveru, že notifikovaná osoba už nespĺňa požiadavky stanovené v článku 31 alebo že si neplní svoje povinnosti, podľa potreby obmedzí, pozastaví alebo zruší určenie v závislosti od závažnosti neplnenia týchto požiadaviek alebo povinností. Okamžite o tom informuje Komisiu a ostatné členské štáty.
5. Cuando su designación haya sido suspendida, limitada o retirada total o parcialmente, el organismo notificado informará a los proveedores afectados a más en un plazo de diez días.
5. Ak je určenie notifikovanej osoby pozastavené, obmedzené alebo úplne či čiastočne zrušené, notifikovaná osoba o tom do 10 dní informuje dotknutých poskytovateľov.
6. En caso de la limitación, suspensión o retirada de una designación, la autoridad notificante adoptará las medidas oportunas para garantizar que los archivos del organismo notificado de que se trate se conserven, y para ponerlos a disposición de las autoridades notificantes de otros Estados miembros y de las autoridades de vigilancia del mercado, a petición de estas.
6. V prípade obmedzenia, pozastavenia alebo zrušenia určenia notifikujúci orgán prijme vhodné opatrenia, ktorými zabezpečí, aby sa dokumentácia príslušnej notifikovanej osoby uchovávala, a na požiadanie ju sprístupní notifikujúcim orgánom v iných členských štátoch a orgánom dohľadu nad trhom.
7. En caso de la limitación, suspensión o retirada de una designación, la autoridad notificante:
7. V prípade obmedzenia, pozastavenia alebo zrušenia určenia notifikujúci orgán:
a)
evaluará las repercusiones en los certificados expedidos por el organismo notificado;
a)
posudzuje vplyv na certifikáty vydané notifikovanou osobou;
b)
presentará a la Comisión y a los demás Estados miembros un informe con sus conclusiones en un plazo de tres meses a partir de la notificación de los cambios en la designación;
b)
predkladá Komisii a ostatným členským štátom správu o svojich zisteniach do troch mesiacov po oznámení zmien určenia;
c)
exigirá al organismo notificado que suspenda o retire, en un plazo razonable determinado por la autoridad, todo certificado indebidamente expedido, a fin de garantizar la conformidad continua de los sistemas de IA de alto riesgo en el mercado;
c)
požaduje od notifikovanej osoby, aby v primeranej lehote, ktorú tento orgán stanoví, pozastavila alebo stiahla všetky certifikáty, ktoré boli vydané neoprávnene, s cieľom zaistiť pokračujúcu zhodu vysokorizikových systémov AI na trhu;
d)
informará a la Comisión y a los Estados miembros de los certificados cuya suspensión o retirada haya exigido;
d)
informuje Komisiu a členské štáty o certifikátoch, ktorých pozastavenie alebo stiahnutie požaduje;
e)
facilitará a las autoridades nacionales competentes del Estado miembro en el que el proveedor tenga su domicilio social toda la información pertinente sobre los certificados cuya suspensión o retirada haya exigido; dicha autoridad tomará las medidas oportunas, cuando sea necesario, para evitar un riesgo para la salud, la seguridad o los derechos fundamentales.
e)
poskytne vnútroštátnym príslušným orgánom členského štátu, v ktorom má poskytovateľ registrované miesto podnikania, všetky relevantné informácie o certifikátoch, v prípade ktorých požiadal o pozastavenie alebo stiahnutie; ak je to potrebné na zabránenie potenciálnemu riziku pre zdravie, bezpečnosť alebo základné práva, uvedený orgán prijme primerané opatrenia.
8. Salvo en el caso de los certificados expedidos indebidamente, y cuando una designación haya sido suspendida o limitada, los certificados mantendrán su validez en una de las circunstancias siguientes:
8. S výnimkou certifikátov, ktoré boli vydané neoprávnene, a prípadov, keď bolo určenie pozastavené alebo obmedzené, zostávajú certifikáty platné za jednej z týchto okolností:
a)
cuando, en el plazo de un mes a partir de la suspensión o la limitación, la autoridad notificante haya confirmado que no existe riesgo alguno para la salud, la seguridad o los derechos fundamentales en relación con los certificados afectados por la suspensión o la limitación y haya fijado un calendario de acciones para subsanar la suspensión o la limitación, o
a)
notifikujúci orgán do jedného mesiaca od pozastavenia alebo obmedzenia potvrdil, že vo vzťahu k certifikátom, na ktoré sa pozastavenie alebo obmedzenie vzťahuje, neexistuje riziko pre zdravie, bezpečnosť ani základné práva, a navrhol harmonogram opatrení, ktoré povedú k zrušeniu pozastavenia alebo obmedzenia, alebo
b)
cuando la autoridad notificante haya confirmado que no se expedirán, modificarán ni volverán a expedir certificados relacionados con la suspensión mientras dure la suspensión o limitación, y declare si el organismo notificado tiene o no la capacidad, durante el período de la suspensión o limitación, de seguir supervisando los certificados expedidos y siendo responsable de ellos; cuando la autoridad notificante determine que el organismo notificado no tiene la capacidad de respaldar los certificados expedidos, el proveedor del sistema cubierto por el certificado deberá confirmar por escrito a las autoridades nacionales competentes del Estado miembro en que tenga su domicilio social, en un plazo de tres meses a partir de la suspensión o limitación, que otro organismo notificado cualificado va a asumir temporalmente las funciones del organismo notificado para supervisar los certificados y ser responsable de ellos durante el período de la suspensión o limitación.
b)
notifikujúci orgán potvrdil, že sa počas pozastavenia alebo obmedzenia nebudú vydávať, meniť ani opätovne vydávať žiadne certifikáty, a uvedie, či je notifikovaná osoba spôsobilá naďalej monitorovať existujúce certifikáty vydané na obdobie pozastavenia alebo obmedzenia a zodpovedať za ne; ak notifikujúci orgán zistí, že notifikovaná osoba nie je spôsobilá podporovať existujúce vydané certifikáty, poskytovateľ systému, na ktorý sa certifikát vzťahuje, písomne potvrdí vnútroštátnym príslušným orgánom členského štátu, v ktorom má registrované miesto podnikania, do troch mesiacov od pozastavenia alebo obmedzenia, že iná kvalifikovaná notifikovaná osoba dočasne preberá funkcie notifikovanej osoby v oblasti monitorovania certifikátov a zostáva za ne zodpovedná počas obdobia pozastavenia alebo obmedzenia.
9. Salvo en el caso de los certificados expedidos indebidamente, y cuando se haya retirado una designación, los certificados mantendrán su validez durante nueve meses en las circunstancias siguientes:
9. S výnimkou certifikátov, ktoré boli vydané neoprávnene, a zrušenia určenia zostávajú certifikáty platné počas obdobia deviatich mesiacov za týchto okolností:
a)
la autoridad nacional competente del Estado miembro en el que tiene su domicilio social el proveedor del sistema de IA de alto riesgo cubierto por el certificado ha confirmado que no existe ningún riesgo para la salud, la seguridad o los derechos fundamentales asociado al sistema de IA de alto riesgo de que se trate, y
a)
vnútroštátny príslušný orgán členského štátu, v ktorom má poskytovateľ vysokorizikového systému AI, na ktorý sa vzťahuje certifikát, registrované miesto podnikania, potvrdil, že v súvislosti s dotknutými vysokorizikovými systémami AI neexistuje žiadne riziko pre zdravie, bezpečnosť alebo základné práva, a
b)
otro organismo notificado ha confirmado por escrito que asumirá la responsabilidad inmediata de dichos sistemas de IA y completa su evaluación en el plazo de doce meses a partir de la retirada de la designación.
b)
iná notifikovaná osoba písomne potvrdila, že okamžite prevezme zodpovednosť za uvedené systémy AI a dokončí svoje posúdenie do 12 mesiacov od zrušenia určenia.
En las circunstancias a que se refiere el párrafo primero, la autoridad nacional competente del Estado miembro en el que tenga su domicilio social el proveedor del sistema cubierto por el certificado podrá prorrogar la validez provisional de los certificados por plazos adicionales de tres meses, sin exceder de doce meses en total.
Za okolností uvedených v prvom pododseku môže vnútroštátny príslušný orgán členského štátu, v ktorom má poskytovateľ systému, na ktorý sa certifikát vzťahuje, svoje miesto podnikania, predĺžiť obdobie prechodnej platnosti certifikátov na ďalšie obdobia troch mesiacov, ktoré celkovo neprekročia obdobie 12 mesiacov.
La autoridad nacional competente o el organismo notificado que asuman las funciones del organismo notificado afectado por el cambio de la designación informarán de ello inmediatamente a la Comisión, a los demás Estados miembros y a los demás organismos notificados.
Vnútroštátny príslušný orgán alebo notifikovaná osoba preberajúca úlohy notifikovanej osoby, ktorej sa týka zmena určenia, o tom bezodkladne informuje Komisiu, ostatné členské štáty a ostatné notifikované osoby.
Cuestionamiento de la competencia de los organismos notificados
Napadnutie odbornej spôsobilosti notifikovaných osôb
1. La Comisión investigará, cuando sea necesario, todos los casos en los que existan razones para dudar de la competencia de un organismo notificado o del cumplimiento continuo, por parte de un organismo notificado, de los requisitos establecidos en el artículo 31 y de sus responsabilidades aplicables.
1. Komisia v prípade potreby vyšetrí všetky prípady, v ktorých existujú dôvody pochybovať o odbornej spôsobilosti notifikovanej osoby alebo o pokračujúcom plnení požiadaviek stanovených v článku 31 a uplatniteľných povinností zo strany notifikovanej osoby.
2. La autoridad notificante facilitará a la Comisión, a petición de esta, toda la información pertinente relativa a la notificación o el mantenimiento de la competencia del organismo notificado de que se trate.
2. Notifikujúci orgán poskytne na požiadanie Komisii všetky relevantné informácie týkajúce sa notifikácie alebo zachovania odbornej spôsobilosti dotknutej notifikovanej osoby.
3. La Comisión garantizará el tratamiento confidencial de acuerdo con el artículo 78 de toda la información delicada recabada en el transcurso de sus investigaciones en virtud del presente artículo.
3. Komisia zabezpečí dôverné zaobchádzanie v súlade s článkom 78 so všetkými citlivými informáciami získanými počas svojich vyšetrovaní podľa tohto článku.
4. Cuando la Comisión determine que un organismo notificado no cumple o ha dejado de cumplir los requisitos para su notificación, informará al Estado miembro notificante en consecuencia y le solicitará que adopte las medidas correctoras necesarias, incluidas la suspensión o la retirada de la designación en caso necesario. Si el Estado miembro no adopta las medidas correctoras necesarias, la Comisión, mediante un acto de ejecución, podrá suspender, limitar o retirar la designación. Dicho acto de ejecución se adoptará con arreglo al procedimiento de examen contemplado en el artículo 98, apartado 2.
4. Keď Komisia zistí, že notifikovaná osoba nespĺňa alebo prestala spĺňať požiadavky na jej notifikáciu, informuje o tom notifikujúci členský štát a požiada ho, aby prijal potrebné nápravné opatrenia vrátane prípadného pozastavenia alebo zrušenia určenia. Ak daný členský štát neprijme potrebné nápravné opatrenia, Komisia môže prostredníctvom vykonávacieho aktu pozastaviť, obmedziť alebo zrušiť určenie. Uvedený vykonávací akt sa prijme v súlade s postupom preskúmania uvedeným v článku 98 ods. 2.
Normas armonizadas y documentos de normalización
Harmonizované normy a normalizačné produkty
1. Los sistemas de IA de alto riesgo o los modelos de IA de uso general que sean conformes con normas armonizadas, o partes de estas, cuyas referencias estén publicadas en el Diario Oficial de la Unión Europea de conformidad con el Reglamento (UE) n.o 1025/2012 se presumirá que son conformes con los requisitos establecidos en la sección 2 del presente capítulo o, en su caso, con las obligaciones establecidas en el capítulo V, secciones 2 y 3, del presente Reglamento, en la medida en que dichas normas contemplen estos requisitos u obligaciones.
1. Vysokorizikové systémy AI alebo modely AI na všeobecné účely, ktoré sú v zhode s harmonizovanými normami alebo ich časťami, na ktoré boli uverejnené odkazy v Úradnom vestníku Európskej únie v súlade s nariadením (EÚ) č. 1025/2012, sa považujú za systémy alebo modely, ktoré sú v zhode s požiadavkami stanovenými v oddiele 2 tejto kapitoly alebo, v relevantnom prípade, s povinnosťami stanovenými v oddieloch 2 a 3 kapitoly V tohto nariadenia, a to v rozsahu, v akom sa tieto normy vzťahujú na uvedené požiadavky alebo povinnosti.
2. De conformidad con el artículo 10 del Reglamento (UE) n.o 1025/2012, la Comisión formulará, sin demora indebida, peticiones de normalización que contemplen todos los requisitos establecidos en la sección 2 del presente capítulo y, según proceda, las peticiones de normalización que contemplen las obligaciones establecidas en el capítulo V, secciones 2 y 3, del presente Reglamento. La petición de normalización también incluirá la solicitud de documentos sobre los procesos de presentación de información y documentación a fin de mejorar el funcionamiento de los de los sistemas de IA desde el punto de vista de los recursos, como la reducción del consumo de energía y de otros recursos del sistema de IA de alto riesgo durante su ciclo de vida, así como sobre el desarrollo eficiente desde el punto de vista energético de los modelos de IA de uso general. Cuando prepare una petición de normalización, la Comisión consultará al Consejo de IA y a las partes interesadas pertinentes, incluido el foro consultivo.
2. Komisia v súlade s článkom 10 nariadenia (EÚ) č. 1025/2012 bez zbytočného odkladu vydá žiadosti o normalizáciu týkajúce sa všetkých požiadaviek stanovených v oddiele 2 tejto kapitoly a v relevantnom prípade žiadosti o normalizáciu týkajúce sa povinností stanovených v oddieloch 2 a 3 kapitoly V tohto nariadenia. V žiadosti o normalizáciu sa žiada aj o produkty týkajúce sa procesov podávania správ a dokumentácie s cieľom zlepšiť výkon systémov AI z hľadiska spotreby zdrojov, ako je zníženie spotreby energie a iných zdrojov vysokorizikového systému AI počas jeho životného cyklu, ako aj produkty týkajúce sa energeticky efektívneho vývoja modelov AI na všeobecné účely. Pri príprave žiadosti o normalizáciu Komisia konzultuje s radou pre AI a relevantnými zainteresovanými stranami vrátane poradného fóra.
Cuando dirija una petición de normalización a las organizaciones europeas de normalización, la Comisión especificará que las normas deben ser claras, coherentes —también con las normas elaboradas en diversos sectores para los productos regulados por los actos legislativos de armonización de la Unión vigentes enumerados en el anexo I— y destinadas a garantizar que los sistemas de IA de alto riesgo o los modelos de IA de uso general introducidos en el mercado o puestos en servicio en la Unión cumplan los requisitos u obligaciones pertinentes establecidos en el presente Reglamento.
Pri vydávaní žiadosti o normalizáciu určenej európskym normalizačným organizáciám Komisia špecifikuje, že normy musia byť jasné, konzistentné, a to aj s normami vypracovanými v rôznych odvetviach pre výrobky, na ktoré sa vzťahujú existujúce harmonizačné právne predpisy Únie uvedené v prílohe I, a s cieľom zabezpečiť, aby vysokorizikové systémy AI alebo modely AI na všeobecné účely uvedené na trh alebo do prevádzky v Únii spĺňali príslušné požiadavky alebo povinnosti stanovené v tomto nariadení.
La Comisión solicitará a las organizaciones europeas de normalización que aporten pruebas de que han hecho todo lo posible por cumplir los objetivos a que se refieren los párrafos primero y segundo del presente apartado, de conformidad con el artículo 24 del Reglamento (UE) n.o 1025/2012.
Komisia požiada európske normalizačné organizácie, aby poskytli dôkazy o svojom najlepšom úsilí pri plnení cieľov uvedených v prvom a druhom pododseku tohto odseku v súlade s článkom 24 nariadenia (EÚ) č. 1025/2012.
3. Los participantes en el proceso de normalización tratarán de promover la inversión y la innovación en IA, también incrementando la seguridad jurídica, así como la competitividad y el crecimiento del mercado de la Unión, de contribuir al refuerzo de la cooperación mundial en pro de la normalización, teniendo en cuenta las normas internacionales existentes en el ámbito de la IA que son coherentes con los valores, derechos fundamentales e intereses de la Unión, y de mejorar la gobernanza multilateral, garantizando una representación equilibrada de los intereses y la participación efectiva de todas las partes interesadas pertinentes de conformidad con los artículos 5, 6 y 7 del Reglamento (UE) n.o 1025/2012.
3. Účastníci procesu normalizácie sa snažia podporovať investície a inovácie v oblasti AI, okrem iného aj zvyšovaním právnej istoty, ako aj konkurencieschopnosť a rast trhu Únie, prispievať k posilňovaniu globálnej spolupráce v oblasti normalizácie, pričom zohľadňujú existujúce medzinárodné normy v oblasti AI, ktoré sú v súlade s hodnotami, základnými právami a záujmami Únie, a posilňovať správu a riadenie, ktoré vykonáva viacero zainteresovaných strán, čím sa zabezpečuje vyvážené zastúpenie záujmov a efektívna účasť všetkých relevantných zainteresovaných strán v súlade s článkami 5, 6 a 7 nariadenia (EÚ) č. 1025/2012.
1. La Comisión podrá adoptar actos de ejecución por los que se establezcan especificaciones comunes para los requisitos establecidos en la sección 2 del presente capítulo o, según corresponda, para las obligaciones establecidas en el capítulo V, secciones 2 y 3, siempre que se hayan cumplido las siguientes condiciones:
1. Komisia môže prijať vykonávacie akty, v ktorých stanoví spoločné špecifikácie pre požiadavky stanovené v oddiele 2 tejto kapitoly alebo v relevantnom prípade pre povinnosti stanovené v oddieloch 2 a 3 kapitoly V, ak sú splnené tieto podmienky:
a)
la Comisión ha solicitado, de conformidad con el artículo 10, apartado 1, del Reglamento (UE) n.o 1025/2012, a una o varias organizaciones europeas de normalización que elaboren una norma armonizada para los requisitos establecidos en la sección 2 del presente capítulo, o según corresponda, para las obligaciones establecidas en el capítulo V, secciones 2 y 3, y:
a)
Komisia podľa článku 10 ods. 1 nariadenia (EÚ) č. 1025/2012 požiadala jednu alebo viacero európskych normalizačných organizácií, aby vypracovali harmonizovanú normu pre požiadavky stanovené v oddiele 2 tejto kapitoly alebo v relevantnom prípade pre povinnosti stanovené v oddieloch 2 a 3 kapitoly V, a:
i)
la solicitud no ha sido aceptada por ninguna de las organizaciones europeas de normalización, o
i)
žiadosť neprijala ani jedna z európskych normalizačných organizácií, alebo
ii)
las normas armonizadas que responden a dicha solicitud no se han entregado en el plazo establecido de conformidad con el artículo 10, apartado 1, del Reglamento (UE) n.o 1025/2012, o
ii)
harmonizované normy na riešenie tejto žiadosti neboli doručené v lehote stanovenej v súlade s článkom 10 ods. 1 nariadenia (EÚ) č. 1025/2012, alebo
iii)
las normas armonizadas pertinentes responden de forma insuficiente a las preocupaciones en materia de derechos fundamentales, o
iii)
príslušné harmonizované normy nedostatočne riešia obavy týkajúce sa základných práv, alebo
iv)
las normas armonizadas no se ajustan a la solicitud, y
iv)
harmonizované normy nie sú v súlade so žiadosťou a
b)
no se ha publicado en el Diario Oficial de la Unión Europea ninguna referencia a normas armonizadas que regulen los requisitos establecidos en la sección 2 del presente capítulo, o según proceda, las obligaciones a que se refiere el capítulo V, secciones 2 y 3, de conformidad con el Reglamento (UE) n.o 1025/2012 y no se prevé la publicación de tal referencia en un plazo razonable.
b)
v Úradnom vestníku Európskej únie nie je v súlade s nariadením (EÚ) č. 1025/2012 uverejnený odkaz na harmonizované normy týkajúce sa požiadaviek stanovených v oddiele 2 tejto kapitoly alebo v relevantnom prípade povinností stanovených v oddieloch 2 a 3 kapitoly V a neočakáva sa, že v primeranej lehote bude takýto odkaz uverejnený.
Al elaborar las disposiciones comunes, la Comisión consultará al foro consultivo a que se refiere el artículo 67.
Komisia pri vypracúvaní spoločných špecifikácií vedie konzultácie s poradným fórom uvedeným v článku 67.
Los actos de ejecución a que se refiere el párrafo primero del presente apartado se adoptarán de conformidad con el procedimiento de examen contemplado en el artículo 98, apartado 2.
Vykonávacie akty uvedené v prvom pododseku tohto odseku sa prijmú v súlade s postupom preskúmania uvedeným v článku 98 ods. 2.
2. Antes de elaborar un proyecto de acto de ejecución, la Comisión informará al comité a que se refiere el artículo 22 del Reglamento (UE) n.o 1025/2012 de que considera que se cumplen las condiciones establecidas en el apartado 1 del presente artículo.
2. Pred vypracovaním návrhu vykonávacieho aktu Komisia informuje výbor uvedený v článku 22 nariadenia (EÚ) č. 1025/2012 o tom, že sa domnieva, že podmienky uvedené v odseku 1 tohto článku sú splnené.
3. Se presumirá que los sistemas de IA de alto riesgo o los modelos de IA de uso general que sean conformes con las especificaciones comunes a que se refiere el apartado 1, o partes de dichas especificaciones, son conformes con los requisitos establecidos en la sección 2 del presente capítulo o, según corresponda, para cumplir con las obligaciones a que se refiere el capítulo V, secciones 2 y 3, en la medida en que dichas especificaciones comunes contemplen esos requisitos o esas obligaciones.
3. Vysokorizikové systémy AI alebo modely AI na všeobecné účely, ktoré sú v zhode so spoločnými špecifikáciami uvedenými v odseku 1 alebo ich časťami, sa považujú za systémy alebo modely, ktoré sú v zhode s požiadavkami stanovenými v oddiele 2 tejto kapitoly, alebo ktoré v relevantnom prípade spĺňajú povinnosti stanovené v oddieloch 2 a 3 kapitoly V, a to v rozsahu, v akom sa uvedené spoločné špecifikácie vzťahujú na uvedené požiadavky alebo uvedené povinnosti.
4. Cuando una norma armonizada sea adoptada por una organización europea de normalización y propuesta a la Comisión con el fin de publicar su referencia en el Diario Oficial de la Unión Europea, la Comisión evaluará la norma armonizada de conformidad con el Reglamento (UE) n.o 1025/2012. Cuando la referencia a una norma armonizada se publique en el Diario Oficial de la Unión Europea, la Comisión derogará los actos de ejecución a que se refiere el apartado 1, o las partes de dichos actos que contemplen los mismos requisitos establecidos en la sección 2 del presente capítulo o, según corresponda, las mismas obligaciones establecidas en el capítulo V, secciones 2 y 3.
4. Ak európska normalizačná organizácia prijme harmonizovanú normu a navrhne Komisii, aby uverejnila odkaz na ňu v Úradnom vestníku Európskej únie, Komisia túto harmonizovanú normu posúdi v súlade s nariadením (EÚ) č. 1025/2012. Keď sa v Úradnom vestníku Európskej únie uverejní odkaz na harmonizovanú normu, Komisia zruší vykonávacie akty uvedené v odseku 1 alebo tie ich časti, ktoré sa vzťahujú na rovnaké požiadavky stanovené v oddiele 2 tejto kapitoly alebo v relevantnom prípade na rovnaké povinnosti stanovené v oddieloch 2 a 3 kapitoly V.
5. Cuando los proveedores de sistemas de IA de alto riesgo o los modelos de IA de uso general no cumplan las especificaciones comunes mencionadas en el apartado 1, justificarán debidamente que han adoptado soluciones técnicas que cumplan los requisitos a que se refiere la sección 2 del presente capítulo o, según corresponda, cumplan con las obligaciones establecidas en el capítulo V, secciones 2 y 3, en un nivel como mínimo equivalente a aquellos.
5. Ak poskytovatelia vysokorizikových systémov AI alebo modelov AI na všeobecné účely nedodržiavajú spoločné špecifikácie uvedené v odseku 1, riadne odôvodnia, že prijali technické riešenia, ktoré spĺňajú požiadavky uvedené v oddiele 2 tejto kapitoly alebo v relevantnom prípade spĺňajú povinnosti stanovené v oddieloch 2 a 3 kapitoly V aspoň na rovnakej úrovni.
6. Cuando un Estado miembro considere que una especificación común no cumple plenamente los requisitos establecidos en la sección 2, o, según corresponda, no cumple con las obligaciones establecidas en el capítulo V, secciones 2 y 3, informará de ello a la Comisión con una explicación detallada. La Comisión evaluará dicha información y, en su caso, modificará el acto de ejecución por el que se establece la especificación común de que se trate.
6. Ak sa členský štát domnieva, že spoločná špecifikácia nespĺňa úplne požiadavky stanovené v oddiele 2 alebo v relevantnom prípade povinnosti stanovené v oddieloch 2 a 3 kapitoly V, informuje o tom Komisiu s podrobným vysvetlením. Komisia posúdi tieto informácie a v prípade potreby zmení vykonávací akt, ktorým sa stanovuje dotknutá spoločná špecifikácia.
Evaluación de la conformidad
1. En el caso de los sistemas de IA de alto riesgo enumerados en el anexo III, punto 1, cuando, al demostrar el cumplimiento de los requisitos establecidos en la sección 2 por parte de un sistema de IA de alto riesgo, el proveedor haya aplicado las normas armonizadas a que se refiere el artículo 40, o bien, en su caso, las especificaciones comunes a que se refiere el artículo 41, el proveedor optará por uno de los procedimientos de evaluación de la conformidad siguientes:
1. Ak poskytovateľ pri preukazovaní súladu vysokorizikového systému AI uvedeného v prílohe III bode 1 s požiadavkami stanovenými v oddiele 2 uplatnil harmonizované normy uvedené v článku 40, alebo v relevantnom prípade spoločné špecifikácie uvedené v článku 41, rozhodne sa pre jeden z týchto postupov posudzovania zhody založený na:
a)
el fundamentado en el control interno, mencionado en el anexo VI, o
a)
vnútornej kontrole uvedenej v prílohe VI, alebo
b)
el fundamentado en la evaluación del sistema de gestión de la calidad y la evaluación de la documentación técnica, con la participación de un organismo notificado, mencionado en el anexo VII.
b)
posudzovaní systému riadenia kvality a posudzovaní technickej dokumentácie so zapojením notifikovanej osoby podľa prílohy VII.
Al demostrar el cumplimiento de los requisitos establecidos en la sección 2 por parte de un sistema de IA de alto riesgo, el proveedor se atendrá al procedimiento de evaluación de la conformidad establecido en el anexo VII cuando:
Pri preukazovaní súladu vysokorizikového systému AI s požiadavkami stanovenými v oddiele 2 poskytovateľ dodržiava postup posudzovania zhody stanovený v prílohe VII, ak:
a)
las normas armonizadas a que se refiere el artículo 40 no existan, y no se disponga de las especificaciones comunes a que se refiere el artículo 41;
a)
harmonizované normy uvedené v článku 40 neexistujú a spoločné špecifikácie uvedené v článku 41 nie sú k dispozícii;
b)
el proveedor no haya aplicado la norma armonizada, o solo haya aplicado parte de esta;
b)
poskytovateľ harmonizovanú normu neuplatnil alebo ju uplatnil len čiastočne;
c)
existan las especificaciones comunes a que se refiere la letra a), pero el proveedor no las haya aplicado;
c)
spoločné špecifikácie uvedené v písmene a) existujú, ale poskytovateľ ich neuplatnil;
d)
una o varias de las normas armonizadas a que se refiere la letra a) se hayan publicado con una limitación, y únicamente en la parte de la norma objeto de la limitación.
d)
jedna alebo viaceré harmonizované normy uvedené v písmene a) boli uverejnené s obmedzením a len pre tú časť normy, ktorá bola obmedzená.
A efectos del procedimiento de evaluación de la conformidad mencionado en el anexo VII, el proveedor podrá escoger cualquiera de los organismos notificados. No obstante, cuando se prevea la puesta en servicio del sistema de IA de alto riesgo por parte de las autoridades garantes del cumplimiento del Derecho, las autoridades de inmigración o las autoridades de asilo, o por las instituciones, órganos u organismos de la Unión, la autoridad de vigilancia del mercado mencionada en el artículo 74, apartado 8 o 9, según proceda, actuará como organismo notificado.
Na účely postupu posudzovania zhody uvedeného v prílohe VII si poskytovateľ môže vybrať ktorúkoľvek z notifikovaných osôb. Ak však majú vysokorizikový systém AI uviesť do prevádzky orgány presadzovania práva, imigračné alebo azylové orgány, alebo inštitúcie, orgány, úrady alebo agentúry Únie, ako notifikovaná osoba koná orgán dohľadu nad trhom uvedený v článku 74 ods. 8 alebo 9.
2. En el caso de los sistemas de IA de alto riesgo mencionados en el anexo III, puntos 2 a 8, los proveedores se atendrán al procedimiento de evaluación de la conformidad fundamentado en un control interno a que se refiere el anexo VI, que no contempla la participación de un organismo notificado.
2. V prípade vysokorizikových systémov AI uvedených v prílohe III bodoch 2 až 8 poskytovatelia dodržiavajú postup posudzovania zhody na základe vnútornej kontroly uvedený v prílohe VI, v ktorom sa nestanovuje zapojenie notifikovanej osoby.
3. En el caso de los sistemas de IA de alto riesgo regulados por los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, el proveedor se atendrá al procedimiento de evaluación de la conformidad pertinente exigida por dichos actos legislativos. Los requisitos establecidos en la sección 2 del presente capítulo se aplicarán a dichos sistemas de IA de alto riesgo y formarán parte de dicha evaluación. Asimismo, se aplicarán los puntos 4.3, 4.4 y 4.5 del anexo VII, así como el punto 4.6, párrafo quinto, de dicho anexo.
3. V prípade vysokorizikových systémov AI, na ktoré sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I oddiele A, poskytovateľ dodržiava príslušný postup posudzovania zhody, ako sa vyžaduje v uvedených právnych aktoch. Na uvedené vysokorizikové systémy AI sa vzťahujú požiadavky stanovené v oddiele 2 tejto kapitoly a sú súčasťou tohto posúdenia. Uplatňuje sa aj príloha VII body 4.3, 4.4, 4.5 a bod 4.6 piaty odsek.
A efectos de dicha evaluación, los organismos notificados que hayan sido notificados con arreglo a dichos actos legislativos dispondrán de la facultad de controlar la conformidad de los sistemas de IA de alto riesgo con los requisitos establecidos en la sección 2, a condición de que se haya evaluado el cumplimiento por parte de dichos organismos notificados de los requisitos establecidos en el artículo 31, apartados 4, 5, 10 y 11, en el contexto del procedimiento de notificación con arreglo a dichos actos legislativos.
Na účely uvedeného posúdenia sú notifikované osoby, ktoré boli notifikované podľa uvedených právnych aktov, oprávnené kontrolovať súlad vysokorizikových systémov AI s požiadavkami stanovenými v oddiele 2 za predpokladu, že v rámci postupu notifikácie podľa uvedených právnych aktov sa posúdil súlad týchto notifikovaných osôb s požiadavkami stanovenými v článku 31 ods. 4, 5, 10 a 11.
Cuando un acto legislativo enumerado en el anexo I, sección A, permita al fabricante del producto prescindir de una evaluación de la conformidad de terceros, a condición de que el fabricante haya aplicado todas las normas armonizadas que contemplan todos los requisitos pertinentes, dicho fabricante solamente podrá recurrir a esta opción si también ha aplicado las normas armonizadas o, en su caso, las especificaciones comunes a que se refiere el artículo 41 que contemplan todos los requisitos establecidos en la sección 2 del presente capítulo.
Ak právny akt uvedený v prílohe I oddiele A umožňuje výrobcovi výrobku neuplatňovať posudzovanie zhody treťou stranou za predpokladu, že uplatnil všetky harmonizované normy vzťahujúce sa na všetky príslušné požiadavky, môže tento výrobca využiť túto možnosť len vtedy, ak uplatnil aj harmonizované normy alebo v relevantnom prípade spoločné špecifikácie uvedené v článku 41, ktoré sa vzťahujú na všetky požiadavky stanovené v oddiele 2 tejto kapitoly.
4. Los sistemas de IA de alto riesgo que ya hayan sido objeto de un procedimiento de evaluación de la conformidad se someterán a un nuevo procedimiento de evaluación de la conformidad en caso de modificación sustancial, con independencia de si está prevista una distribución posterior del sistema modificado o de si este continúa siendo utilizado por el responsable del despliegue actual.
4. V prípade, že dôjde k podstatnej zmene vysokorizikových systémov AI, ktoré už prešli postupom posudzovania zhody, podrobia sa novému postupu posudzovania zhody, a to bez ohľadu na to, či je zmenený systém určený na ďalšiu distribúciu alebo či ho ďalej používa súčasný nasadzujúci subjekt.
En el caso de los sistemas de IA de alto riesgo que continúen aprendiendo tras su introducción en el mercado o su puesta en servicio, los cambios en el sistema de IA de alto riesgo y su funcionamiento que hayan sido predeterminados por el proveedor en el momento de la evaluación inicial de la conformidad y figuren en la información recogida en la documentación técnica mencionada en el anexo IV, punto 2, letra f), no constituirán modificaciones sustanciales.
V prípade vysokorizikových systémov AI, ktoré sa po uvedení na trh alebo do prevádzky ďalej učia, nepredstavujú podstatnú zmenu tie zmeny vysokorizikového systému AI a jeho výkonnosti, ktoré poskytovateľ určil vopred v čase počiatočného posudzovania zhody a ktoré sú zahrnuté v informáciách obsiahnutých v technickej dokumentácii uvedenej v prílohe IV bode 2 písm. f).
5. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar los anexos VI y VII actualizándolos a la luz del progreso técnico.
5. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 na účely zmeny príloh VI a VII ich aktualizáciou vzhľadom na technický pokrok.
6. La Comisión estará facultada para adoptar actos delegados de conformidad con el artículo 97 al objeto de modificar los apartados 1 y 2 del presente artículo a fin de someter a los sistemas de IA de alto riesgo mencionados en el anexo III, puntos 2 a 8, al procedimiento de evaluación de la conformidad a que se refiere el anexo VII o a partes de este. La Comisión adoptará dichos actos delegados teniendo en cuenta la eficacia del procedimiento de evaluación de la conformidad fundamentado en un control interno mencionado en el anexo VI para prevenir o reducir al mínimo los riesgos para la salud, la seguridad y la protección de los derechos fundamentales que plantean estos sistemas, así como la disponibilidad de capacidades y recursos adecuados por parte de los organismos notificados.
6. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 na účely zmeny odsekov 1 a 2 tohto článku s cieľom podrobiť vysokorizikové systémy AI uvedené v prílohe III bodoch 2 až 8 postupu posudzovania zhody uvedenému v prílohe VII alebo jeho častiam. Pri prijímaní takýchto delegovaných aktov Komisia zohľadní účinnosť postupu posudzovania zhody na základe vnútornej kontroly uvedeného v prílohe VI pri predchádzaní alebo minimalizácii rizík pre zdravie, bezpečnosť a ochranu základných práv, ktoré takéto systémy predstavujú, ako aj dostupnosť primeraných kapacít a zdrojov notifikovaných osôb.
1. Los certificados expedidos por los organismos notificados con arreglo al anexo VII se redactarán en una lengua que las autoridades pertinentes del Estado miembro en el que esté establecido el organismo notificado puedan entender fácilmente.
1. Certifikáty vydané notifikovanými osobami v súlade s prílohou VII sa vyhotovujú v jazyku, ktorému príslušné orgány v členskom štáte, v ktorom je notifikovaná osoba usadená, bez problémov rozumejú.
2. Los certificados serán válidos para el período que indiquen, que no excederá de cinco años para los sistemas de IA contemplados en el anexo I, y cuatro años para los sistemas de IA contemplados en el anexo III. A solicitud del proveedor, la validez de un certificado podrá prorrogarse por períodos adicionales no superiores a cinco años para los sistemas de IA contemplados en el anexo I, y cuatro años para los sistemas de IA contemplados en el anexo III, sobre la base de una nueva evaluación con arreglo a los procedimientos de evaluación de la conformidad aplicables. Todo suplemento de un certificado mantendrá su validez a condición de que el certificado al que complementa sea válido.
2. Certifikáty platia na obdobie, ktoré sa v nich uvádza a ktoré nepresiahne päť rokov v prípade systémov AI, na ktoré sa vzťahuje príloha I, a obdobie štyroch rokov v prípade systémov AI, na ktoré sa vzťahuje príloha III. Na žiadosť poskytovateľa možno platnosť certifikátu predĺžiť na ďalšie obdobia, z ktorých žiadne nepresiahne päť rokov v prípade systémov AI, na ktoré sa vzťahuje príloha I, a štyri roky v prípade systémov AI, na ktoré sa vzťahuje príloha III, a to na základe opätovného posúdenia v súlade s uplatniteľnými postupmi posudzovania zhody. Akýkoľvek dodatok k certifikátu zostáva v platnosti, kým sa neskončí platnosť certifikátu, ktorý dopĺňa.
3. Si un organismo notificado observa que un sistema de IA ya no cumple los requisitos establecidos en la sección 2, suspenderá o retirará, teniendo en cuenta el principio de proporcionalidad, el certificado expedido o le impondrá restricciones, a menos que se garantice el cumplimiento de dichos requisitos mediante medidas correctoras adecuadas adoptadas por el proveedor del sistema en un plazo adecuado determinado por el organismo notificado. El organismo notificado motivará su decisión.
3. Ak notifikovaná osoba zistí, že systém AI prestal spĺňať požiadavky stanovené v oddiele 2, pozastaví so zreteľom na zásadu primeranosti platnosť vydaného certifikátu alebo ho stiahne, alebo jeho platnosť obmedzí, pokiaľ sa v primeranej lehote stanovenej notifikovanou osobou vhodnými nápravnými opatreniami prijatými poskytovateľom systému nezabezpečí súlad s týmito požiadavkami. Notifikovaná osoba svoje rozhodnutie odôvodní.
Existirá un procedimiento de recurso frente a las decisiones de los organismos notificados, también respecto a los certificados de conformidad expedidos.
Proti rozhodnutiam notifikovaných osôb možno podať odvolanie, a to aj vo veci vydaných certifikátov zhody.
Exención del procedimiento de evaluación de la conformidad
Výnimka z postupu posudzovania zhody
1. Como excepción a lo dispuesto en el artículo 43 y previa solicitud debidamente motivada, cualquier autoridad de vigilancia del mercado podrá autorizar la introducción en el mercado o la puesta en servicio de sistemas de IA de alto riesgo específicos en el territorio del Estado miembro de que se trate por motivos excepcionales de seguridad pública o con el fin de proteger la vida y la salud de las personas, el medio ambiente o activos fundamentales de la industria y de las infraestructuras. Dicha autorización se concederá por un período limitado, mientras se lleven a cabo los procedimientos de evaluación de la conformidad necesarios, teniendo en cuenta los motivos excepcionales que justifiquen la exención. La conclusión de los procedimientos de que se trate se alcanzará sin demora indebida.
1. Odchylne od článku 43 a na základe riadne odôvodnenej žiadosti môže každý orgán dohľadu nad trhom z výnimočných dôvodov verejnej bezpečnosti alebo ochrany života a zdravia osôb, ochrany životného prostredia a ochrany kľúčových priemyselných a infraštruktúrnych aktív povoliť uvedenie konkrétnych vysokorizikových systémov AI na trh alebo do prevádzky na území dotknutého členského štátu. Toto povolenie sa udelí na obmedzené obdobie, kým sa vykonávajú potrebné postupy posudzovania zhody, pričom sa zohľadnia výnimočné dôvody odôvodňujúce výnimku. Uvedené postupy sa dokončia bez zbytočného odkladu.
2. En una situación de urgencia debidamente justificada por motivos excepcionales de seguridad pública o en caso de amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas, las autoridades garantes del cumplimiento del Derecho o las autoridades de protección civil podrán poner en servicio un sistema de IA de alto riesgo específico sin la autorización a que se refiere el apartado 1, siempre que se solicite dicha autorización durante o después de la utilización sin demora indebida. Si se deniega la autorización a que se refiere el apartado 1, se suspenderá el uso del sistema de IA de alto riesgo con efecto inmediato y se desecharán inmediatamente todos los resultados y toda la información de salida producidos por dicho uso.
2. V riadne odôvodnenej naliehavej situácii z výnimočných dôvodov verejnej bezpečnosti alebo v prípade konkrétneho, závažného a bezprostredného ohrozenia života alebo fyzickej bezpečnosti fyzických osôb môžu orgány presadzovania práva alebo orgány civilnej ochrany uviesť do prevádzky konkrétny vysokorizikový systém AI bez povolenia uvedeného v odseku 1 za predpokladu, že o takéto povolenie sa bez zbytočného odkladu požiada počas jeho používania alebo po ňom. Ak sa povolenie uvedené v odseku 1 zamietne, používanie vysokorizikového systému AI sa s okamžitou účinnosťou zastaví a všetky výsledky a výstupy takéhoto používania sa okamžite zlikvidujú.
3. La autorización a que se refiere el apartado 1 solo se expedirá si la autoridad de vigilancia del mercado llega a la conclusión de que el sistema de IA de alto riesgo cumple los requisitos establecidos en la sección 2. La autoridad de vigilancia del mercado informará a la Comisión y a los demás Estados miembros de toda autorización expedida de conformidad con los apartados 1 y 2. Esta obligación no comprenderá los datos operativos sensibles relativos a las actividades de las autoridades garantes del cumplimiento del Derecho.
3. Povolenie uvedené v odseku 1 sa vydá len vtedy, ak orgán dohľadu nad trhom dospeje k záveru, že vysokorizikový systém AI spĺňa požiadavky oddielu 2. O každom povolení vydanom podľa odsekov 1 a 2 informuje orgán dohľadu nad trhom Komisiu a ostatné členské štáty. Táto povinnosť sa nevzťahuje na citlivé operačné údaje týkajúce sa činností orgánov presadzovania práva.
4. Si, en el plazo de quince días naturales tras la recepción de la información indicada en el apartado 3, ningún Estado miembro ni la Comisión presentan objeción alguna sobre una autorización expedida por una autoridad de vigilancia del mercado de un Estado miembro con arreglo al apartado 1, la autorización se considerará justificada.
4. Ak žiaden členský štát ani Komisia do 15 kalendárnych dní od doručenia informácií uvedených v odseku 3 nevznesú námietku proti povoleniu vydanému orgánom dohľadu na trhom členského štátu v súlade s odsekom 1, toto povolenie sa považuje za opodstatnené.
5. Si, en el plazo de quince días naturales tras la recepción de la notificación a que se refiere el apartado 3, un Estado miembro formula objeciones contra una autorización expedida por una autoridad de vigilancia del mercado de otro Estado miembro, o si la Comisión considera que la autorización vulnera el Derecho de la Unión o que la conclusión de los Estados miembros relativa al cumplimiento del sistema a que se refiere el apartado 3 es infundada, la Comisión celebrará consultas con el Estado miembro pertinente sin demora. Se consultará a los operadores de que se trate y se les ofrecerá la posibilidad de exponer sus puntos de vista. En vista de todo ello, la Comisión decidirá si la autorización está justificada o no. La Comisión enviará su decisión al Estado miembro afectado y a los operadores pertinentes.
5. Ak do 15 kalendárnych dní od doručenia oznámenia uvedeného v odseku 3 členský štát vznesie námietky proti povoleniu, ktoré vydal orgán dohľadu nad trhom iného členského štátu, alebo ak sa Komisia domnieva, že povolenie je v rozpore s právom Únie alebo že záver členských štátov, pokiaľ ide o súlad systému uvedeného v odseku 3, je neopodstatnený, Komisia začne bezodkladne konzultácie s príslušným členským štátom. S dotknutými prevádzkovateľmi sa vedú konzultácie a majú možnosť vyjadriť svoje stanovisko. So zreteľom na to Komisia rozhodne, či je povolenie opodstatnené. Komisia svoje rozhodnutie oznámi dotknutému členskému štátu a príslušným prevádzkovateľom.
6. Si la Comisión considera que la autorización no está justificada, la autoridad de vigilancia del mercado del Estado miembro de que se trate la retirará.
6. Ak Komisia považuje povolenie za neopodstatnené, orgán dohľadu nad trhom dotknutého členského štátu ho stiahne.
7. En el caso de los sistemas de IA de alto riesgo asociados a productos regulados por los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, solo se aplicarán las exenciones de la evaluación de la conformidad establecidas en dichos actos legislativos de armonización de la Unión.
7. V prípade vysokorizikových systémov AI súvisiacich s výrobkami, na ktoré sa vzťahujú harmonizačné právne predpisy Únie uvedené v prílohe I oddiele A, sa uplatňujú len výnimky z posudzovania zhody stanovené v uvedených harmonizačných právnych predpisoch Únie.
Declaración UE de conformidad
1. El proveedor redactará una declaración UE de conformidad por escrito en un formato legible por máquina, con firma electrónica o manuscrita, para cada sistema de IA de alto riesgo y la mantendrá a disposición de las autoridades nacionales competentes durante un período de diez años a contar desde la introducción del sistema de IA de alto riesgo en el mercado o su puesta en servicio. En la declaración UE de conformidad se especificará el sistema de IA de alto riesgo para el que ha sido redactada. Se entregará una copia de la declaración UE de conformidad a las autoridades nacionales competentes pertinentes que lo soliciten.
1. Pre každý vysokorizikový systém AI vyhotoví poskytovateľ písomné, strojovo čitateľné, fyzicky alebo elektronicky podpísané EÚ vyhlásenie o zhode, ktoré počas 10 rokov po uvedení vysokorizikového systému AI na trh alebo do prevádzky uchováva k dispozícii pre vnútroštátne príslušné orgány. V EÚ vyhlásení o zhode sa uvádza vysokorizikový systém AI, pre ktorý bolo vyhotovené. Na požiadanie sa kópia EÚ vyhlásenia o zhode predloží relevantným vnútroštátnym príslušným orgánom.
2. En la declaración UE de conformidad constará que el sistema de IA de alto riesgo de que se trate cumple los requisitos establecidos en la sección 2. La declaración UE de conformidad contendrá la información indicada en el anexo V y se traducirá a una lengua que puedan entender fácilmente las autoridades nacionales competentes del Estado o Estados miembros en que se introduzca en el mercado o comercialice el sistema de IA de alto riesgo.
2. V EÚ vyhlásení o zhode sa uvedie, že dotknutý vysokorizikový systém AI spĺňa požiadavky stanovené v oddiele 2. EÚ vyhlásenie o zhode obsahuje informácie uvedené v prílohe V a preloží sa do jazyka, ktorému vnútroštátne príslušné orgány členských štátov, v ktorých sa vysokorizikový systém AI uvádza na trh alebo sprístupňuje, bez problémov rozumejú.
3. Cuando los sistemas de IA de alto riesgo estén sujetos a otros actos legislativos de armonización de la Unión que también exijan una declaración UE de conformidad, se elaborará una única declaración UE de conformidad con respecto a todos el Derecho de la Unión aplicable al sistema de IA de alto riesgo. La declaración contendrá toda la información necesaria para determinar los actos legislativos de armonización de la Unión a los que se refiere la declaración.
3. Ak sa na vysokorizikové systémy AI vzťahujú ďalšie harmonizačné právne predpisy Únie, v ktorých sa takisto vyžaduje EÚ vyhlásenie o zhode, vyhotoví sa vo vzťahu k všetkým právnym predpisom Únie uplatniteľným na daný vysokorizikový systém AI jedno EÚ vyhlásenie o zhode. Toto vyhlásenie obsahuje všetky informácie potrebné na to, aby bolo možné identifikovať harmonizačné právne predpisy Únie, na ktoré sa vyhlásenie vzťahuje.
4. Al elaborar la declaración UE de conformidad, el proveedor asumirá la responsabilidad del cumplimiento de los requisitos establecidos en la sección 2. El proveedor mantendrá actualizada la declaración UE de conformidad según proceda.
4. Vypracovaním EÚ vyhlásenia o zhode preberá poskytovateľ zodpovednosť za splnenie požiadaviek stanovených v oddiele 2. Poskytovateľ podľa potreby EÚ vyhlásenie o zhode aktualizuje.
5. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar el anexo V actualizando el contenido de la declaración UE de conformidad establecida en dicho anexo, con el fin de introducir elementos que resulten necesarios a la luz del progreso técnico.
5. Komisia je splnomocnená prijímať delegované akty v súlade s článkom 97 na účely zmeny prílohy V aktualizovaním obsahu EÚ vyhlásenia o zhode stanoveného v uvedenej prílohe s cieľom zaviesť prvky, ktorých potreba vznikne vzhľadom na technický pokrok.
1. El marcado CE estará sujeto a los principios generales establecidos en el artículo 30 del Reglamento (CE) n.o 765/2008.
1. Označenie CE sa riadi všeobecnými zásadami stanovenými v článku 30 nariadenia (ES) č. 765/2008.
2. En el caso de los sistemas de IA de alto riesgo que se proporcionan digitalmente, se utilizará un marcado CE digital, únicamente si es fácilmente accesible a través de la interfaz desde la que se accede a dicho sistema o mediante un código fácilmente accesible legible por máquina u otros medios electrónicos.
2. V prípade digitálne poskytovaných vysokorizikových systémov AI sa digitálne označenie CE používa len vtedy, ak je k nemu možný jednoduchý prístup prostredníctvom rozhrania, z ktorého je prístup k tomuto systému, alebo prostredníctvom ľahko dostupného strojovo čitateľného kódu alebo iných elektronických prostriedkov.
3. El marcado CE se colocará de manera visible, legible e indeleble en los sistemas de IA de alto riesgo. Cuando esto no sea posible o no pueda garantizarse debido a la naturaleza del sistema de IA de alto riesgo, se colocará en el embalaje o en los documentos adjuntos, según proceda.
3. Označenie CE sa v prípade vysokorizikových systémov AI umiestni viditeľne, čitateľne a neodstrániteľne. Ak to nie je možné alebo odôvodnené z hľadiska povahy vysokorizikového systému AI, označenie CE sa umiestni na obale alebo v relevantnom prípade na sprievodnej dokumentácii.
4. En su caso, el marcado CE irá seguido del número de identificación del organismo notificado responsable de los procedimientos de evaluación de la conformidad establecidos en el artículo 43. El número de identificación del organismo notificado lo colocará él mismo o, siguiendo sus instrucciones, el proveedor o el representante autorizado del proveedor. El número de identificación figurará también en todo el material publicitario en el que se mencione que el sistema de IA de alto riesgo cumple los requisitos de marcado CE.
4. V relevantných prípadoch za označením CE nasleduje identifikačné číslo notifikovanej osoby zodpovednej za postupy posudzovania zhody stanovené v článku 43. Identifikačné číslo notifikovanej osoby umiestňuje samotná osoba alebo na základe jej pokynov poskytovateľ alebo jeho splnomocnený zástupca. Identifikačné číslo sa uvedie aj v akomkoľvek propagačnom materiáli, v ktorom sa nachádza informácia, že vysokorizikový systém AI spĺňa požiadavky na označenie CE.
5. Cuando los sistemas de IA de alto riesgo estén sujetos a otras disposiciones del Derecho de la Unión que también requieran la colocación del marcado CE, este indicará que los sistemas de IA de alto riesgo también cumplen los requisitos de esas otras disposiciones.
5. Ak vysokorizikové systémy AI podliehajú iným právnym predpisom Únie, v ktorých sa takisto vyžaduje umiestňovanie označenia CE, v označení CE sa uvedie, že vysokorizikové systémy AI spĺňajú aj požiadavky uvedených iných právnych predpisov.
1. Antes de introducir en el mercado o de poner en servicio un sistema de IA de alto riesgo enumerado en el anexo III, con excepción de los sistemas de IA de alto riesgo mencionados en el anexo III, punto 2, el proveedor o, en su caso, el representante autorizado, registrarán su sistema y a ellos mismos en la base de datos de la UE a que se refiere el artículo 71.
1. Pred tým, ako sa na trh alebo do prevádzky uvedie vysokorizikový systém AI uvedený v prílohe III s výnimkou vysokorizikových systémov AI uvedených v prílohe III bode 2, poskytovateľ alebo v relevantnom prípade jeho splnomocnený zástupca sa zaregistruje v databáze Únie uvedenej v článku 71 a zaregistruje aj daný systém.
2. Antes de introducir en el mercado o poner en servicio un sistema de IA sobre el que el proveedor haya llegado a la conclusión de que no es de alto riesgo de conformidad con el artículo 6, apartado 3, dicho proveedor o, en su caso, el representante autorizado, registrarán ese sistema y a ellos mismos en la base de datos de la UE a que se refiere el artículo 71.
2. Pred tým, ako sa na trh alebo do prevádzky uvedie systém AI, pri ktorom poskytovateľ dospel podľa článku 6 ods. 3 k záveru, že nie je vysokorizikový, tento poskytovateľ alebo v relevantnom prípade jeho splnomocnený zástupca sa zaregistruje v databáze Únie uvedenej v článku 71 a zaregistruje aj daný systém.
3. Antes de poner en servicio o utilizar un sistema de IA de alto riesgo enumerado en el anexo III, con excepción de los sistemas de IA de alto riesgo mencionados en el anexo III, punto 2, los responsables del despliegue de sistemas de IA de alto riesgo que sean autoridades públicas, instituciones, órganos u organismos de la Unión, o personas que actúen en su nombre, se registrarán, seleccionarán el sistema y registrarán su utilización en la base de datos de la UE a que se refiere el artículo 71.
3. Pred uvedením do prevádzky alebo pred začatím používania vysokorizikového systému AI uvedeného v prílohe III, s výnimkou vysokorizikových systémov AI uvedených v prílohe III bode 2, nasadzujúce subjekty, ktoré sú orgánmi verejnej moci, inštitúcie, orgány úrady alebo agentúry Únie, alebo osoby, ktoré konajú v ich mene, sa zaregistrujú v databáze Únie uvedenej v článku 71, vyberú príslušný systém a zaregistrujú jeho používanie.
4. En el caso de los sistemas de IA de alto riesgo mencionados en el anexo III, puntos 1, 6 y 7, en los ámbitos de la garantía del cumplimiento del Derecho, la migración, el asilo y la gestión del control fronterizo, el registro a que se refieren los apartados 1, 2 y 3 del presente artículo se efectuará en una sección segura no pública de la base de datos de la UE a que se refiere el artículo 71 e incluirá únicamente la información, según proceda, a la que se hace referencia en:
4. V prípade vysokorizikových systémov AI uvedených v prílohe III bodoch 1, 6 a 7 v oblastiach presadzovania práva, migrácie, azylu a riadenia kontroly hraníc sa registrácia uvedená v odsekoch 1, 2 a 3 tohto článku vykoná v zabezpečenej neverejnej časti databázy Únie uvedenej v článku 71 a podľa potreby zahŕňa len informácie uvedené v:
a)
el anexo VIII, sección A, puntos 1 a 10, con excepción de los puntos 6, 8 y 9;
a)
prílohe VIII oddiele A bodoch 1 až 10 s výnimkou bodov 6, 8 a 9;
b)
el anexo VIII, sección B, puntos 1 a 5 y puntos 8 y 9;
b)
prílohe VIII oddiele B bodoch 1 až 5 a 8 a 9;
c)
el anexo VIII, sección C, puntos 1 a 3;
c)
prílohe VIII oddiele C bodoch 1 až 3;
d)
el anexo IX, puntos 1, 2, 3 y 5.
d)
prílohe IX bodoch 1, 2, 3 a 5.
Únicamente la Comisión y las autoridades nacionales a que se refiere el artículo 74, apartado 8, tendrán acceso a las secciones restringidas respectivas de la base de datos de la UE enumeradas en el párrafo primero del presente apartado.
K príslušným obmedzeným častiam databázy Únie uvedeným v prvom pododseku toho odseku má prístup len Komisia a vnútroštátne orgány uvedené v článku 74 ods. 8.
5. Los sistemas de IA de alto riesgo a que se refiere el anexo III, punto 2, se registrarán a nivel nacional.
5. Vysokorizikové systémy AI uvedené v prílohe III bode 2 sa registrujú na vnútroštátnej úrovni.
Obligaciones de transparencia de los proveedores y responsables del despliegue de determinados sistemas de IA
Povinnosti v oblasti transparentnosti pre poskytovateľov a nasadzujúce subjekty určitých systémov AI
1. Los proveedores garantizarán que los sistemas de IA destinados a interactuar directamente con personas físicas se diseñen y desarrollen de forma que las personas físicas de que se trate estén informadas de que están interactuando con un sistema de IA, excepto cuando resulte evidente desde el punto de vista de una persona física razonablemente informada, atenta y perspicaz, teniendo en cuenta las circunstancias y el contexto de utilización. Esta obligación no se aplicará a los sistemas de IA autorizados por ley para detectar, prevenir, investigar o enjuiciar delitos, con sujeción a las garantías adecuadas para los derechos y libertades de terceros, salvo que estos sistemas estén a disposición del público para denunciar un delito penal.
1. Poskytovatelia zabezpečia, aby systémy AI určené na priamu interakciu s fyzickými osobami boli dizajnované a vyvinuté tak, aby boli dotknuté fyzické osoby informované o tom, že interagujú so systémom AI, pokiaľ to nie je zrejmé z hľadiska fyzickej osoby, ktorá je primerane informovaná, pozorná a obozretná, pričom sa prihliada na okolnosti a kontext používania. Táto povinnosť sa nevzťahuje na systémy AI, ktoré sa podľa zákona môžu používať na odhaľovanie, prevenciu, vyšetrovanie alebo stíhanie trestných činov, a to s výhradou primeraných záruk ochrany práv a slobôd tretích strán, pokiaľ tieto systémy nie sú sprístupnené verejnosti na oznamovanie trestných činov.
2. Los proveedores de sistemas de IA, entre los que se incluyen los sistemas de IA de uso general, que generen contenido sintético de audio, imagen, vídeo o texto, velarán por que los resultados de salida del sistema de IA estén marcados en un formato legible por máquina y que sea posible detectar que han sido generados o manipulados de manera artificial. Los proveedores velarán por que sus soluciones técnicas sean eficaces, interoperables, sólidas y fiables en la medida en que sea técnicamente viable, teniendo en cuenta las particularidades y limitaciones de los diversos tipos de contenido, los costes de aplicación y el estado actual de la técnica generalmente reconocido, según se refleje en las normas técnicas pertinentes. Esta obligación no se aplicará en la medida en que los sistemas de IA desempeñen una función de apoyo a la edición estándar o no alteren sustancialmente los datos de entrada facilitados por el responsable del despliegue o su semántica, o cuando estén autorizados por ley para detectar, prevenir, investigar o enjuiciar delitos.
2. Poskytovatelia systémov AI vrátane systémov AI na všeobecné účely, ktoré generujú syntetický zvukový, obrazový, video alebo textový obsah, zabezpečia, aby boli výstupy systému AI označené v strojovo čitateľnom formáte a zistiteľné ako umelo vygenerované alebo zmanipulované. Poskytovatelia zabezpečia, aby ich technické riešenia boli účinné, interoperabilné, odolné a spoľahlivé, pokiaľ je to technicky možné, s prihliadnutím na osobitosti a obmedzenia rozličných druhov obsahu, náklady na implementáciu a všeobecne uznávaný aktuálny stav vývoja, ktoré sa môžu odzrkadľovať v príslušných technických normách. Táto povinnosť sa neuplatňuje v rozsahu, v ktorom systémy AI vykonávajú pomocnú funkciu pri štandardných redakčných úpravách alebo pokiaľ podstatne nemenia vstupné údaje poskytnuté nasadzujúcim subjektom alebo ich sémantiku, alebo ak je to zákonom povolené na odhaľovanie, prevenciu, vyšetrovanie alebo stíhanie trestných činov.
3. Los responsables del despliegue de un sistema de reconocimiento de emociones o de un sistema de categorización biométrica informarán del funcionamiento del sistema a las personas físicas expuestas a él y tratarán sus datos personales de conformidad con los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y con la Directiva (UE) 2016/680, según corresponda. Esta obligación no se aplicará a los sistemas de IA utilizados para la categorización biométrica y el reconocimiento de emociones que hayan sido autorizados por ley para detectar, prevenir e investigar delitos, con sujeción a las garantías adecuadas para los derechos y libertades de terceros y de conformidad con el Derecho de la Unión.
3. Nasadzujúce subjekty systému na rozpoznávanie emócií alebo systému biometrickej kategorizácie informujú o prevádzke systému fyzické osoby, ktoré sú mu vystavené, a spracúvajú osobné údaje v súlade s nariadeniami (EÚ) 2016/679 a (EÚ) 2018/1725 a v relevantnom prípade so smernicou (EÚ) 2016/680. Táto povinnosť sa nevzťahuje na systémy AI používané na biometrickú kategorizáciu a rozpoznávanie emócií, ktoré zákon povoľuje na odhaľovanie, prevenciu, vyšetrovanie alebo stíhanie trestných činov, s výhradou primeraných záruk ochrany práv a slobôd tretích strán a v súlade s právom Únie.
4. Los responsables del despliegue de un sistema de IA que genere o manipule imágenes o contenidos de audio o vídeo que constituyan una ultrasuplantación harán público que estos contenidos o imágenes han sido generados o manipulados de manera artificial. Esta obligación no se aplicará cuando la ley autorice su uso para para detectar, prevenir, investigar o enjuiciar delitos. Cuando el contenido forme parte de una obra o programa manifiestamente creativos, satíricos, artísticos, de ficción o análogos, las obligaciones de transparencia establecidas en el presente apartado se limitarán a la obligación de hacer pública la existencia de dicho contenido generado o manipulado artificialmente de una manera adecuada que no dificulte la exhibición o el disfrute de la obra.
4. Subjekty nasadzujúce systém AI, ktorý generuje alebo manipuluje obrazový, zvukový alebo video obsah, ktorý predstavuje deep fake, zverejnia, že obsah bol umelo vytvorený alebo manipulovaný. Táto povinnosť sa neuplatňuje, ak je použitie povolené zákonom na odhaľovanie, prevenciu, vyšetrovanie alebo stíhanie trestných činov. Ak je obsah súčasťou zjavne umeleckého, kreatívneho, satirického, fiktívneho alebo analogického diela alebo programu, povinnosti týkajúce sa transparentnosti stanovené v tomto odseku sa obmedzujú na zverejnenie existencie takéhoto vygenerovaného alebo zmanipulovaného obsahu, a to primeraným spôsobom, ktorý nebráni zobrazeniu diela a zážitku z neho.
Los responsables del despliegue de un sistema de IA que genere o manipule texto que se publique con el fin de informar al público sobre asuntos de interés público divulgarán que el texto se ha generado o manipulado de manera artificial. Esta obligación no se aplicará cuando el uso esté autorizado por ley para detectar, prevenir, investigar o enjuiciar delitos, o cuando el contenido generado por IA haya sido sometido a un proceso de revisión humana o de control editorial y cuando una persona física o jurídica tenga la responsabilidad editorial por la publicación del contenido.
Subjekty nasadzujúce systém AI, ktorý generuje alebo manipuluje text uverejnený s cieľom informovať verejnosť o záležitostiach verejného záujmu, zverejnia, že text bol umelo vygenerovaný alebo manipulovaný. Táto povinnosť sa neuplatňuje, ak je použitie povolené zákonom na odhaľovanie, prevenciu, vyšetrovanie alebo stíhanie trestných činov alebo ak obsah vygenerovaný AI prešiel procesom ľudskej alebo redakčnej kontroly a ak za uverejnenie obsahu nesie redakčnú zodpovednosť fyzická alebo právnická osoba.
5. La información a que se refieren los apartados 1 a 4 se facilitará a las personas físicas de que se trate de manera clara y distinguible a más tardar con ocasión de la primera interacción o exposición. La información se ajustará a los requisitos de accesibilidad aplicables.
5. Informácie uvedené v odsekoch 1 až 4 sa dotknutým fyzickým osobám poskytnú jasným a rozlíšiteľným spôsobom najneskôr v čase prvej interakcie alebo vystavenia sa systému. Informácie musia byť v súlade s uplatniteľnými požiadavkami na prístupnosť.
6. Los apartados 1 a 4 no afectarán a los requisitos y obligaciones establecidos en el capítulo III y se entenderán sin perjuicio de otras obligaciones de transparencia establecidas en el Derecho nacional o de la Unión para los responsables del despliegue de sistemas de IA.
6. Odseky 1 až 4 nemajú vplyv na požiadavky a povinnosti stanovené v kapitole III a nie sú nimi dotknuté iné povinnosti týkajúce sa transparentnosti stanovené pre subjekty nasadzujúce systémy AI v práve Únie alebo vo vnútroštátnom práve.
7. La Oficina de IA fomentará y facilitará la elaboración de códigos de buenas prácticas a escala de la Unión para promover la aplicación efectiva de las obligaciones relativas a la detección y el etiquetado de contenidos generados o manipulados de manera artificial. La Comisión podrá adoptar actos de ejecución a fin de aprobar dichos códigos de buenas prácticas, de conformidad con el procedimiento establecido en el artículo 56, apartado 6. Si considera que el código no es adecuado, la Comisión podrá adoptar un acto de ejecución que especifique normas comunes para el cumplimiento de las citadas obligaciones de conformidad con el procedimiento de examen establecido en el artículo 98, apartado 2.
7. Úrad pre AI podporuje a uľahčuje vypracúvanie kódexov postupov na úrovni Únie s cieľom uľahčiť účinné vykonávanie povinností týkajúcich sa odhaľovania a označovania umelo vygenerovaného alebo zmanipulovaného obsahu. Komisia môže prijať vykonávacie akty na schválenie uvedených kódexov postupov v súlade s postupom stanoveným v článku 56 ods. 6. Ak sa Komisia domnieva, že kódex nie je primeraný, môže prijať vykonávací akt, v ktorom stanoví spoločné pravidlá vykonávania týchto povinností v súlade s postupom preskúmania stanoveným v článku 98 ods. 2.