Diario Oficial
de la Unión Europea
ES
Euroopan unionin
virallinen lehti
FI
REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO Y DEL CONSEJO
EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUS (EU) 2024/1689,
annettu 13 päivänä kesäkuuta 2024,
por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial)
tekoälyä koskevista yhdenmukaistetuista säännöistä ja asetusten (EY) N:o 300/2008, (EU) N:o 167/2013, (EU) N:o 168/2013, (EU) 2018/858, (EU) 2018/1139 ja (EU) 2019/2144 sekä direktiivien 2014/90/EU, (EU) 2016/797 ja (EU) 2020/1828 muuttamisesta (tekoälysäädös)
(Texto pertinente a efectos del EEE)
(ETA:n kannalta merkityksellinen teksti)
EL PARLAMENTO EUROPEO Y EL CONSEJO DE LA UNIÓN EUROPEA,
EUROOPAN PARLAMENTTI JA EUROOPAN UNIONIN NEUVOSTO, jotka
Visto el Tratado de Funcionamiento de la Unión Europea, y en particular sus artículos 16 y 114,
ottavat huomioon Euroopan unionin toiminnasta tehdyn sopimuksen ja erityisesti sen 16 ja 114 artiklan,
Vista la propuesta de la Comisión Europea,
ottavat huomioon Euroopan komission ehdotuksen,
Previa transmisión del proyecto de acto legislativo a los Parlamentos nacionales,
sen jälkeen kun esitys lainsäätämisjärjestyksessä hyväksyttäväksi säädökseksi on toimitettu kansallisille parlamenteille,
Visto el dictamen del Comité Económico y Social Europeo (1),
ottavat huomioon Euroopan talous- ja sosiaalikomitean lausunnon (1),
Visto el dictamen del Banco Central Europeo (2),
ottavat huomioon Euroopan keskuspankin lausunnon (2),
Visto el dictamen del Comité de las Regiones (3),
ottavat huomioon alueiden komitean lausunnon (3),
De conformidad con el procedimiento legislativo ordinario (4),
noudattavat tavallista lainsäätämisjärjestystä (4),
Considerando lo siguiente:
(1)
El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial (en lo sucesivo, «sistemas de IA») en la Unión, de conformidad con los valores de la Unión, a fin de promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo, «Carta»), incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, proteger frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación. El presente Reglamento garantiza la libre circulación transfronteriza de mercancías y servicios basados en la IA, con lo que impide que los Estados miembros impongan restricciones al desarrollo, la comercialización y la utilización de sistemas de IA, a menos que el presente Reglamento lo autorice expresamente.
(1)
Tämän asetuksen tarkoituksena on parantaa sisämarkkinoiden toimintaa vahvistamalla yhtenäinen oikeudellinen kehys erityisesti unionin arvojen mukaiselle tekoälyjärjestelmien kehittämiselle, markkinoille saattamiselle, käyttöönotolle ja käytölle unionissa, edistää ihmiskeskeisen ja luotettavan tekoälyn käyttöönottoa varmistaen samalla Euroopan unionin perusoikeuskirjassa, jäljempänä ”perusoikeuskirja”, vahvistettu terveyden, turvallisuuden ja perusoikeuksien, mukaan lukien demokratia, oikeusvaltio ja ympäristönsuojelu, suojelun korkea taso, suojautua tekoälyjärjestelmien haitallisilta vaikutuksilta unionissa sekä tukea innovointia. Tällä asetuksella varmistetaan tekoälyyn perustuvien tavaroiden ja palvelujen vapaa liikkuvuus rajojen yli, mikä estää jäsenvaltioita asettamasta tekoälyjärjestelmien kehittämistä, markkinoille saattamista ja käyttöä koskevia rajoituksia, ellei sitä nimenomaisesti sallita tällä asetuksella.
(2)
El presente Reglamento debe aplicarse de conformidad con los valores de la Unión consagrados en la Carta, lo que facilitará la protección de las personas físicas, las empresas, la democracia, el Estado de Derecho y la protección del medio ambiente y, al mismo tiempo, impulsará la innovación y el empleo y convertirá a la Unión en líder en la adopción de una IA fiable.
(2)
Tätä asetusta olisi sovellettava perusoikeuskirjassa vahvistettujen unionin arvojen mukaisesti, mikä helpottaa luonnollisten henkilöiden, yritysten, demokratian ja oikeusvaltion sekä ympäristön suojelua ja samalla edistää innovointia ja työllisyyttä sekä varmistaa unionin johtoaseman luotettavan tekoälyn käyttöönotossa.
(3)
Los sistemas de IA pueden desplegarse con facilidad en sectores muy diversos de la economía y en muchas partes de la sociedad, también a escala transfronteriza, y circular fácilmente por toda la Unión. Algunos Estados miembros ya han estudiado adopción de normas nacionales destinadas a garantizar que la IA sea fiable y segura y se desarrolle y utilice de conformidad con las obligaciones relativas a los derechos fundamentales. La existencia de normas nacionales divergentes puede dar lugar a la fragmentación del mercado interior y reducir la seguridad jurídica de los operadores que desarrollan, importan o utilizan sistemas de IA. Por lo tanto, es preciso garantizar un nivel elevado y coherente de protección en toda la Unión para lograr una IA fiable, así como evitar las divergencias que obstaculizan la libre circulación, la innovación, el despliegue y la adopción en el mercado interior de los sistemas de IA y los productos y servicios conexos mediante el establecimiento de obligaciones uniformes para los operadores y la garantía de una protección uniforme de los fines imperiosos de interés general y de los derechos de las personas en todo el mercado interior, sobre la base del artículo 114 del Tratado de Funcionamiento de la Unión Europea (TFUE). En la medida en que el presente Reglamento contiene normas específicas para la protección de las personas en relación con el tratamiento de datos personales que restringen el uso de sistemas de IA para la identificación biométrica remota con fines de garantía del cumplimiento del Derecho, el uso de sistemas de IA para la realización de evaluaciones de riesgos de personas físicas con fines de garantía del cumplimiento del Derecho y el uso de sistemas de IA de categorización biométrica con fines de garantía del cumplimiento del Derecho, resulta adecuado basar este Reglamento, en lo que atañe a dichas normas específicas, en el artículo 16 del TFUE. A la luz de dichas normas específicas y del recurso al artículo 16 del TFUE, conviene consultar al Comité Europeo de Protección de Datos.
(3)
Tekoälyjärjestelmiä voidaan ottaa helposti käyttöön monilla eri talouden ja yhteiskunnan aloilla, myös rajojen yli, ja ne voivat liikkua helposti kaikkialla unionissa. Eräät jäsenvaltiot ovat jo harkinneet kansallisten sääntöjen hyväksymistä sen varmistamiseksi, että tekoäly on luotettavaa ja turvallista ja että sitä kehitetään ja käytetään perusoikeuksia koskevien velvoitteiden mukaisesti. Toisistaan poikkeavat kansalliset säännöt voivat johtaa sisämarkkinoiden pirstoutumiseen ja heikentää tekoälyjärjestelmiä kehittävien, maahantuovien tai käyttävien toimijoiden oikeusvarmuutta. Sen vuoksi olisi varmistettava suojelun yhdenmukainen ja korkea taso koko unionissa, jotta tekoäly saadaan toimimaan luotettavasti, ja samalla estettävä erot, jotka haittaavat tekoälyjärjestelmien ja niihin liittyvien tuotteiden ja palvelujen vapaata liikkuvuutta, innovointia ja käyttöönottoa sisämarkkinoilla, vahvistamalla yhdenmukaiset velvoitteet toimijoille ja takaamalla yleiseen etuun liittyvien pakottavien syiden ja henkilöiden oikeuksien yhdenmukainen suojelu koko sisämarkkinoilla Euroopan unionin toiminnasta tehdyn sopimuksen 114 artiklan mukaisesti. Siltä osin kuin tämä asetus sisältää yksilöiden suojelua henkilötietojen käsittelyssä koskevia erityissääntöjä, joilla rajoitetaan tekoälyjärjestelmien lainvalvontatarkoituksessa tapahtuvaa käyttöä biometristä etätunnistusta, luonnollisia henkilöitä koskevia riskinarviointeja ja biometristä luokittelua varten, tämä asetus on aiheellista perustaa kyseisten erityissääntöjen osalta Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklaan. Kun otetaan huomioon nämä erityissäännöt ja Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan käyttö, on aiheellista kuulla Euroopan tietosuojaneuvostoa.
(4)
La IA es un conjunto de tecnologías en rápida evolución que contribuye a generar beneficios económicos, medioambientales y sociales muy diversos en todos los sectores económicos y las actividades sociales. El uso de la IA puede proporcionar ventajas competitivas esenciales a las empresas y facilitar la obtención de resultados positivos desde el punto de vista social y medioambiental en los ámbitos de la asistencia sanitaria, la agricultura, la seguridad alimentaria, la educación y la formación, los medios de comunicación, el deporte, la cultura, la gestión de infraestructuras, la energía, el transporte y la logística, los servicios públicos, la seguridad, la justicia, la eficiencia de los recursos y la energía, el seguimiento ambiental, la conservación y restauración de la biodiversidad y los ecosistemas, y la mitigación del cambio climático y la adaptación a él, entre otros, al mejorar la predicción, optimizar las operaciones y la asignación de los recursos, y personalizar las soluciones digitales que se encuentran a disposición de la población y las organizaciones.
(4)
Tekoäly on nopeasti kehittyvä teknologiakokonaisuus, joka tuottaa monenlaisia taloudellisia, ympäristöön liittyviä ja yhteiskunnallisia hyötyjä kaikilla teollisuudenaloilla ja kaikessa sosiaalisessa toiminnassa. Tekoälyn käyttö voi tarjota yrityksille keskeisiä kilpailuetuja ja tukea yhteiskunnallisesti ja ympäristön kannalta suotuisia tuloksia esimerkiksi terveydenhuollon, maatalouden, elintarviketurvallisuuden, koulutuksen, tiedotusvälineiden, urheilun, kulttuurin, infrastruktuurin hallinnan, energian, liikenteen ja logistiikan, julkisten palvelujen, turvallisuuden, oikeuden, resurssi- ja energiatehokkuuden, ympäristönseurannan, luonnon monimuotoisuuden ja ekosysteemien säilyttämisen ja ennallistamisen sekä ilmastonmuutoksen hillitsemisen ja siihen sopeutumisen aloilla parantamalla ennakointia, optimoimalla toimintoja ja resurssien kohdentamista ja räätälöimällä yksilöille ja organisaatioille tarjolla olevia digitaalisia ratkaisuja.
(5)
Al mismo tiempo, dependiendo de las circunstancias relativas a su aplicación, utilización y nivel de desarrollo tecnológico concretos, la IA puede generar riesgos y menoscabar los intereses públicos y los derechos fundamentales que protege el Derecho de la Unión. Dicho menoscabo puede ser tangible o intangible e incluye los perjuicios físicos, psíquicos, sociales o económicos.
(5)
Samaan aikaan tekoäly voi sen erityiseen sovellukseen, käyttöön ja teknologisen kehityksen asteeseen liittyvistä olosuhteista riippuen aiheuttaa riskejä ja vahingoittaa unionin oikeudella suojattuja yleisiä etuja ja perusoikeuksia. Tällainen vahinko voi olla aineellista tai aineetonta, kuten fyysistä, psykologista, yhteiskunnallista tai taloudellista vahinkoa.
(6)
Dadas las importantes repercusiones que la IA puede tener en la sociedad y la necesidad de generar confianza, es fundamental que la IA y su marco reglamentario se desarrollen de conformidad con los valores de la Unión consagrados en el artículo 2 del Tratado de la Unión Europea (TUE), los derechos y libertades fundamentales consagrados en los Tratados y, de conformidad con el artículo 6 del TUE, la Carta. Como requisito previo, la IA debe ser una tecnología centrada en el ser humano. Además, debe ser una herramienta para las personas y tener por objetivo último aumentar el bienestar humano.
(6)
Kun otetaan huomioon, että tekoälyllä voi olla merkittävä vaikutus yhteiskuntaan ja että on tarpeen rakentaa luottamusta, on erittäin tärkeää, että tekoälyä ja sen sääntelykehystä kehitetään Euroopan unionista tehdyn sopimuksen, jäljempänä ”SEU-sopimus”, 2 artiklassa vahvistettujen unionin arvojen, perussopimuksissa vahvistettujen perusoikeuksien ja -vapauksien sekä SEU-sopimuksen 6 artiklan nojalla perusoikeuskirjan mukaisesti. Tekoälyn ennakkoehtona olisi oltava teknologian ihmiskeskeisyys. Ihmisten olisi voitava käyttää sitä välineenä, jonka perimmäisenä tavoitteena on lisätä heidän hyvinvointiaan.
(7)
Conviene establecer normas comunes para los sistemas de IA de alto riesgo al objeto de garantizar un nivel elevado y coherente de protección de los intereses públicos en lo que respecta a la salud, la seguridad y los derechos fundamentales. Estas normas deben ser coherentes con la Carta, no deben ser discriminatorias y deben estar en consonancia con los compromisos de la Unión en materia de comercio internacional. También deben tener en cuenta la Declaración Europea sobre los Derechos y Principios Digitales para la Década Digital y las Directrices éticas para una IA fiable del Grupo independiente de expertos de alto nivel sobre inteligencia artificial.
(7)
Jotta voidaan varmistaa terveyteen, turvallisuuteen ja perusoikeuksiin liittyvien yleisten etujen suojelun yhdenmukainen ja korkea taso, suuririskisille tekoälyjärjestelmille olisi vahvistettava yhteiset säännöt. Näiden sääntöjen olisi oltava perusoikeuskirjan mukaisia, syrjimättömiä ja yhteensopivia unionin kansainvälisten kauppasitoumusten kanssa. Niissä olisi myös otettava huomioon eurooppalainen julistus digitaalisen vuosikymmenen digitaalisista oikeuksista ja periaatteista ja tekoälyä käsittelevän korkean tason asiantuntijaryhmän luotettavaa tekoälyä koskevat eettiset ohjeet.
(8)
En consecuencia, se necesita un marco jurídico de la Unión que establezca unas normas armonizadas en materia de IA para impulsar el desarrollo, la utilización y la adopción en el mercado interior de la IA y que, al mismo tiempo, ofrezca un nivel elevado de protección de los intereses públicos, como la salud y la seguridad y la protección de los derechos fundamentales, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, reconocidos y protegidos por el Derecho de la Unión. Para alcanzar dicho objetivo, conviene establecer normas que regulen la introducción en el mercado, la puesta en servicio y la utilización de determinados sistemas de IA, lo que garantizará el buen funcionamiento del mercado interior y permitirá que dichos sistemas se beneficien del principio de libre circulación de mercancías y servicios. Esas normas deben ser claras y firmes por lo que respecta a proteger los derechos fundamentales, apoyar nuevas soluciones innovadoras, posibilitar un ecosistema europeo de agentes públicos y privados que creen sistemas de IA en consonancia con los valores de la Unión y liberar el potencial de la transformación digital en todas las regiones de la Unión. Al establecer tales normas, así como medidas en apoyo de la innovación que prestan especial atención a las pequeñas y medianas empresas (pymes), incluidas las empresas emergentes, el presente Reglamento respalda el objetivo de promover el enfoque europeo de la IA centrado en el ser humano y de ser un líder mundial en el desarrollo de IA segura, digna de confianza y ética, como indicó el Consejo Europeo (5), y garantiza la protección de los principios éticos, como solicitó específicamente el Parlamento Europeo (6).
(8)
Sen vuoksi tarvitaan unionin oikeudellinen kehys, jossa vahvistetaan tekoälyä koskevat yhdenmukaistetut säännöt, jotta voidaan edistää tekoälyn kehittämistä, käyttöä ja käyttöönottoa sisämarkkinoilla ja samalla taata unionin oikeudessa tunnustettujen ja suojattujen yleisten etujen, kuten terveyden ja turvallisuuden, sekä perusoikeuksien, kuten demokratian, oikeusvaltion ja ympäristön, suojelun korkea taso. Tämän tavoitteen saavuttamiseksi olisi vahvistettava säännöt, joilla säännellään tiettyjen tekoälyjärjestelmien markkinoille saattamista, käyttöönottoa ja käyttöä ja varmistetaan siten sisämarkkinoiden moitteeton toiminta ja annetaan kyseisille järjestelmille mahdollisuus hyötyä tavaroiden ja palvelujen vapaan liikkuvuuden periaatteesta. Näiden sääntöjen olisi oltava selkeitä. Niiden olisi suojeltava hyvin perusoikeuksia, tuettava uusia innovatiivisia ratkaisuja ja mahdollistettava unionin arvojen mukaisia tekoälyjärjestelmiä kehittävien julkisten ja yksityisten toimijoiden eurooppalainen ekosysteemi. Niiden avulla olisi voitava hyödyntää digitalisaation mahdollisuuksia kaikilla unionin alueilla. Vahvistamalla kyseiset säännöt sekä innovointia tukevat toimenpiteet, joissa keskitytään erityisesti pk-yrityksiin, startup-yritykset mukaan luettuna, tällä asetuksella tuetaan Eurooppa-neuvoston asettamaa tavoitetta, jonka mukaan edistetään eurooppalaista ihmiskeskeistä tekoälyä ja unionin olisi oltava globaali edelläkävijä turvallisen, luotettavan ja eettisen tekoälyn kehittämisessä (5), ja varmistetaan eettisten periaatteiden suojelu, kuten Euroopan parlamentti on erityisesti pyytänyt (6).
(9)
Deben establecerse normas armonizadas aplicables a la introducción en el mercado, la puesta en servicio y la utilización de sistemas de IA de alto riesgo en consonancia con el Reglamento (CE) n.o 765/2008 del Parlamento Europeo y del Consejo (7), la Decisión n.o 768/2008/CE del Parlamento Europeo y del Consejo (8) y el Reglamento (UE) 2019/1020 del Parlamento Europeo y del Consejo (9) (en lo sucesivo, «nuevo marco legislativo»). Las normas armonizadas que se establecen en el presente Reglamento deben aplicarse en todos los sectores y, en consonancia con el nuevo marco legislativo, deben entenderse sin perjuicio del Derecho vigente de la Unión, en particular en materia de protección de datos, protección de los consumidores, derechos fundamentales, empleo, protección de los trabajadores y seguridad de los productos, al que complementa el presente Reglamento. En consecuencia, permanecen inalterados y siguen siendo plenamente aplicables todos los derechos y vías de recurso que el citado Derecho de la Unión otorga a los consumidores y demás personas que puedan verse afectados negativamente por los sistemas de IA, también en lo que respecta a la reparación de los posibles daños de conformidad con la Directiva 85/374/CEE del Consejo (10). Además, en el contexto del empleo y la protección de los trabajadores, el presente Reglamento no debe afectar, por tanto, al Derecho de la Unión en materia de política social ni al Derecho laboral nacional —de conformidad con el Derecho de la Unión— relativa a las condiciones de empleo y de trabajo, incluidas la salud y seguridad en el trabajo y la relación entre empleadores y trabajadores. El presente Reglamento tampoco debe afectar en modo alguno al ejercicio de los derechos fundamentales reconocidos en los Estados miembros y a escala de la Unión, incluidos el derecho o la libertad de huelga o de emprender otras acciones contempladas en los sistemas de relaciones laborales específicos de los Estados miembros y el derecho a negociar, concluir y hacer cumplir convenios colectivos o a llevar a cabo acciones colectivas conforme al Derecho nacional. El presente Reglamento no debe afectar a las disposiciones destinadas a mejorar las condiciones laborales en el trabajo en plataformas digitales establecidas en una Directiva del Parlamento Europeo y del Consejo relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales. Además, el presente Reglamento tiene por objeto reforzar la eficacia de tales derechos y vías de recurso vigentes mediante el establecimiento de requisitos y obligaciones específicos, también en lo que respecta a la transparencia, la documentación técnica y la conservación de registros de los sistemas de IA. Asimismo, las obligaciones impuestas a los distintos operadores que participan en la cadena de valor de la IA en virtud del presente Reglamento deben aplicarse sin perjuicio del Derecho nacional que, de conformidad con el Derecho de la Unión, tenga por efecto limitar el uso de determinados sistemas de IA cuando dicho Derecho quede fuera del ámbito de aplicación del presente Reglamento o persiga objetivos legítimos de interés público distintos de los perseguidos por el presente Reglamento. Así, por ejemplo, el presente Reglamento no debe afectar al Derecho laboral nacional ni al Derecho en materia de protección de menores, a saber, de personas de menos de dieciocho años, que tienen en cuenta la Observación general n.o 25 (2021) de la Convención sobre los Derechos del Niño de las Naciones Unidas relativa a los derechos de los niños en relación con el entorno digital, en la medida en que no son específicas a los sistemas de IA y persiguen otros objetivos legítimos de interés público.
(9)
Suuririskisten tekoälyjärjestelmien markkinoille saattamiseen, käyttöönottoon ja käyttöön sovellettavat yhdenmukaistetut säännöt olisi vahvistettava johdonmukaisesti Euroopan parlamentin ja neuvoston asetuksen (EY) N:o 765/2008 (7), Euroopan parlamentin ja neuvoston päätöksen N:o 768/2008/EY (8) sekä Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/1020 (9), jäljempänä ”uusi lainsäädäntökehys”, kanssa. Tässä asetuksessa säädettyjä yhdenmukaistettuja sääntöjä olisi sovellettava kaikilla aloilla, ja uuden lainsäädäntökehyksen mukaisesti säännöt eivät saisi rajoittaa olemassa olevaa unionin oikeutta, joka koskee erityisesti tietosuojaa, kuluttajansuojaa, perusoikeuksia, työllisyyttä ja työntekijöiden suojelua sekä tuoteturvallisuutta ja jota tällä asetuksella täydennetään. Näin ollen kaikki tällaisessa unionin oikeudessa vahvistetut oikeudet ja oikeussuojakeinot kuluttajille ja muille henkilöille, joihin tekoälyjärjestelmillä voi olla kielteinen vaikutus, mukaan lukien neuvoston direktiivin 85/374/ETY (10) mukainen mahdollisten vahinkojen korvaaminen, säilyvät muuttumattomina ja niitä sovelletaan täysimääräisesti. Tämä asetus ei sen vuoksi saisi työllisyyden ja työntekijöiden suojelun aloilla vaikuttaa sosiaalipolitiikkaa koskevaan unionin oikeuteen eikä unionin oikeuden mukaiseen kansalliseen työlainsäädäntöön, joka koskee työehtoja ja -oloja, mukaan lukien työterveys ja -turvallisuus, sekä työnantajien ja työntekijöiden välistä suhdetta. Tämä asetus ei myöskään saisi vaikuttaa jäsenvaltioissa ja unionin tasolla tunnustettujen perusoikeuksien noudattamiseen, mukaan lukien oikeus tai vapaus ryhtyä lakkoon tai muuhun jäsenvaltioiden työmarkkinajärjestelmien piiriin kuuluvaan toimeen, sekä oikeus neuvotella, tehdä ja panna täytäntöön työehtosopimuksia tai ryhtyä työtaistelutoimiin kansallisen lainsäädännön mukaisesti. Tämä asetus ei saisi vaikuttaa työolojen parantamisesta alustatyössä annettavassa Euroopan parlamentin ja neuvoston direktiivissä vahvistettuihin säännöksiin, joilla pyritään parantamaan työoloja alustatyössä. Tämän lisäksi tällä asetuksella pyritään vahvistamaan tällaisten olemassa olevien oikeuksien ja oikeussuojakeinojen vaikuttavuutta ottamalla käyttöön erityisiä vaatimuksia ja velvoitteita, jotka koskevat muun muassa tekoälyjärjestelmien avoimuutta, teknistä dokumentaatiota ja tietojen säilyttämistä. Lisäksi tämän asetuksen nojalla tekoälyn arvoketjun eri toimijoille asetettuja velvoitteita olisi sovellettava rajoittamatta kansallista lainsäädäntöä, unionin oikeuden mukaisesti, siten, että vaikutuksena on tiettyjen tekoälyjärjestelmien käytön rajoittaminen, silloin kun tällainen lainsäädäntö ei kuulu tämän asetuksen soveltamisalaan tai sillä on muita oikeutettuja yleisen edun mukaisia tavoitteita kuin tässä asetuksessa asetetaan. Tämä asetus ei saisi vaikuttaa esimerkiksi kansalliseen työlainsäädäntöön ja alaikäisten, eli alle 18-vuotiaiden henkilöiden, suojelua koskeviin lakeihin ottaen huomioon lapsen oikeuksien yleissopimuksen yleinen huomautus nro 25 (2021) lapsen oikeuksista suhteessa digitaaliseen ympäristöön siltä osin kuin ne eivät koske tekoälyjärjestelmiä ja niillä on muita oikeutettuja yleisen edun mukaisia tavoitteita.
(10)
El derecho fundamental a la protección de los datos personales está garantizado, en particular, por los Reglamentos (UE) 2016/679 (11) y (UE) 2018/1725 (12) del Parlamento Europeo y del Consejo y la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo (13). Además, la Directiva 2002/58/CE del Parlamento Europeo y del Consejo (14) protege la vida privada y la confidencialidad de las comunicaciones, también estableciendo condiciones para cualquier almacenamiento de datos personales y no personales en los equipos terminales, y el acceso desde estos. Dichos actos legislativos de la Unión constituyen la base para un tratamiento de datos sostenible y responsable, también cuando los conjuntos de datos contengan una combinación de datos personales y no personales. El presente Reglamento no pretende afectar a la aplicación del Derecho de la Unión vigente que regula el tratamiento de datos personales, incluidas las funciones y competencias de las autoridades de supervisión independientes competentes para vigilar el cumplimiento de dichos instrumentos. Tampoco afecta a las obligaciones de los proveedores y los responsables del despliegue de sistemas de IA en su papel de responsables o encargados del tratamiento de datos derivadas del Derecho de la Unión o nacional en materia de protección de datos personales en la medida en que el diseño, el desarrollo o el uso de sistemas de IA impliquen el tratamiento de datos personales. También conviene aclarar que los interesados siguen disfrutando de todos los derechos y garantías que les confiere dicho Derecho de la Unión, incluidos los derechos relacionados con las decisiones individuales totalmente automatizadas, como la elaboración de perfiles. Unas normas armonizadas para la introducción en el mercado, la puesta en servicio y la utilización de sistemas de IA establecidas en virtud del presente Reglamento deben facilitar la aplicación efectiva y permitir el ejercicio de los derechos y otras vías de recurso de los interesados garantizados por el Derecho de la Unión en materia de protección de datos personales, así como de otros derechos fundamentales.
(10)
Henkilötietojen suojaa koskeva perusoikeus on turvattu erityisesti Euroopan parlamentin ja neuvoston asetuksilla (EU) 2016/679 (11) ja (EU) 2018/1725 (12) sekä Euroopan parlamentin ja neuvoston direktiivillä (EU) 2016/680 (13). Lisäksi Euroopan parlamentin ja neuvoston direktiivillä 2002/58/EY (14) suojellaan yksityisyyttä ja viestinnän luottamuksellisuutta, mukaan lukien säätämällä ehdoista, jotka koskevat kaikkien henkilötietojen ja muiden kuin henkilötietojen tallentamista päätelaitteelle ja pääsyä näihin tietoihin. Kyseiset unionin säädökset luovat perustan kestävälle ja vastuulliselle datankäsittelylle, myös silloin kun data-aineistossa on sekä henkilötietoja että muuta dataa kuin henkilötietoja. Tällä asetuksella ei pyritä vaikuttamaan henkilötietojen käsittelyä koskevan voimassa olevan unionin oikeuden soveltamiseen, mukaan lukien kyseisten säädösten noudattamisen valvonnasta vastaavien riippumattomien valvontaviranomaisten tehtävät ja toimivalta.Tämä asetus ei vaikuta niihin tekoälyjärjestelmien tarjoajien ja käyttöönottajien velvoitteisiin rekisterinpitäjinä tai tietojen käsittelijöinä, jotka johtuvat henkilötietojen suojaa koskevasta unionin tai kansallisesta lainsäädännöstä, siltä osin kuin tekoälyjärjestelmien suunnitteluun, kehittämiseen ja käyttöön liittyy henkilötietojen käsittelyä. On myös asianmukaista selventää, että rekisteröidyillä on kaikki tällaisen unionin oikeuden mukaiset oikeudet ja takeet, myös pelkästään automatisoituun yksittäispäätöksentekoon liittyvät oikeudet, mukaan lukien profilointi. Tässä asetuksessa vahvistetuilla yhdenmukaistetuilla säännöillä tekoälyjärjestelmien markkinoille saattamiseksi, käyttöön ottamiseksi tai käyttämiseksi olisi helpotettava henkilötietojen suojaa koskevassa unionin oikeudessa taattujen rekisteröityjen oikeuksien ja muiden oikeussuojakeinojen sekä muiden perusoikeuksien tosiasiallista täytäntöönpanoa ja mahdollistettava niiden käyttö.
(11)
El presente Reglamento debe interpretarse sin perjuicio de las disposiciones del Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo (15) relativas a la responsabilidad de los prestadores de servicios intermediarios.
(11)
Tämä asetus ei saisi rajoittaa Euroopan parlamentin ja neuvoston asetuksessa (EU) 2022/2065 (15) vahvistettujen välityspalvelujen tarjoajien vastuuta koskevien säännösten soveltamista.
(12)
Debe definirse con claridad el concepto de «sistema de IA» en el presente Reglamento y armonizarlo estrechamente con los trabajos de las organizaciones internacionales que se ocupan de la IA, a fin de garantizar la seguridad jurídica y facilitar la convergencia a escala internacional y una amplia aceptación, al mismo tiempo que se prevé la flexibilidad necesaria para dar cabida a los rápidos avances tecnológicos en este ámbito. Además, la definición debe basarse en las principales características de los sistemas de IA que los distinguen de los sistemas de software o los planteamientos de programación tradicionales y más sencillos, y no debe incluir los sistemas basados en las normas definidas únicamente por personas físicas para ejecutar automáticamente operaciones. Una característica principal de los sistemas de IA es su capacidad de inferencia. Esta capacidad de inferencia se refiere al proceso de obtención de resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que puede influir en entornos físicos y virtuales, y a la capacidad de los sistemas de IA para deducir modelos o algoritmos, o ambos, a partir de información de entrada o datos. Las técnicas que permiten la inferencia al construir un sistema de IA incluyen estrategias de aprendizaje automático que aprenden de los datos cómo alcanzar determinados objetivos y estrategias basadas en la lógica y el conocimiento que infieren a partir de conocimientos codificados o de una representación simbólica de la tarea que debe resolverse. La capacidad de inferencia de un sistema de IA trasciende el tratamiento básico de datos, al permitir el aprendizaje, el razonamiento o la modelización. El término «basado en una máquina» se refiere al hecho de que los sistemas de IA se ejecutan en máquinas.La referencia a objetivos explícitos o implícitos subraya que los sistemas de IA pueden funcionar con arreglo a objetivos definidos explícitos o a objetivos implícitos. Los objetivos del sistema de IA pueden ser diferentes de la finalidad prevista del sistema de IA en un contexto específico. A los efectos del presente Reglamento, debe entenderse por entornos los contextos en los que funcionan los sistemas de IA, mientras que los resultados de salida generados por el sistema de IA reflejan las distintas funciones desempeñadas por los sistemas de IA e incluyen predicciones, contenidos, recomendaciones o decisiones. Los sistemas de IA están diseñados para funcionar con distintos niveles de autonomía, lo que significa que pueden actuar con cierto grado de independencia con respecto a la actuación humana y tienen ciertas capacidades para funcionar sin intervención humana. La capacidad de adaptación que un sistema de IA podría mostrar tras su despliegue se refiere a las capacidades de autoaprendizaje que permiten al sistema cambiar mientras está en uso. Los sistemas de IA pueden utilizarse de manera independiente o como componentes de un producto, con independencia de si el sistema forma parte físicamente del producto (integrado) o contribuye a la funcionalidad del producto sin formar parte de él (no integrado).
(12)
Tekoälyjärjestelmän käsite tässä asetuksessa olisi määriteltävä selkeästi ja yhdenmukaistettava mahdollisimman pitkälle tekoälyn alalla parissa kansainvälisten organisaatioiden tekemän työn kanssa, jotta voidaan taata oikeusvarmuus, edistää kansainvälistä lähentymistä ja laajaa hyväksyntää sekä samalla tarjota joustovaraa alan nopean teknologisen kehityksen huomioon ottamiseksi. Lisäksi käsitteen olisi perustuttava tekoälyjärjestelmien keskeisiin ominaisuuksiin, jotka erottavat sen yksinkertaisemmista perinteisistä ohjelmistojärjestelmistä tai ohjelmointitavoista. Se ei saisi kattaa järjestelmiä, jotka perustuvat yksinomaan luonnollisten henkilöiden määrittelemiin sääntöihin toimien suorittamiseksi automaattisesti. Yksi tekoälyjärjestelmien keskeisistä piirteistä on niiden päättelykyky. Päättelykyvyllä tarkoitetaan prosessia, jossa saadaan tuotoksia, kuten ennusteita, sisältöä, suosituksia tai päätöksiä, jotka voivat vaikuttaa fyysiseen ja virtuaaliympäristöön, ja tekoälyjärjestelmien kykyyn johtaa malleja tai algoritmeja tai molempia syöttötiedoista tai datasta. Tekoälyjärjestelmää kehitettäessä käytettäviä päättelyn mahdollistavia tekniikoita ovat esimerkiksi koneoppimismenetelmät, jotka oppivat datan avulla, miten tietyt tavoitteet voivat saavuttaa, ja logiikkaan ja tietämykseen perustuvat menetelmät, jotka päättelevät tuotoksensa koodatun tietämyksen tai ratkaistavan tehtävän symbolisen esityksen perusteella. Tekoälyjärjestelmän päättelykyky on laajempi kuin perustietojenkäsittelyn. Sen ansiosta tekoälyjärjestelmä voi oppia, tehdä johtopäätöksiä tai mallintaa asioita. ”Konepohjaisella” tarkoitetaan, että tekoälyjärjestelmät toimivat koneissa. Eksplisiittisillä ja implisiittisillä tavoitteilla tarkoitetaan, että tekoälyjärjestelmät voivat toimia eksplisiittisesti määriteltyjen tavoitteiden tai implisiittisten tavoitteiden mukaisesti. Tekoälyjärjestelmän tavoitteet voivat erota tekoälyjärjestelmän käyttötarkoituksesta jossakin tietyssä yhteydessä. Tätä asetusta sovellettaessa ympäristöillä olisi katsottava tarkoitettavan olosuhteita, joissa tekoälyjärjestelmät toimivat, kun taas tekoälyjärjestelmän tuotokset kuvaavat tekoälyjärjestelmien suorittamia erilaisia toimintoja ja voivat olla esimerkiksi ennusteita, sisältöä, suosituksia ja päätöksiä. Tekoälyjärjestelmät on suunniteltu toimimaan eriasteisen itsenäisesti, mikä tarkoittaa, että ne toimivat jossakin määrin ihmisen toimista riippumattomasti ja kykenevät ainakin jossakin määrin toimimaan ilman ihmisen ohjausta. Tekoälyjärjestelmän mahdollinen mukautuvuus käyttöönoton jälkeen viittaa itseoppimiskykyyn, jonka avulla järjestelmä voi muuttua käytön aikana. Tekoälyjärjestelmiä voidaan käyttää erillisinä tai tuotteen osina riippumatta siitä, onko järjestelmä fyysisesti integroitu tuotteeseen (sulautettu) vai palveleeko se tuotteen toiminnallisuutta ilman, että se on integroitu siihen (sulauttamaton).
(13)
El concepto de «responsable del despliegue» a que hace referencia el presente Reglamento debe interpretarse como cualquier persona física o jurídica, incluida cualquier autoridad pública, órgano u organismo, que utilice un sistema de IA bajo su propia autoridad, salvo cuando su uso se enmarque en una actividad personal de carácter no profesional. Dependiendo del tipo de sistema de IA, el uso del sistema puede afectar a personas distintas del responsable del despliegue.
(13)
Tässä asetuksessa tarkoitetun ”käyttöönottajan” käsitteen olisi tulkittava tarkoittavan tekoälyjärjestelmää käyttävää luonnollista tai oikeushenkilöä, mukaan lukien viranomainen, virasto tai muu elin, jonka valvonnassa järjestelmää käytetään, paitsi jos tekoälyjärjestelmää käytetään henkilökohtaisessa muussa kuin ammattitoiminnassa. Tekoälyjärjestelmän tyypistä riippuen järjestelmän käyttö voi vaikuttaa muihin henkilöihin kuin käyttöönottajaan.
(14)
El concepto de «datos biométricos» empleado en el presente Reglamento debe interpretarse a la luz del concepto de «datos biométricos» tal como se define en el artículo 4, punto 14, del Reglamento (UE) 2016/679, en el artículo 3, punto 18, del Reglamento (UE) 2018/1725, y en el artículo 3, punto 13, de la Directiva (UE) 2016/680. Los datos biométricos pueden permitir la autenticación, la identificación o la categorización de las personas físicas y el reconocimiento de las emociones de las personas físicas.
(14)
Tässä asetuksessa käytettyä biometristen tietojen käsitettä olisi tulkittava asetuksen (EU) 2016/679 4 artiklan 14 alakohdassa, asetuksen (EU) 2018/1725 3 artiklan 18 alakohdassa ja direktiivin (EU) 2016/680 3 artiklan 13 alakohdassa määritellyn biometristen tietojen käsitteen perusteella. Biometrisen datan avulla voidaan todentaa, tunnistaa tai luokitella luonnollisia henkilöitä ja tunnistaa heidän tunteitaan.
(15)
El concepto de «identificación biométrica» a que hace referencia el presente Reglamento debe definirse como el reconocimiento automatizado de características humanas de tipo físico, fisiológico o conductual, como la cara, el movimiento ocular, la forma del cuerpo, la voz, la entonación, el modo de andar, la postura, la frecuencia cardíaca, la presión arterial, el olor o las características de las pulsaciones de tecla, a fin de determinar la identidad de una persona comparando sus datos biométricos con los datos biométricos de personas almacenados en una base de datos de referencia, independientemente de que la persona haya dado o no su consentimiento. Quedan excluidos los sistemas de IA destinados a la verificación biométrica, que comprende la autenticación, cuyo único propósito es confirmar que una persona física concreta es la persona que dice ser, así como la identidad de una persona física con la finalidad exclusiva de que tenga acceso a un servicio, desbloquee un dispositivo o tenga acceso de seguridad a un local.
(15)
Tässä asetuksessa tarkoitettu biometrisen tunnistuksen käsite olisi määriteltävä ihmisen fyysisten, fysiologisten ja käyttäytymiseen liittyvien ominaisuuksien, kuten kasvojen, silmien liikkeen, kehon muodon, äänen, prosodian, kävelyn, asennon, sydämen lyöntitiheyden, verenpaineen, hajun, näppäinpainallusten tai muiden ominaisuuksien automaattiseksi tunnistamiseksi yksilön henkilöllisyyden toteamiseksi vertaamalla kyseisen yksilön biometrisiä tietoja viitetietokantaan tallennettuihin toisten yksilöiden biometrisiin tietoihin riippumatta siitä, onko kyseinen yksilö antanut tähän suostumustaan. Näihin eivät kuulu tekoälyjärjestelmät, joita on tarkoitus käyttää biometriseen todennukseen, joka käsittää tunnistautumisen, ja joiden ainoana tarkoituksena on vahvistaa, että tietty luonnollinen henkilö on se henkilö, joka hän väittää olevansa, sekä vahvistaa luonnollisen henkilön henkilöllisyys ainoastaan jonkin palvelun käyttämiseksi, laitteen lukituksen poistamiseksi tai valvottuun tilaan pääsemiseksi.
(16)
El concepto de «categorización biométrica» a que hace referencia el presente Reglamento debe definirse como la inclusión de personas físicas en categorías específicas en función de sus datos biométricos. Estas categorías específicas pueden referirse a aspectos como el sexo, la edad, el color del pelo, el color de los ojos, los tatuajes, los rasgos conductuales o de la personalidad, la lengua, la religión, la pertenencia a una minoría nacional o la orientación sexual o política. No se incluyen los sistemas de categorización biométrica que sean una característica meramente accesoria intrínsecamente vinculada a otro servicio comercial, lo que significa que la característica no puede utilizarse, por razones técnicas objetivas, sin el servicio principal y que la integración de dicha característica o funcionalidad no es un medio para eludir la aplicabilidad de las normas del presente Reglamento. Por ejemplo, los filtros que clasifican las características faciales o corporales utilizados en los mercados en línea podrían constituir una característica accesoria de este tipo, ya que solo pueden utilizarse en relación con el servicio principal, que consiste en vender un producto permitiendo al consumidor previsualizar cómo le quedaría y ayudarlo a tomar una decisión de compra. Los filtros utilizados en los servicios de redes sociales que clasifican las características faciales o corporales a fin de que los usuarios puedan añadir o modificar imágenes o vídeos también podrían considerarse una característica accesoria, ya que dichos filtros no pueden utilizarse sin el servicio principal de las redes sociales, que consiste en compartir contenidos en línea.
(16)
Tässä asetuksessa tarkoitettu biometrisen luokittelun käsite olisi määriteltävä luonnollisten henkilöiden luokitteluksi heidän biometristen tietojensa perusteella tiettyihin ryhmiin. Tällaiset ryhmät voivat liittyä esimerkiksi sukupuoleen, ikään, hiustenväriin, silmien väriin, tatuointeihin, käyttäytymiseen tai persoonallisuuspiirteisiin, kieleen, uskontoon, kansalliseen vähemmistöön kuulumiseen taikka seksuaaliseen tai poliittiseen suuntautumiseen. Tähän eivät kuulu biometriset luokittelujärjestelmät, jotka ovat pelkästään toiseen kaupalliseen palveluun olennaisesti liittyvä liitännäistoiminto, mikä tarkoittaa, että kyseistä toimintoa ei voida objektiivisista teknisistä syistä käyttää ilman pääasiallista palvelua, ja kyseisen toiminnon integrointi ei ole keino kiertää tämän asetuksen sääntöjen soveltamista. Esimerkiksi verkkomarkkinapaikoilla käytettävät kasvonpiirteitä tai kehon ominaisuuksia luokittelevat suodattimet voisivat olla tällainen liitännäistoiminto, koska niitä voidaan käyttää ainoastaan pääasiallisen palvelun yhteydessä eli tuotteen myynnissä siten, että kuluttajaa autetaan tekemään ostopäätös esittämällä, miltä tuote näyttäisi hänen yllään. Verkkoyhteisöpalveluissa käytettäviä suodattimia, jotka luokittelevat kasvonpiirteitä tai kehon ominaisuuksia, jotta käyttäjät voivat lisätä kuvia tai videoita tai muokata niitä, voidaan myös pitää liitännäistoimintoina, koska tällaista suodatinta ei voi käyttää ilman pääasiallista palvelua eli verkkoyhteisöpalvelua, jossa sisältöä jaetaan verkossa.
(17)
El concepto de «sistema de identificación biométrica remota» a que hace referencia el presente Reglamento debe definirse de manera funcional como un sistema de IA destinado a identificar a personas físicas sin su participación activa, generalmente a distancia, comparando sus datos biométricos con los que figuren en una base de datos de referencia, con independencia de la tecnología, los procesos o los tipos de datos biométricos concretos que se usen. Estos sistemas de identificación biométrica remota suelen utilizarse para detectar a varias personas o su comportamiento de forma simultánea, a fin de simplificar considerablemente la identificación de personas sin su participación activa. Quedan excluidos los sistemas de IA destinados a la verificación biométrica, que comprende la autenticación, cuyo único propósito es confirmar que una persona física concreta es la persona que dice ser, así como la identidad de una persona física con la finalidad exclusiva de que tenga acceso a un servicio, desbloquee un dispositivo o tenga acceso de seguridad a un local. Esa exclusión se justifica por el hecho de que tales sistemas probablemente tengan una repercusión menor en los derechos fundamentales de las personas físicas que los sistemas de identificación biométrica remota que puedan utilizarse para el tratamiento de los datos biométricos de un gran número de personas sin su participación activa. En el caso de los sistemas «en tiempo real», la recogida de los datos biométricos, la comparación y la identificación se producen de manera instantánea, casi instantánea o, en cualquier caso, sin una importante demora. En este sentido, no debe existir la posibilidad de eludir las normas contempladas en el presente Reglamento en relación con el uso «en tiempo real» de los sistemas de IA de que se trate generando demoras mínimas. Los sistemas «en tiempo real» implican el uso de materiales «en directo» o «casi en directo», como grabaciones de vídeo, generados por una cámara u otro dispositivo con funciones similares. En cambio, en los sistemas «en diferido» ya se han recabado los datos biométricos y la comparación e identificación se producen con una importante demora. A tal fin se utilizan materiales, como imágenes o grabaciones de vídeo captadas por cámaras de televisión en circuito cerrado o dispositivos privados, generados con anterioridad a la utilización del sistema en relación con las personas físicas afectadas.
(17)
Tässä asetuksessa käytetty biometrisen etätunnistusjärjestelmän käsite olisi määriteltävä toiminnallisesti tekoälyjärjestelmäksi, joka on tarkoitettu luonnollisten henkilöiden tunnistamiseen tyypillisesti etäältä ilman heidän aktiivista osallistumistaan vertaamalla henkilön biometrisiä tietoja viitetietokannan sisältämiin biometrisiin tietoihin riippumatta käytetyistä tekniikoista, prosesseista tai biometristen tietojen tyypeistä. Tällaisia biometrisiä etätunnistusjärjestelmiä käytetään tyypillisesti havainnoimaan useita henkilöitä tai heidän käyttäytymistään samanaikaisesti, jotta voidaan merkittävästi helpottaa luonnollisten henkilöiden tunnistamista ilman heidän aktiivista osallistumistaan. Näihin eivät kuulu tekoälyjärjestelmät, joita on tarkoitus käyttää biometriseen todennukseen, joka käsittää tunnistautumisen, ja joiden ainoana tarkoituksena on vahvistaa, että tietty luonnollinen henkilö on se henkilö, joka hän väittää olevansa, sekä vahvistaa luonnollisen henkilön henkilöllisyys ainoastaan jonkin palvelun käyttämiseksi, laitteen lukituksen poistamiseksi tai valvottuun tilaan pääsemiseksi. Tämä soveltamisalan ulkopuolelle jättäminen voidaan perustella sillä, että tällaisilla järjestelmillä on todennäköisesti vähäinen vaikutus luonnollisten henkilöiden perusoikeuksiin verrattuna biometrisiin etätunnistusjärjestelmiin, joita voidaan käyttää suuren ihmismäärän biometristen tietojen käsittelyyn ilman heidän aktiivista osallistumistaan. Reaaliaikaisissa järjestelmissä biometristen tietojen kerääminen, vertailu ja tunnistaminen tapahtuvat välittömästi, lähes välittömästi tai joka tapauksessa ilman merkittävää viivettä. Tältä osin ei pitäisi olla mahdollista kiertää tämän asetuksen sääntöjä, jotka koskevat kyseisten tekoälyjärjestelmien reaaliaikaista käyttöä, käyttämällä vähäisiä viivästyksiä. Reaaliaikaisissa järjestelmissä käytetään kameran tai muun toiminnoltaan samankaltaisen laitteen tuottamaa ”suoraa” tai ”lähes suoraa” materiaalia, kuten videokuvaa. Jälkikäteisissä järjestelmissä biometriset tiedot on sitä vastoin jo kerätty, ja vertailu ja tunnistaminen tapahtuvat vasta merkittävän viiveen jälkeen. Kyse on kameravalvontajärjestelmien tai yksityisten laitteiden tuottamien kuvien tai videokuvan kaltaisesta materiaalista, joka on luotu ennen kuin järjestelmää käytetään asianomaisiin luonnollisiin henkilöihin.
(18)
El concepto de «sistema de reconocimiento de emociones» a que hace referencia el presente Reglamento debe definirse como un sistema de IA destinado a distinguir o deducir las emociones o las intenciones de las personas físicas a partir de sus datos biométricos. El concepto se refiere a emociones o intenciones como la felicidad, la tristeza, la indignación, la sorpresa, el asco, el apuro, el entusiasmo, la vergüenza, el desprecio, la satisfacción y la diversión. No incluye los estados físicos, como el dolor o el cansancio, como, por ejemplo, los sistemas utilizados para detectar el cansancio de los pilotos o conductores profesionales con el fin de evitar accidentes. Tampoco incluye la mera detección de expresiones, gestos o movimientos que resulten obvios, salvo que se utilicen para distinguir o deducir emociones. Esas expresiones pueden ser expresiones faciales básicas, como un ceño fruncido o una sonrisa; gestos como el movimiento de las manos, los brazos o la cabeza, o características de la voz de una persona, como una voz alzada o un susurro.
(18)
Tässä asetuksessa tarkoitettu tunteentunnistusjärjestelmän käsite olisi määriteltävä tekoälyjärjestelmäksi, jonka avulla luonnollisten henkilöiden tunteita tai aikomuksia voidaan tunnistaa tai päätellä heidän biometristen tietojensa perusteella. Tunteilla tai aikomuksilla tarkoitetaan tässä yhteydessä esimerkiksi onnellisuutta, surua, vihaa, yllättyneisyyttä, inhoa, häpeää, kiihtyneisyyttä, halveksuntaa, tyytyväisyyttä ja huvittuneisuutta. Ne eivät sisällä fyysisiä olotiloja, kuten kipua tai väsymystä, mukaan lukien esimerkiksi järjestelmät, joita käytetään ammattilentäjien tai -kuljettajien väsymyksen havaitsemiseen onnettomuuksien ehkäisemiseksi. Sillä ei myöskään viitata pelkkään ilmeisen selvien ilmeiden, eleiden tai liikkeiden havaitsemiseen, ellei niitä käytetä tunteiden tunnistamiseen tai päättelemiseen. Tällaiset ilmeet voivat olla perusilmeitä, kuten rypistynyt otsa tai hymy, tai eleitä, kuten käsien, käsivarsien tai pään liikkeitä, tai henkilön äänen piirteitä, esimerkiksi korotettua ääntä tai kuiskaamista.
(19)
A los efectos del presente Reglamento, debe entenderse que el concepto de «espacio de acceso público» se refiere a cualquier espacio físico al que pueda acceder un número indeterminado de personas físicas y con independencia de si es de propiedad privada o pública y de la actividad para la que pueda utilizarse el espacio, ya sean actividades comerciales, por ejemplo, tiendas, restaurantes, cafeterías; de prestación de servicios, por ejemplo, bancos, actividades profesionales, hostelería; deportivas, por ejemplo, piscinas, gimnasios, estadios; de transporte, por ejemplo, estaciones de autobús, metro y ferrocarril, aeropuertos, medios de transporte; de entretenimiento, por ejemplo, cines, teatros, museos, salas de conciertos, salas de conferencias; de ocio o de otro tipo, por ejemplo, vías y plazas públicas, parques, bosques, parques infantiles. Asimismo, debe considerarse que un espacio es de acceso público si, con independencia de posibles restricciones de capacidad o de seguridad, el acceso está sujeto a determinadas condiciones previamente definidas que puede satisfacer un número indeterminado de personas, como la adquisición de una entrada o un título de transporte, el registro previo o tener una determinada edad. Por el contrario, un espacio no debe considerarse de acceso público si únicamente pueden acceder a él determinadas personas físicas definidas, ya sea en virtud del Derecho de la Unión o del Derecho nacional directamente relacionado con la seguridad pública o en virtud de una clara manifestación de voluntad de la persona que ejerza la autoridad pertinente sobre dicho espacio. La posibilidad real de acceso, como una puerta no cerrada con llave o una verja abierta, no implica por sí sola que el espacio sea de acceso público si hay indicios o circunstancias que sugieran lo contrario, como señales que prohíban o restrinjan el acceso. Los locales de empresas y fábricas, así como las oficinas y lugares de trabajo a los que solo se pretende que accedan los empleados y proveedores de servicios pertinentes, no son espacios de acceso público. No deben incluirse en los espacios de acceso público las prisiones ni las zonas en que se realizan inspecciones fronterizas. Algunos espacios pueden incluir tanto zonas de acceso público como zonas que no son de acceso público, como los aeropuertos o el vestíbulo de un edificio residencial privado por el que se accede a una consulta médica. Los espacios en línea no son lugares de acceso público, ya que no son espacios físicos. No obstante, se debe determinar caso por caso si un espacio es de acceso público o no teniendo en cuenta las particularidades de la situación concreta.
(19)
Tätä asetusta sovellettaessa julkisen tilan käsitteen olisi ymmärrettävä tarkoittavan mitä tahansa fyysistä tilaa, johon määrittämättömällä määrällä luonnollisia henkilöitä on pääsy, riippumatta siitä, onko kyseinen tila yksityisessä vai julkisessa omistuksessa, ja riippumatta toiminnasta, johon tilaa voidaan käyttää, kuten kaupankäyntiin (esimerkiksi kaupat, ravintolat, kahvilat), palveluihin (esimerkiksi pankit, ammatillinen toiminta, majoitus- ja ravitsemisala), urheiluun (esimerkiksi uimahallit, kuntosalit, urheilukentät), liikenteeseen (esimerkiksi linja-auto-, metro- ja rautatieasemat, lentoasemat, liikennevälineet), viihteeseen (esimerkiksi elokuvateatterit, teatterit, museot, konsertti- ja kokoussalit), vapaa-aikaan tai muuhun ajanviettoon (esimerkiksi yleiset tiet ja aukiot, puistot, metsät, leikkikentät). Tila olisi luokiteltava julkiseksi tilaksi myös, jos riippumatta mahdollisista kapasiteetti- tai turvallisuusrajoituksista pääsyyn sovelletaan tiettyjä ennalta määritettyjä edellytyksiä, jotka määrittämätön määrä henkilöitä voi täyttää, kuten lipun tai matkalipun ostamista, ennakkorekisteröitymistä tai tiettyä ikää. Sitä vastoin tilaa ei olisi katsottava julkiseksi tilaksi, jos pääsy on rajattu tietyille ja määritellyille luonnollisille henkilöille joko unionin tai jäsenvaltioiden lainsäädännössä, joka liittyy suoraan yleiseen turvallisuuteen, tai sen henkilön selkeän tahdonilmaisun avulla, jolla on tilaa koskeva asiaankuuluva määräysvalta. Pelkästään pääsyn tosiasiallinen mahdollisuus (esimerkiksi lukitsematon ovi, aidassa oleva avoin portti) ei merkitse sitä, että tila on julkinen tila, jos on olemassa osoituksia tai olosuhteita, jotka viittaavat päinvastaiseen (esimerkiksi pääsyn kieltävät tai sitä rajoittavat merkit). Yritysten ja tehtaiden tilat sekä toimistot ja työpaikat, joihin on tarkoitettu olevan pääsy ainoastaan asiaankuuluvilla työntekijöillä ja palveluntarjoajilla, ovat paikkoja, jotka eivät ole julkisia tiloja. Julkisiin tiloihin ei saisi sisältyä vankiloita tai rajatarkastusasemia. Jotkin muut tilat voivat sisältää sekä tiloja, jotka ovat julkisia, että tiloja, jotka eivät ole julkisia, esimerkiksi yksityisen asuinrakennuksen käytävä, jonka kautta on kuljettava lääkärin vastaanotolle, tai lentoasema. Käsite ei kata myöskään verkkoympäristöjä, sillä ne eivät ole fyysisiä tiloja. Se, onko yleisöllä pääsy tiettyyn tilaan, olisi kuitenkin määritettävä tapauskohtaisesti ottaen huomioon kulloisenkin yksittäisen tilanteen erityispiirteet.
(20)
Con el fin de obtener los mayores beneficios de los sistemas de IA, protegiendo al mismo tiempo los derechos fundamentales, la salud y la seguridad, y de posibilitar el control democrático, la alfabetización en materia de IA debe dotar a los proveedores, responsables del despliegue y personas afectadas de los conceptos necesarios para tomar decisiones con conocimiento de causa en relación con los sistemas de IA. Esos conceptos pueden variar en función del contexto pertinente e incluir el entendimiento de la correcta aplicación de los elementos técnicos durante la fase de desarrollo del sistema de IA, las medidas que deben aplicarse durante su uso, las formas adecuadas de interpretar los resultados de salida del sistema de IA y, en el caso de las personas afectadas, los conocimientos necesarios para comprender el modo en que las decisiones adoptadas con la ayuda de la IA tendrán repercusiones para ellas. En el contexto de la aplicación del presente Reglamento, la alfabetización en materia de IA debe proporcionar a todos los agentes pertinentes de la cadena de valor de la IA los conocimientos necesarios para garantizar el cumplimiento adecuado y la correcta ejecución. Además, la puesta en práctica general de medidas de alfabetización en materia de IA y la introducción de acciones de seguimiento adecuadas podrían contribuir a mejorar las condiciones de trabajo y, en última instancia, sostener la consolidación y la senda de innovación de una IA fiable en la Unión. El Consejo Europeo de Inteligencia Artificial (en lo sucesivo, «Consejo de IA») debe apoyar a la Comisión para promover las herramientas de alfabetización en materia de IA, la sensibilización pública y la comprensión de los beneficios, los riesgos, las salvaguardias, los derechos y las obligaciones en relación con el uso de sistemas de IA. En cooperación con las partes interesadas pertinentes, la Comisión y los Estados miembros deben facilitar la elaboración de códigos de conducta voluntarios para promover la alfabetización en materia de IA entre las personas que se ocupan del desarrollo, el manejo y el uso de la IA.
(20)
Jotta saadaan mahdollisimman paljon hyötyä tekoälyjärjestelmistä ja samalla suojellaan perusoikeuksia, terveyttä ja turvallisuutta ja mahdollistetaan demokraattinen valvonta, tarjoajilla, käyttöönottajilla ja henkilöillä, joihin vaikutukset kohdistuvat, olisi oltava riittävä tekoälylukutaito, jotta he ymmärtävät tarvittavat käsitteet ja voivat tehdä tekoälyjärjestelmiä koskevia tietoon perustuvia päätöksiä. Nämä käsitteet voivat vaihdella asiayhteyden mukaan, ja niitä voivat olla esimerkiksi käsitys teknisten elementtien asianmukaisesta soveltamisesta tekoälyjärjestelmän kehitysvaiheessa, järjestelmän käytön aikana sovellettavista toimenpiteistä ja sopivista tavoista tulkita tekoälyjärjestelmän tuotoksia sekä henkilöiden, joihin vaikutukset kohdistuvat, osalta tarvittava tietämys sen ymmärtämiseksi, miten tekoälyn avulla tehdyt päätökset vaikuttavat heihin. Tämän asetuksen soveltamisen yhteydessä kaikilla tekoälyn arvoketjun asiaankuuluvilla toimijoilla olisi oltava riittävä tekoälylukutaito, jotta voidaan varmistaa asetuksen asianmukainen noudattaminen ja täytäntöönpano. Lisäksi toteuttamalla tekoälylukutaitoa koskevia toimia laaja-alaisesti ja ottamalla käyttöön asianmukaiset jatkotoimet voitaisiin osaltaan parantaa työoloja ja viime kädessä lujittaa luotettavaa tekoälyä ja sen innovointipolkua unionissa. Euroopan tekoälyneuvoston, jäljempänä ”tekoälyneuvosto”, olisi tuettava komissiota, jotta voidaan edistää tekoälylukutaidon välineitä sekä yleistä tietoisuutta ja ymmärrystä tekoälyjärjestelmien käyttöön liittyvistä hyödyistä, riskeistä, suojatoimista, oikeuksista ja velvollisuuksista. Komission ja jäsenvaltioiden olisi yhteistyössä asiaankuuluvien sidosryhmien kanssa edistettävä vapaaehtoisten käytännesääntöjen laatimista, jotta voidaan parantaa tekoälyn kehittämisestä, toiminnasta ja käytöstä vastaavien henkilöiden tekoälylukutaitoa.
(21)
Con el objetivo de garantizar la igualdad de condiciones y la protección efectiva de los derechos y libertades de las personas en toda la Unión, las normas establecidas en el presente Reglamento deben aplicarse a los proveedores de sistemas de IA sin discriminación, con independencia de si están establecidos en la Unión o en un tercer país, y a los responsables del despliegue de sistemas de IA establecidos en la Unión.
(21)
Jotta voidaan varmistaa tasapuoliset toimintaedellytykset ja yksilöiden oikeuksien ja vapauksien tehokas suojelu kaikkialla unionissa, tällä asetuksella vahvistettuja sääntöjä olisi sovellettava tekoälyjärjestelmien tarjoajiin syrjimättömällä tavalla riippumatta siitä, ovatko ne sijoittautuneet unioniin vai kolmanteen maahan, sekä unioniin sijoittautuneisiin tekoälyjärjestelmien käyttöönottajiin.
(22)
Debido a su carácter digital, algunos sistemas de IA deben entrar en el ámbito de aplicación del presente Reglamento aunque no se introduzcan en el mercado, se pongan en servicio ni se utilicen en la Unión. Esto sucede, por ejemplo, cuando un operador establecido en la Unión firma con un operador establecido en un tercer país un contrato para la prestación de determinados servicios en relación con una actividad que llevará a cabo un sistema de IA que se consideraría de alto riesgo. En dichas circunstancias, el sistema de IA usado en un tercer país por el operador podría tratar datos recabados lícitamente en la Unión y transferidos desde su territorio, y proporcionar al operador contratante ubicado en la Unión los resultados de salida generados por dicho sistema de IA a raíz de este tratamiento sin que el sistema de IA de que se trate se introduzca en el mercado, se ponga en servicio o se utilice en la Unión. Para evitar la elusión de este Reglamento y garantizar la protección efectiva de las personas físicas ubicadas en la Unión, el presente Reglamento también debe aplicarse a los proveedores y responsables del despliegue de sistemas de IA establecidos en un tercer país, en la medida en que los resultados de salida generados por dichos sistemas estén destinados a utilizarse en la Unión. No obstante, con el objetivo de tener en cuenta los acuerdos existentes y las necesidades especiales de cooperación futura con socios extranjeros con los que se intercambian información y pruebas, el presente Reglamento no debe aplicarse a las autoridades públicas de un tercer país ni a organizaciones internacionales cuando actúen en el marco de acuerdos internacionales o de cooperación celebrados a escala nacional o de la Unión con fines de cooperación policial y judicial con la Unión o sus Estados miembros si el tercer país o la organización internacional correspondiente ofrece garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas. Cuando proceda, ello podrá incluir las actividades de entidades a las que los terceros países hayan encomendado tareas específicas en apoyo de dicha cooperación policial y judicial. Dichos marcos de cooperación o acuerdos se han establecido bilateralmente entre los Estados miembros y terceros países o entre la Unión Europea, Europol y otros órganos de la Unión y terceros países y organizaciones internacionales. Las autoridades competentes para la supervisión de las autoridades policiales y judiciales en virtud del presente Reglamento deben evaluar si dichos marcos de cooperación o acuerdos internacionales incluyen garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas. Las autoridades nacionales y las instituciones, órganos y organismos de la Unión que sean destinatarios de dichos resultados de salida y que la utilicen en la Unión siguen siendo responsables de garantizar que su utilización de la información está en consonancia con el Derecho de la Unión. Cuando, en el futuro, dichos acuerdos internacionales se revisen o se celebren otros nuevos, las partes contratantes deben hacer todo lo posible por que dichos acuerdos se ajusten a los requisitos del presente Reglamento.
(22)
Tiettyjen tekoälyjärjestelmien digitaalisen luonteen vuoksi niiden olisi kuuluttava tämän asetuksen soveltamisalaan myös silloin, kun niitä ei saateta markkinoille, oteta käyttöön eikä käytetä unionissa. Tämä koskee esimerkiksi tilanteita, joissa unioniin sijoittautunut toimija hankkii tiettyjä palveluja kolmanteen maahan sijoittautuneelta toimijalta sellaisen tekoälyjärjestelmän toteuttaman toiminnon osalta, joka katsotaan suuririskiseksi. Tällaisessa tapauksessa kolmanteen maahan sijoittautuneen toimijan käyttämä tekoälyjärjestelmä voisi käsitellä dataa, joka on kerätty unionissa ja siirretty sieltä laillisesti, ja toimittaa unionissa sijaitsevalle hankintasopimuksen tehneelle toimijalle tästä käsittelystä saatavia tekoälyjärjestelmän tuloksia ilman, että kyseistä tekoälyjärjestelmää saatetaan markkinoille, otetaan käyttöön tai käytetään unionissa. Jotta estettäisiin tämän asetuksen kiertäminen ja varmistettaisiin unionissa sijaitsevien luonnollisten henkilöiden tehokas suojelu, tätä asetusta olisi sovellettava myös kolmanteen maahan sijoittautuneisiin tekoälyjärjestelmien tarjoajiin ja käyttöönottajiin siltä osin kuin kyseisten järjestelmien tuottamaa tuotosta on tarkoitus käyttää unionissa.Jotta otettaisiin kuitenkin huomioon olemassa olevat järjestelyt ja erityiset tarpeet tulevaan yhteistyöhön sellaisten ulkomaisten kumppanien kanssa, joiden kanssa vaihdetaan tietoja ja todisteita, tätä asetusta ei pitäisi soveltaa kolmannen maan viranomaisiin eikä kansainvälisiin järjestöihin, kun ne toimivat unionin tai sen jäsenvaltioiden kanssa yhteistyössä tai unionin tai kansallisella tasolla tehtyjen lainvalvontaa ja rikosoikeudellista yhteistyötä koskevien kansainvälisten sopimusten puitteissa edellyttäen, että asiaankuuluva kolmas maa tai kansainvälinen järjestö antaa yksityisyydensuojaa, perusoikeuksia ja yksilön vapauksia koskevat riittävät takeet. Tarvittaessa tämä voi kattaa sellaisten yhteisöjen toimet, joille kolmannet maat ovat antaneet erityistehtäviä, joilla tuetaan tällaista lainvalvonta- ja oikeusyhteistyötä. Tällaisia yhteistyökehyksiä on otettu käyttöön ja tällaisia sopimuksia on tehty kahdenvälisesti jäsenvaltioiden ja kolmansien maiden välillä tai Euroopan unionin, Europolin ja muiden unionin virastojen sekä kolmansien maiden ja kansainvälisten järjestöjen välillä. Viranomaisten, joilla on tämän asetuksen nojalla toimivalta valvoa lainvalvonta- ja oikeusviranomaisia, olisi arvioitava, sisältävätkö nämä yhteistyökehykset tai kansainväliset sopimukset riittävät takeet yksilöiden perusoikeuksien ja -vapauksien suojelemiseksi. Vastaanottavat kansalliset viranomaiset ja unionin toimielimet, elimet ja laitokset, jotka käyttävät tällaisia tuotoksia unionissa, vastaavat sen varmistamisesta, että niiden käyttö on unionin oikeuden mukaista. Kun kyseisiä kansainvälisiä sopimuksia tarkistetaan tai uusia sopimuksia tehdään tulevaisuudessa, sopimuspuolten olisi pyrittävä kaikin keinoin saattamaan kyseiset sopimukset tämän asetuksen vaatimusten mukaisiksi.
(23)
El presente Reglamento también debe aplicarse a las instituciones, órganos y organismos de la Unión cuando actúen como proveedores o responsables del despliegue de un sistema de IA.
(23)
Tätä asetusta olisi sovellettava myös unionin toimielimiin, elimiin ja laitoksiin, kun ne toimivat tekoälyjärjestelmän tarjoajana tai käyttöönottajana.
(24)
En caso de que, y en la medida en que, los sistemas de IA se introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin modificación, con fines militares, de defensa o de seguridad nacional, deben excluirse del ámbito de aplicación del presente Reglamento, independientemente del tipo de entidad que lleve a cabo esas actividades, por ejemplo, con independencia de que se trate de una entidad pública o de una entidad privada. Por lo que respecta a los fines militares y de defensa, dicha exclusión está justificada tanto por el artículo 4, apartado 2, del TUE como por las especificidades de la política de defensa de los Estados miembros y de la política común de defensa de la Unión a que se refiere el título V, capítulo 2, del TUE, que están sujetas al Derecho internacional público que, por lo tanto, es el marco jurídico más adecuado para la regulación de los sistemas de IA en el contexto del uso de la fuerza letal y de otros sistemas de IA en el contexto de las actividades militares y de defensa. Por lo que respecta a los fines de seguridad nacional, la exclusión está justificada tanto por el hecho de que la seguridad nacional sigue siendo responsabilidad exclusiva de los Estados miembros de conformidad con el artículo 4, apartado 2, del TUE, como por la naturaleza específica y las necesidades operativas de las actividades de seguridad nacional y por las normas nacionales específicas aplicables a dichas actividades. No obstante, si un sistema de IA desarrollado, introducido en el mercado, puesto en servicio o utilizado con fines militares, de defensa o de seguridad nacional se utilizara temporal o permanentemente fuera de estos ámbitos con otros fines (por ejemplo, con fines civiles o humanitarios, de garantía del cumplimiento del Derecho o de seguridad pública), dicho sistema entraría en el ámbito de aplicación del presente Reglamento. En tal caso, la entidad que utilice el sistema de IA con fines que no sean militares, de defensa o de seguridad nacional debe garantizar que el sistema de IA cumple lo dispuesto en el presente Reglamento, a menos que el sistema ya lo haga. Los sistemas de IA introducidos en el mercado o puestos en servicio para un fin excluido, a saber, militar, de defensa o de seguridad nacional, y uno o varios fines no excluidos, como fines civiles o de garantía del cumplimiento del Derecho, entran en el ámbito de aplicación del presente Reglamento y los proveedores de dichos sistemas deben garantizar el cumplimiento del presente Reglamento. En esos casos, el hecho de que un sistema de IA pueda entrar en el ámbito de aplicación del presente Reglamento no debe afectar a la posibilidad de que las entidades que llevan a cabo actividades militares, de defensa y de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades, utilicen sistemas de IA con fines de seguridad nacional, militares y de defensa, cuyo uso está excluido del ámbito de aplicación del presente Reglamento. Un sistema de IA introducido en el mercado con fines civiles o de garantía del cumplimiento del Derecho que se utilice, con o sin modificaciones, con fines militares, de defensa o de seguridad nacional no debe entrar en el ámbito de aplicación del presente Reglamento, independientemente del tipo de entidad que lleve a cabo esas actividades.
(24)
Jos ja siltä osin kuin tekoälyjärjestelmiä saatetaan markkinoille, otetaan käyttöön tai käytetään tällaisten järjestelmien muutoksin tai ilman muutoksia sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin, ne olisi suljettava tämän asetuksen soveltamisalan ulkopuolelle riippumatta siitä, minkä tyyppinen toimija toteuttaa näitä toimia, esimerkiksi siitä, onko se julkinen vai yksityinen toimija. Kun kyseessä ovat sotilaalliset ja puolustustarkoitukset, tällainen soveltamisalan ulkopuolelle sulkeminen perustuu sekä SEU-sopimuksen 4 artiklan 2 kohtaan että SEU-sopimuksen V osaston 2 luvun piiriin kuuluvan jäsenvaltioiden puolustuspolitiikan ja unionin yhteisen puolustuspolitiikan erityispiirteisiin, joihin sovelletaan kansainvälistä julkisoikeutta, joka on näin ollen asianmukaisempi oikeuskehys tekoälyjärjestelmien sääntelylle tappavan voimankäytön yhteydessä ja muiden tekoälyjärjestelmien sääntelylle sotilas- ja puolustustoimien yhteydessä. Kun kyseessä ovat kansallisen turvallisuuden tarkoitukset, tällainen soveltamisalan ulkopuolelle sulkeminen perustuu sekä siihen, että kansallinen turvallisuus kuuluu jäsenvaltioiden yksinomaiseen toimivaltaan SEU 4 artiklan 2 kohdan mukaisesti, että kansallisen turvallisuuden toimien erityisluonteeseen ja operatiivisiin tarpeisiin ja näihin toimiin sovellettaviin erityisiin kansallisiin sääntöihin. Jos sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin kehitettyä, markkinoille saatettua, käyttöön otettua tai käytettyä tekoälyjärjestelmää kuitenkin käytetään väliaikaisesti tai pysyvästi muihin tarkoituksiin, esimerkiksi siviili- tai humanitaarisiin tarkoituksiin, lainvalvonnan tai yleisen turvallisuuden tarkoituksiin, järjestelmä kuuluu tämän asetuksen soveltamisalaan. Tässä tapauksessa toimijan, joka käyttää tekoälyjärjestelmää muihin kuin sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin, olisi varmistettava, että tekoälyjärjestelmässä noudatetaan tätä asetusta, jollei järjestelmässä jo noudateta tätä asetusta. Tekoälyjärjestelmät, jotka saatetaan markkinoille tai otetaan käyttöön soveltamisalan ulkopuolelle jääviin tarkoituksiin eli sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin ja yhteen tai useampaan soveltamisalaan kuuluvaan tarkoitukseen, kuten siviilitarkoituksiin tai lainvalvonnan tarkoituksiin, kuuluvat tämän asetuksen soveltamisalaan ja näiden järjestelmien tarjoajien olisi varmistettava tämän asetuksen noudattaminen. Näissä tapauksissa sen seikan, että tekoälyjärjestelmä voi kuulua tämän asetuksen soveltamisalaan, ei saisi vaikuttaa kansallisen turvallisuuden, puolustuksen ja sotilaallisia toimia toteuttavien toimijoiden, riippumatta siitä, minkä tyyppinen toimija toteuttaa näitä toimia, mahdollisuuteen käyttää tekoälyjärjestelmiä, joiden käyttö on suljettu tämän asetuksen soveltamisalan ulkopuolelle, kansallisen turvallisuuden, sotilaallisiin ja puolustuksen tarkoituksiin. Tekoälyjärjestelmän, joka saatetaan markkinoille siviili- tai lainvalvontatarkoituksia varten ja jota käytetään muutoksin tai ilman muutoksia sotilaallisiin, puolustuksen tai kansallisen turvallisuuden tarkoituksiin, ei pitäisi kuulua tämän asetuksen soveltamisalaan riippumatta siitä, minkä tyyppinen toimija toteuttaa näitä toimia.
(25)
El presente Reglamento debe apoyar la innovación, respetar la libertad de ciencia y no socavar la actividad de investigación y desarrollo. Por consiguiente, es necesario excluir de su ámbito de aplicación los sistemas y modelos de IA desarrollados específicamente y puestos en servicio únicamente con fines de investigación y desarrollo científicos. Además, es necesario garantizar que el presente Reglamento no afecte de otro modo a la actividad de investigación y desarrollo científicos sobre sistemas o modelos de IA antes de su introducción en el mercado o su puesta en servicio. Por lo que se refiere a la actividad de investigación, prueba y desarrollo orientada a productos en relación con sistemas o modelos de IA, las disposiciones del presente Reglamento tampoco deben aplicarse antes de que dichos sistemas y modelos se pongan en servicio o se introduzcan en el mercado. Esa exclusión se entiende sin perjuicio de la obligación de cumplir el presente Reglamento cuando se introduzca en el mercado o se ponga en servicio como resultado de dicha actividad de investigación y desarrollo un sistema de IA que entre en el ámbito de aplicación del presente Reglamento, así como de la aplicación de disposiciones sobre espacios controlados de pruebas para la IA y pruebas en condiciones reales. Además, sin perjuicio de la exclusión de los sistemas de IA desarrollados específicamente y puestos en servicio únicamente con fines de investigación y desarrollo científicos, cualquier otro sistema de IA que pueda utilizarse para llevar a cabo cualquier actividad de investigación y desarrollo debe seguir estando sujeto a las disposiciones del presente Reglamento. En cualquier caso, toda actividad de investigación y desarrollo debe llevarse a cabo de conformidad con normas éticas y profesionales reconocidas para la investigación científica y con el Derecho aplicable de la Unión.
(25)
Tällä asetuksella olisi tuettava innovointia, kunnioitettava tieteen vapautta, eikä se saisi heikentää tutkimus- ja kehitystoimintaa. Sen vuoksi on tarpeen jättää sen soveltamisalan ulkopuolelle tekoälyjärjestelmät ja -mallit, jotka on erityisesti kehitetty ja otettu käyttöön yksinomaan tieteellistä tutkimusta ja kehittämistoimintaa varten. Lisäksi on tarpeen varmistaa, että tämä asetus ei muulla tavoin vaikuta tekoälyjärjestelmiä tai -malleja koskevaan tieteelliseen tutkimukseen ja kehittämistoimintaan ennen niiden markkinoille saattamista tai käyttöönottoa. Tekoälyjärjestelmiä tai -malleja koskevan tuotesuuntautuneen tutkimus-, testaus- ja kehittämistoiminnan osalta tämän asetuksen säännöksiä ei myöskään pitäisi soveltaa ennen näiden järjestelmien ja mallien käyttöönottoa tai markkinoille saattamista. Tämä poissulkeminen ei rajoita velvoitetta noudattaa tätä asetusta, kun tämän asetuksen soveltamisalaan kuuluva tekoälyjärjestelmä saatetaan markkinoille tai otetaan käyttöön tällaisen tutkimus- ja kehitystoiminnan tuloksena, eikä tekoälyn sääntelyn testiympäristöjä ja tosielämän olosuhteissa tapahtuvaa testausta koskevien säännösten soveltamista. Lisäksi kaikkiin muihin tekoälyjärjestelmiin, joita voidaan käyttää tutkimus- ja kehitystoimintaan, olisi sovellettava tämän asetuksen säännöksiä, rajoittamatta sellaisten tekoälyjärjestelmien poissulkemista, jotka on erityisesti kehitetty ja otettu käyttöön yksinomaan tieteellistä tutkimusta ja kehitystoimintaa varten. Kaikissa tutkimus- ja kehitystoimissa olisi joka tapauksessa noudatettava tunnustettuja tutkimuseettisiä ja -ammatillisia periaatteita sekä sovellettavaa unionin oikeutta.
(26)
Con el fin de establecer un conjunto proporcionado y eficaz de normas vinculantes para los sistemas de IA, es preciso aplicar un enfoque basado en los riesgos claramente definido, que adapte el tipo y contenido de las normas a la intensidad y el alcance de los riesgos que puedan generar los sistemas de IA de que se trate. Por consiguiente, es necesario prohibir determinadas prácticas de IA que no son aceptables, definir los requisitos que deben cumplir los sistemas de IA de alto riesgo y las obligaciones aplicables a los operadores pertinentes, así como imponer obligaciones de transparencia a determinados sistemas de IA.
(26)
Tekoälyjärjestelmiä koskevien oikeasuhteisten ja tehokkaiden sitovien sääntöjen käyttöön ottamiseksi olisi noudatettava selkeästi määriteltyä riskiperusteista lähestymistapaa. Tässä lähestymistavassa tällaisten sääntöjen tyyppi ja sisältö olisi sovitettava niiden riskien voimakkuuden ja laajuuden mukaan, joita tekoälyjärjestelmät voivat aiheuttaa. Sen vuoksi on tarpeen kieltää tietyt tekoälyyn liittyvät käytännöt, joita ei voida hyväksyä, vahvistaa suuririskisiä tekoälyjärjestelmiä koskevat vaatimukset ja asianomaisten toimijoiden velvollisuudet sekä asettaa avoimuusvelvoitteita tietyille tekoälyjärjestelmille.
(27)
Si bien el enfoque basado en el riesgo es la base de un conjunto proporcionado y eficaz de normas vinculantes, es importante recordar las Directrices éticas para una IA fiable, de 2019, elaboradas por el Grupo independiente de expertos de alto nivel sobre IA creado por la Comisión. En dichas directrices, el Grupo independiente de expertos de alto nivel sobre IA desarrolló siete principios éticos no vinculantes para la IA que tienen por objeto contribuir a garantizar la fiabilidad y el fundamento ético de la IA. Los siete principios son: acción y supervisión humanas; solidez técnica y seguridad; gestión de la privacidad y de los datos; transparencia; diversidad, no discriminación y equidad; bienestar social y ambiental, y rendición de cuentas. Sin perjuicio de los requisitos jurídicamente vinculantes del presente Reglamento y de cualquier otro acto aplicable del Derecho de la Unión, esas directrices contribuyen al diseño de una IA coherente, fiable y centrada en el ser humano, en consonancia con la Carta y con los valores en los que se fundamenta la Unión. De acuerdo con las directrices del Grupo independiente de expertos de alto nivel sobre IA, por «acción y supervisión humanas» se entiende que los sistemas de IA se desarrollan y utilizan como herramienta al servicio de las personas, que respeta la dignidad humana y la autonomía personal, y que funciona de manera que pueda ser controlada y vigilada adecuadamente por seres humanos. Por «solidez técnica y seguridad» se entiende que los sistemas de IA se desarrollan y utilizan de manera que sean sólidos en caso de problemas y resilientes frente a los intentos de alterar el uso o el funcionamiento del sistema de IA para permitir su uso ilícito por terceros y reducir al mínimo los daños no deseados. Por «gestión de la privacidad y de los datos» se entiende que los sistemas de IA se desarrollan y utilizan de conformidad con normas en materia de protección de la intimidad y de los datos, al tiempo que tratan datos que cumplen normas estrictas en términos de calidad e integridad. Por «transparencia» se entiende que los sistemas de IA se desarrollan y utilizan de un modo que permita una trazabilidad y explicabilidad adecuadas, y que, al mismo tiempo, haga que las personas sean conscientes de que se comunican o interactúan con un sistema de IA e informe debidamente a los responsables del despliegue acerca de las capacidades y limitaciones de dicho sistema de IA y a las personas afectadas acerca de sus derechos. Por «diversidad, no discriminación y equidad» se entiende que los sistemas de IA se desarrollan y utilizan de un modo que incluya a diversos agentes y promueve la igualdad de acceso, la igualdad de género y la diversidad cultural, al tiempo que se evitan los efectos discriminatorios y los sesgos injustos prohibidos por el Derecho nacional o de la Unión. Por «bienestar social y ambiental» se entiende que los sistemas de IA se desarrollan y utilizan de manera sostenible y respetuosa con el medio ambiente, así como en beneficio de todos los seres humanos, al tiempo que se supervisan y evalúan los efectos a largo plazo en las personas, la sociedad y la democracia. La aplicación de esos principios debe traducirse, cuando sea posible, en el diseño y el uso de modelos de IA. En cualquier caso, deben servir de base para la elaboración de códigos de conducta en virtud del presente Reglamento. Se anima a todas las partes interesadas, incluidos la industria, el mundo académico, la sociedad civil y las organizaciones de normalización, a que tengan en cuenta, según proceda, los principios éticos para el desarrollo de normas y mejores prácticas voluntarias.
(27)
Riskiperusteinen lähestymistapa toimii perustana oikeasuhteisille ja tehokkaille sitoville säännöille. On kuitenkin tärkeää palauttaa mieleen komission nimittämän tekoälyä käsittelevän korkean tason asiantuntijaryhmän laatimat luotettavaa tekoälyä koskevat eettiset ohjeet vuodelta 2019. Asiantuntijaryhmä laati näihin ohjeisiin seitsemän ei-sitovaa tekoälyä koskevaa eettistä periaatetta, joiden on tarkoitus auttaa varmistamaan, että tekoäly on luotettavaa ja eettisesti hyväksyttävää. Nämä seitsemän periaatetta ovat ihmisen toimijuus ja ihmisen suorittama valvonta, tekninen vakaus ja turvallisuus, yksityisyyden suoja ja datanhallinta, avoimuus, monimuotoisuus, syrjimättömyys ja oikeudenmukaisuus sekä yhteiskunnallinen ja ympäristöön liittyvä hyvinvointi ja vastuuvelvollisuus. Eettisillä ohjeilla edistetään johdonmukaisen, luotettavan ja ihmiskeskeisen tekoälyn suunnittelua perusoikeuskirjan ja unionin perustana olevien arvojen mukaisesti, sanotun kuitenkaan rajoittamatta tämän asetuksen oikeudellisesti sitovien vaatimusten ja muun sovellettavan unionin oikeuden soveltamista. Tekoälyä käsittelevän korkean tason asiantuntijaryhmän eettisten ohjeiden mukaan ihmisen toimijuudella ja ihmisen suorittamalla valvonnalla tarkoitetaan, että tekoälyjärjestelmät kehitetään työkaluiksi ja niitä käytetään työkaluina, jotka palvelevat ihmisiä, kunnioittavat ihmisarvoa ja itsemääräämisoikeutta ja toimivat siten, että ihmisen on mahdollista hallita ja valvoa niitä.Teknisellä vakaudella ja turvallisuudella tarkoitetaan, että tekoälyjärjestelmät kehitetään ja niitä käytetään tavalla, jolla tahattomat ongelmatilanteet voidaan ratkaista vakaasti, jolla tekoälyjärjestelmä voi palautua yrityksistä muuttaa sen käyttöä tai toimintaa siten, että kolmannet osapuolet voisivat käyttää sitä laittomasti, ja jolla pidetään tahattomat haitat mahdollisimman vähäisinä. Yksityisyydellä ja datanhallinnalla tarkoitetaan, että tekoälyjärjestelmät kehitetään ja niitä käytetään yksityisyydensuojaa ja tietosuojaa koskevien säännösten mukaisesti käsiteltäessä tietoja, jotka täyttävät tiukat vaatimukset laadun ja eheyden osalta. Avoimuudella tarkoitetaan, että tekoälyjärjestelmiä kehitetään ja käytetään tavalla, joka mahdollistaa asianmukaisen jäljitettävyyden ja selitettävyyden, saa ihmiset tietoiseksi siitä, että he viestivät tai ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ja tiedottaa käyttöönottajille asianmukaisesti kulloisenkin tekoälyjärjestelmän suorituskykyyn liittyvistä valmiuksista ja rajoituksista sekä henkilöille, joihin vaikutukset kohdistuvat, heidän oikeuksistaan. Monimuotoisuudella, syrjimättömyydellä ja oikeudenmukaisuudella tarkoitetaan, että tekoälyjärjestelmiä kehitetään ja käytetään tavalla, jossa on mukana monimuotoisia toimijoita ja jolla edistetään yhtäläisiä mahdollisuuksia, sukupuolten tasa-arvoa ja kulttuurien monimuotoisuutta ja vältetään unionin tai kansallisessa lainsäädännössä kiellettyjä syrjiviä vaikutuksia ja epäoikeudenmukaisia vääristymiä. Sosiaalisella ja ympäristöön liittyvällä hyvinvoinnilla tarkoitetaan, että tekoälyjärjestelmiä kehitetään ja käytetään kestävällä ja ympäristöystävällisellä tavalla sekä siten, että ne ovat hyödyksi kaikille ihmisille, seuraten ja arvioiden samalla pitkän aikavälin vaikutuksia yksilöihin, yhteyskuntaan ja demokratiaan. Nämä periaatteet olisi mahdollisuuksien mukaan otettava huomioon tekoälymallien suunnittelussa ja käytössä. Niiden olisi joka tapauksessa toimittava perustana, kun tämän asetuksen mukaiset käytännesäännöt laaditaan. Kaikkia sidosryhmiä, kuten teollisuutta, tiedeyhteisöä, kansalaisyhteiskuntaa ja standardointijärjestöjä, kannustetaan ottamaan tarvittaessa huomioon eettiset periaatteet, kun ne kehittävät vapaaehtoisia parhaita käytäntöjä ja standardeja.
(28)
Al margen de los múltiples usos beneficiosos de la IA, esta también puede utilizarse indebidamente y proporcionar nuevas y poderosas herramientas para llevar a cabo prácticas de manipulación, explotación y control social. Dichas prácticas son sumamente perjudiciales e incorrectas y deben estar prohibidas, pues van en contra de los valores de la Unión de respeto de la dignidad humana, la libertad, la igualdad, la democracia y el Estado de Derecho y de los derechos fundamentales consagrados en la Carta, como el derecho a la no discriminación, a la protección de datos y a la intimidad y los derechos del niño.
(28)
Tekoälyn monien hyödyllisten käyttötarkoitusten lisäksi sitä voidaan myös käyttää väärin, ja se voi tarjota uusia ja tehokkaita välineitä käytäntöihin, joihin liittyy manipulointia, hyväksikäyttöä ja sosiaalista valvontaa. Tällaiset käytännöt ovat erityisen haitallisia ja loukkaavia, ja ne olisi kiellettävä, koska ne ovat ihmisarvon kunnioittamista, vapautta, tasa-arvoa, demokratiaa ja oikeusvaltiota koskevien unionin arvojen sekä perusoikeuskirjassa vahvistettujen perusoikeuksien vastaisia, mukaan lukien oikeus syrjimättömyyteen, tietosuoja ja yksityisyyden suoja sekä lapsen oikeudet.
(29)
Las técnicas de manipulación que posibilita la IA pueden utilizarse para persuadir a las personas de que adopten comportamientos no deseados o para engañarlas empujándolas a tomar decisiones de una manera que socava y perjudica su autonomía, su toma de decisiones y su capacidad de elegir libremente. Son especialmente peligrosos y, por tanto, deben prohibirse la introducción en el mercado, la puesta en servicio o la utilización de determinados sistemas de IA con el objetivo o al efecto de alterar de manera sustancial el comportamiento humano, con la consiguiente probabilidad de que se produzcan perjuicios considerables, en particular perjuicios con efectos adversos suficientemente importantes en la salud física o mental o en los intereses financieros. Esos sistemas de IA utilizan componentes subliminales, como estímulos de audio, imagen o vídeo que las personas no pueden percibir —ya que dichos estímulos trascienden la percepción humana—, u otras técnicas manipulativas o engañosas que socavan o perjudican la autonomía, la toma de decisiones o la capacidad de elegir libremente de las personas de maneras de las que estas no son realmente conscientes de dichas técnicas o, cuando lo son, pueden seguir siendo engañadas o no pueden controlarlas u oponerles resistencia. Esto podría facilitarse, por ejemplo, mediante interfaces cerebro-máquina o realidad virtual, dado que permiten un mayor grado de control acerca de qué estímulos se presentan a las personas, en la medida en que pueden alterar sustancialmente su comportamiento de un modo que suponga un perjuicio considerable. Además, los sistemas de IA también pueden explotar de otras maneras las vulnerabilidades de una persona o un colectivo específico de personas derivadas de su edad, su discapacidad en el sentido de lo dispuesto en la Directiva (UE) 2019/882 del Parlamento Europeo y del Consejo (16) o de una situación social o económica concreta que probablemente aumente su vulnerabilidad a la explotación, como vivir en condiciones de pobreza extrema o pertenecer a minorías étnicas o religiosas. Estos sistemas de IA pueden introducirse en el mercado, ponerse en servicio o utilizarse con el objetivo de alterar de manera sustancial el comportamiento de una persona, o tener ese efecto, y de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona o a otra persona o colectivo de personas, incluidos perjuicios que pueden acumularse a lo largo del tiempo y que, por tanto, deben prohibirse. No puede presuponerse que existe la intención de alterar el comportamiento si la alteración es el resultado de factores externos al sistema de IA que escapan al control del proveedor o del responsable del despliegue, a saber, factores que no es lógico prever y que, por tanto, el proveedor o el responsable del despliegue del sistema de IA no pueden mitigar. En cualquier caso, no es necesario que el proveedor o el responsable del despliegue tengan la intención de causar un perjuicio considerable, siempre que dicho perjuicio se derive de las prácticas de manipulación o explotación que posibilita la IA. La prohibición de tales prácticas de IA complementa lo dispuesto en la Directiva 2005/29/CE del Parlamento Europeo y del Consejo (17), en particular la prohibición, en cualquier circunstancia, de las prácticas comerciales desleales que causan perjuicios económicos o financieros a los consumidores, hayan sido establecidas mediante de sistemas de IA o de otra manera. La prohibición de las prácticas de manipulación y explotación establecida en el presente Reglamento no debe afectar a prácticas lícitas en el contexto de un tratamiento médico, como el tratamiento psicológico de una enfermedad mental o la rehabilitación física, cuando dichas prácticas se lleven a cabo de conformidad con el Derecho y las normas médicas aplicables, por ejemplo, con el consentimiento expreso de las personas o de sus representantes legales. Asimismo, no debe considerarse que las prácticas comerciales comunes y legítimas (por ejemplo, en el campo de la publicidad) que cumplan el Derecho aplicable son, en sí mismas, prácticas de manipulación perjudiciales que posibilita la IA.
(29)
Tekoälyä hyödyntäviä manipulointitekniikoita voidaan käyttää taivuttelemaan henkilöitä haitallisiin käyttäytymismalleihin tai harhauttamaan heitä suuntaamalla heitä tekemään päätöksiä tavalla, joka horjuttaa ja heikentää heidän itsenäisyyttään, päätöksentekoaan ja valinnanvapauttaan. Sellaisten tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tai käyttö, joiden tarkoitus on vääristää olennaisesti tai joiden käytön tuloksena vääristetään olennaisesti ihmisten käyttäytymistä, mistä todennäköisesti aiheutuu huomattavia haittoja, joilla on erityisesti riittävän merkittävä kielteinen vaikutus fyysiseen tai psyykkiseen terveyteen taikka taloudellisiin etuihin, on erityisen vaarallista ja se olisi näin ollen kiellettävä. Tällaisissa tekoälyjärjestelmissä käytetään subliminaalisia komponentteja, kuten ääni-, kuva- ja videoärsykkeitä, joita henkilöt eivät voi havaita, koska tällaiset ärsykkeet ovat ihmisen havaitsemiskyvyn ulkopuolella, tai muita manipuloivia tai harhaanjohtavia tekniikkoja, joilla horjutetaan tai heikennetään henkilön itsenäisyyttä, päätöksentekoa ja valinnanvapautta tavoilla, joista ihmiset eivät ole tietoisia tai vaikka olisivatkin, he voivat silti tulla harhaanjohdetuiksi tai eivät pysty hallitsemaan tai vastustamaan niitä. Tällaista harhaanjohtamista voisivat helpottaa esimerkiksi aivojen ja tietokoneen rajapinnat tai virtuaalitodellisuus, koska niiden avulla voidaan paremmin hallita sitä, mitä ärsykkeitä esitetään henkilöille, siinä määrin kuin ne voivat vääristää olennaisesti heidän käyttäytymistään merkittävästi haitallisella tavalla. Lisäksi tekoälyjärjestelmissä voidaan myös muutoin hyödyntää henkilön tai tietyn henkilöryhmän haavoittuvuuksia, jotka liittyvät heidän ikäänsä, Euroopan parlamentin ja neuvoston direktiivissä (EU) 2019/882 (16) tarkoitettuun vammaan tai erityiseen sosiaaliseen tai taloudelliseen tilanteeseen, joka todennäköisesti saattaa nämä henkilöt haavoittuvammiksi hyväksikäytölle, kuten äärimmäisessä köyhyydessä elävät henkilöt tai etniset tai uskonnolliset vähemmistöt.Tällaisia tekoälyjärjestelmiä saatetaan saattaa markkinoille, ottaa käyttöön tai käyttää siten, että tavoitteena tai vaikutuksena on henkilön käytöksen olennainen vääristyminen, ja tavalla, joka aiheuttaa tai kohtuullisella todennäköisyydellä aiheuttaa huomattavaa haittaa kyseiselle henkilölle tai muulle henkilölle tai henkilöryhmälle, mukaan lukien ajan kuluessa mahdollisesti kumuloituvat haitat, ja siksi tekoälyjärjestelmien tällainen käyttö olisi kiellettävä. Voi olla mahdotonta olettaa, että käyttäytymisen vääristyminen on tarkoituksellista, jos käyttäytymisen vääristyminen johtuu tekoälyjärjestelmän ulkopuolisista tekijöistä, jotka eivät ole tarjoajan tai käyttöönottajan hallittavissa, eli tekijöistä, joita tekoälyjärjestelmän tarjoaja tai käyttöönottaja ei voi kohtuudella ennustaa ja näin ollen lieventää. Joka tapauksessa tarjoajalla tai käyttöönottajalla ei tarvitse olla aikomusta aiheuttaa huomattavaa haittaa, vaan kiellon perusteeksi riittää, että tällaista haittaa aiheutuu manipuloivista tai hyväksikäyttävistä tekoälyä hyödyntävistä käytännöistä. Tällaisia tekoälykäytäntöjä koskevilla kielloilla täydennetään Euroopan parlamentin ja neuvoston direktiivissä 2005/29/EY (17) olevia säännöksiä erityisesti siltä osin, että kuluttajille taloudellisia tai rahoituksellisia haittoja aiheuttavat hyvän kauppatavan vastaiset käytännöt kielletään kaikissa olosuhteissa riippumatta siitä, onko ne otettu käyttöön tekoälyjärjestelmien avulla tai muutoin. Tässä asetuksessa säädetyt manipuloivien ja hyväksikäyttävien käytäntöjen kiellot eivät saisi vaikuttaa laillisiin käytäntöihin sairaanhoidon alalla, kuten mielenterveyshäiriöiden psykologiseen hoitoon tai fyysiseen kuntoutumiseen, kun tällaiset käytännöt toteutetaan sovellettavan lainsäädännön ja sovellettavien lääketieteellisten standardien mukaisesti, esimerkiksi edellyttämällä asianomaisten henkilöiden tai heidän edustajiensa nimenomaista suostumusta. Sovellettavan lainsäädännön mukaisten, esimerkiksi mainonnan alalla toteutettavien yleisten ja oikeutettujen kaupallisten menettelyjen ei myöskään saisi itsessään katsoa olevan haitallisia manipuloivia tekoälyä hyödyntäviä käytäntöjä.
(30)
Deben prohibirse los sistemas de categorización biométrica basados en datos biométricos de las personas físicas, como la cara o las impresiones dactilares de una persona física, para deducir o inferir las opiniones políticas, la afiliación sindical, las convicciones religiosas o filosóficas, la raza, la vida sexual o la orientación sexual de una persona física. Dicha prohibición no debe aplicarse al etiquetado, al filtrado ni a la categorización lícitos de conjuntos de datos biométricos adquiridos de conformidad con el Derecho nacional o de la Unión en función de datos biométricos, como la clasificación de imágenes en función del color del pelo o del color de ojos, que pueden utilizarse, por ejemplo, en el ámbito de la garantía del cumplimiento del Derecho.
(30)
Olisi kiellettävä biometriset luokittelujärjestelmät, jotka perustuvat luonnollisten henkilöiden biometrisiin tietoihin, kuten henkilön kasvokuva- tai sormenjälkitietoihin, joiden perusteella päätellään tai johdetaan henkilön poliittisia mielipiteitä, ammattiliiton jäsenyyttä, uskonnollista tai filosofista vakaumusta, rotua, seksuaalista käyttäytymistä tai seksuaalista suuntautumista koskevia seikkoja. Tämä kielto ei saisi koskea sellaisten biometristen tietoaineistojen laillista merkitsemistä, suodattamista tai luokittelua, jotka on hankittu biometrisiä tietoja koskevan unionin tai kansallisen lainsäädännön mukaisesti, mukaan lukien hiusten tai silmien värin mukaan tapahtuva kuvien lajittelu, jota voidaan käyttää esimerkiksi lainvalvonnassa.
(31)
Los sistemas de IA que permiten a agentes públicos o privados llevar a cabo una puntuación ciudadana de las personas físicas pueden tener resultados discriminatorios y abocar a la exclusión a determinados colectivos. Pueden menoscabar el derecho a la dignidad y a la no discriminación y los valores de igualdad y justicia. Dichos sistemas de IA evalúan o clasifican a las personas físicas o a grupos de estas sobre la base de varios puntos de datos relacionados con su comportamiento social en múltiples contextos o de características personales o de su personalidad conocidas, inferidas o predichas durante determinados períodos de tiempo. La puntuación ciudadana resultante de dichos sistemas de IA puede dar lugar a un trato perjudicial o desfavorable de determinadas personas físicas o colectivos enteros en contextos sociales que no guardan relación con el contexto donde se generaron o recabaron los datos originalmente, o a un trato perjudicial desproporcionado o injustificado en relación con la gravedad de su comportamiento social. Por lo tanto, deben prohibirse los sistemas de IA que impliquen esas prácticas inaceptables de puntuación y den lugar a esos resultados perjudiciales o desfavorables. Esa prohibición no debe afectar a prácticas lícitas de evaluación de las personas físicas que se efectúen para un fin específico de conformidad con el Derecho de la Unión y nacional.
(31)
Tekoälyjärjestelmät, joiden avulla julkiset tai yksityiset toimijat toteuttavat luonnollisten henkilöiden sosiaalista pisteyttämistä, voivat johtaa syrjiviin tuloksiin ja tiettyjen ryhmien syrjäytymiseen. Ne voivat loukata oikeutta ihmisarvoon ja syrjimättömyyteen sekä tasa-arvon ja oikeussuojan arvoja. Tällaiset tekoälyjärjestelmät arvioivat tai luokittelevat luonnollisia henkilöitä tai henkilöryhmiä tiettyinä ajanjaksoina heidän sosiaaliseen käyttäytymiseensä useissa yhteyksissä liittyvien monien tietopisteiden perusteella tai heidän tunnettujen, pääteltyjen tai ennakoitujen henkilökohtaisten ominaisuuksiensa tai luonteenpiirteidensä perusteella. Tällaisista tekoälyjärjestelmistä saadut sosiaaliset pisteet voivat johtaa luonnollisten henkilöiden tai kokonaisten henkilöryhmien haitalliseen tai epäedulliseen kohteluun sosiaalisissa yhteyksissä, jotka eivät liity siihen asiayhteyteen, jossa tiedot alun perin tuotettiin tai kerättiin, tai haitalliseen kohteluun, joka on suhteetonta tai perusteetonta heidän sosiaalisen käyttäytymisensä vakavuuteen nähden. Tekoälyjärjestelmät, jotka tuottavat tällaisia pisteytyskäytäntöjä, joita ei voida hyväksyä ja jotka johtavat tällaisiin haitallisiin tai epäedullisiin tuloksiin, olisi näin ollen kiellettävä. Tämä kielto ei saisi vaikuttaa luonnollisten henkilöiden lainmukaisiin arviointikäytäntöihin, joita toteutetaan erityistä tarkoitusta varten unionin ja kansallisen lainsäädännön mukaisesti.
(32)
El uso de sistemas de IA para la identificación biométrica remota «en tiempo real» de personas físicas en espacios de acceso público con fines de garantía del cumplimiento del Derecho invade de forma especialmente grave los derechos y las libertades de las personas afectadas, en la medida en que puede afectar a la vida privada de una gran parte de la población, provocar la sensación de estar bajo una vigilancia constante y disuadir indirectamente a los ciudadanos de ejercer su libertad de reunión y otros derechos fundamentales. Las imprecisiones técnicas de los sistemas de IA destinados a la identificación biométrica remota de las personas físicas pueden dar lugar a resultados sesgados y tener efectos discriminatorios. Tales posibles resultados sesgados y efectos discriminatorios son especialmente pertinentes por lo que respecta a la edad, la etnia, la raza, el sexo o la discapacidad. Además, la inmediatez de las consecuencias y las escasas oportunidades para realizar comprobaciones o correcciones adicionales en relación con el uso de sistemas que operan «en tiempo real» acrecientan el riesgo que estos conllevan para los derechos y las libertades de las personas afectadas en el contexto de actividades de garantía del cumplimiento del Derecho, o afectadas por estas.
(32)
Käyttämällä tekoälyjärjestelmiä luonnollisten henkilöiden reaaliaikaiseen biometriseen etätunnistukseen julkisissa tiloissa lainvalvontatarkoituksessa puututaan erityisen pitkälle menevällä tavalla asianomaisten henkilöiden oikeuksiin ja vapauksiin, sillä tämä voi vaikuttaa suuren väestönosan yksityiselämään, synnyttää tunteen jatkuvasta valvonnasta ja estää välillisesti kokoontumisvapauden ja muiden perusoikeuksien käyttämisen. Luonnollisten henkilöiden biometriseen etätunnistukseen tarkoitettujen tekoälyjärjestelmien tekniset epätarkkuudet voivat johtaa vinoutuneisiin tuloksiin ja aiheuttaa syrjiviä vaikutuksia. Tällaiset mahdolliset vinoutuneet tulokset ja syrjivät vaikutukset ovat erityisen merkityksellisiä, kun ne liittyvät ikään, etniseen alkuperään, rotuun, sukupuoleen tai vammaisuuteen. Lisäksi tällaisten reaaliaikaisten järjestelmien käyttöön liittyvien vaikutusten välittömyys ja rajalliset mahdollisuudet lisätarkastuksiin tai korjauksiin lisäävät asianomaisten henkilöiden oikeuksiin ja vapauksiin kohdistuvia riskejä lainvalvontatoimien yhteydessä tai asianomaisten henkilöiden, joihin lainvalvontatoimet vaikuttavat, oikeuksiin ja vapauksiin kohdistuvia riskejä.
(33)
En consecuencia, debe prohibirse el uso de dichos sistemas con fines de garantía del cumplimiento del Derecho, salvo en situaciones enumeradas de manera limitativa y definidas con precisión en las que su utilización sea estrictamente necesaria para lograr un interés público esencial cuya importancia compense los riesgos. Esas situaciones son la búsqueda de determinadas víctimas de un delito, incluidas personas desaparecidas; determinadas amenazas para la vida o para la seguridad física de las personas físicas o amenazas de atentado terrorista; y la localización o identificación de los autores o sospechosos de los delitos enumerados en un anexo del presente Reglamento, cuando dichas infracciones se castiguen en el Estado miembro de que se trate con una pena o una medida de seguridad privativas de libertad cuya duración máxima sea de al menos cuatro años, y como se definan en el Derecho de dicho Estado miembro. Fijar ese umbral para la pena o la medida de seguridad privativas de libertad con arreglo al Derecho nacional contribuye a garantizar que la infracción sea lo suficientemente grave como para llegar a justificar el uso de sistemas de identificación biométrica remota «en tiempo real». Por otro lado, la lista de delitos proporcionada en un anexo del presente Reglamento se basa en los treinta y dos delitos enumerados en la Decisión Marco 2002/584/JAI del Consejo (18), si bien es preciso tener en cuenta que, en la práctica, es probable que algunas sean más relevantes que otras en el sentido de que es previsible que recurrir a la identificación biométrica remota «en tiempo real» podría ser necesario y proporcionado en grados muy distintos para llevar a cabo la localización o la identificación de los autores o sospechosos de las distintas infracciones enumeradas, y que es probable que haya diferencias en la gravedad, la probabilidad y la magnitud de los perjuicios o las posibles consecuencias negativas. Una amenaza inminente para la vida o la seguridad física de las personas físicas también podría derivarse de una perturbación grave de infraestructuras críticas, tal como se definen en el artículo 2, punto 4, de la Directiva (UE) 2022/2557 del Parlamento Europeo y del Consejo (19), cuando la perturbación o destrucción de dichas infraestructuras críticas suponga una amenaza inminente para la vida o la seguridad física de una persona, también al perjudicar gravemente el suministro de productos básicos a la población o el ejercicio de la función esencial del Estado. Además, el presente Reglamento debe preservar la capacidad de las autoridades garantes del cumplimiento del Derecho, de control fronterizo, de la inmigración o del asilo para llevar a cabo controles de identidad en presencia de la persona afectada, de conformidad con las condiciones establecidas en el Derecho de la Unión y en el Derecho nacional para estos controles. En particular, las autoridades garantes del cumplimiento del Derecho, del control fronterizo, de la inmigración o del asilo deben poder utilizar sistemas de información, de conformidad con el Derecho de la Unión o el Derecho nacional, para identificar a las personas que, durante un control de identidad, se nieguen a ser identificadas o no puedan declarar o demostrar su identidad, sin que el presente Reglamento exija que se obtenga una autorización previa. Puede tratarse, por ejemplo, de una persona implicada en un delito que no quiera revelar su identidad a las autoridades garantes del cumplimiento del Derecho, o que no pueda hacerlo debido a un accidente o a una afección médica.
(33)
Näiden järjestelmien käyttö lainvalvontatarkoituksiin olisi sen vuoksi kiellettävä lukuun ottamatta tyhjentävästi lueteltuja ja kapeasti määriteltyjä tilanteita, joissa käyttö on ehdottoman välttämätöntä sellaisen tärkeän yleisen edun saavuttamiseksi, jonka merkitys on riskejä suurempi. Näihin tilanteisiin kuuluvat tiettyjen rikosten uhrien, myös kadonneiden henkilöiden, etsintä; tietyt luonnollisten henkilöiden henkeen tai fyysiseen turvallisuuteen kohdistuvan uhat tai terrori-iskun uhat; sekä tämän asetuksen liitteessä lueteltujen rikosten tekijöiden tai tällaisista rikoksista epäiltyjen paikantaminen tai tunnistaminen, jos näistä rikoksista voi asianomaisessa jäsenvaltiossa seurata vapaudenmenetyksen käsittävä rangaistus tai turvaamistoimenpide, jonka enimmäisaika on vähintään neljä vuotta, sellaisina kuin ne on määritelty kyseisen jäsenvaltion lainsäädännössä. Tällainen kansallisen lainsäädännön mukaisen vapaudenmenetyksen käsittävän rangaistuksen tai turvaamistoimenpiteen vähimmäisaika auttaa osaltaan varmistamaan, että rikoksen olisi oltava riittävän vakava, jotta sillä voidaan tarvittaessa perustella reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö. Lisäksi tämän asetuksen liitteessä vahvistettu rikosten luettelo perustuu neuvoston puitepäätöksessä 2002/584/YOS (18) lueteltuihin 32 rikokseen ottaen huomioon, että jotkin niistä ovat käytännössä todennäköisesti merkityksellisempiä kuin toiset, koska reaaliaikaiseen biometriseen etätunnistukseen turvautuminen olisi oletettavasti hyvin vaihtelevassa määrin välttämätöntä ja oikeasuhteista, kun eri lueteltujen rikosten tekijöitä tai niistä epäiltyjä pyritään käytännössä paikantamaan tai tunnistamaan ja kun otetaan huomioon todennäköiset erot vahingon tai mahdollisten kielteisten seurausten vakavuudessa, todennäköisyydessä ja laajuudessa. Välitön uhka, joka kohdistuu luonnollisen henkilön henkeen tai fyysiseen turvallisuuteen, voi olla seurausta myös Euroopan parlamentin ja neuvoston direktiivin (EU) 2022/2557 (19) 2 artiklan 4 alakohdassa määritellyn elintärkeän infrastruktuurin vakavasta häiriöstä, kun tällaisen elintärkeän infrastruktuurin vahingoittuminen tai tuhoutuminen johtaisi henkilön henkeen tai fyysiseen turvallisuuteen kohdistuvaan välittömään uhkaan, myös väestölle tarkoitettujen perustarvikkeiden toimitukselle tai valtion ydintehtävien hoitamiselle aiheutuvan vakavan haitan kautta. Lisäksi tässä asetuksessa olisi säilytettävä lainvalvonta-, rajavalvonta-, maahanmuutto- ja turvapaikkaviranomaisten kyky suorittaa henkilöllisyyden toteamistoimia kyseessä olevan henkilön läsnä ollessa unionin ja jäsenvaltioiden lainsäädännössä tällaisille tarkastuksille asetettujen edellytysten mukaisesti. Lainvalvonta-, rajavalvonta-, maahanmuutto- ja turvapaikkaviranomaisten olisi erityisesti voitava käyttää tietojärjestelmiä unionin tai jäsenvaltioiden lainsäädännön mukaisesti tunnistaakseen henkilön, joka henkilöllisyyden toteamisen yhteydessä joko kieltäytyy henkilöllisyyden toteamisesta tai ei pysty ilmoittamaan tai todistamaan henkilöllisyyttään, ilman että niiltä vaaditaan tässä asetuksessa ennakkoluvan saamista. Kyseessä voisi olla esimerkiksi rikokseen osallistunut henkilö, joka ei halua tai pysty onnettomuuden tai sairauden takia ilmoittamaan henkilöllisyyttään lainvalvontaviranomaisille.
(34)
Para velar por que dichos sistemas se utilicen de manera responsable y proporcionada, también es importante establecer que, en esas situaciones enumeradas de manera limitativa y definidas con precisión, se tengan en cuenta determinados elementos, en particular en lo que se refiere a la naturaleza de la situación que dé lugar a la solicitud, a las consecuencias que su uso puede tener sobre los derechos y las libertades de todas las personas implicadas, y a las garantías y condiciones que acompañen a su uso. Además, el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho debe llevarse a cabo únicamente para confirmar la identidad de la persona que constituya el objetivo específico y limitarse a lo estrictamente necesario en lo que se refiere al período de tiempo, así como al ámbito geográfico y personal, teniendo en cuenta, en particular, las pruebas o indicios relativos a las amenazas, las víctimas o los autores. El uso del sistema de identificación biométrica remota en tiempo real en espacios de acceso público solo debe autorizarse si la correspondiente autoridad garante del cumplimiento del Derecho ha llevado a cabo una evaluación de impacto relativa a los derechos fundamentales y, salvo que se disponga otra cosa en el presente Reglamento, si ha registrado el sistema en la base de datos establecida en el presente Reglamento. La base de datos de personas de referencia debe ser adecuada para cada supuesto de uso en cada una de las situaciones antes mencionadas.
(34)
Sen varmistamiseksi, että näitä järjestelmiä käytetään vastuullisella ja oikeasuhteisella tavalla, on myös tärkeää vahvistaa, että kussakin näistä tyhjentävästi luetellusta ja suppeasti määritellystä tilanteesta olisi otettava huomioon tietyt tekijät, erityisesti pyynnön perusteena olevan tilanteen luonne ja käytön seuraukset kaikkien asianomaisten henkilöiden oikeuksille ja vapauksille sekä käyttöä koskevat suojatoimet ja ehdot. Lisäksi reaaliaikaisia biometrisiä etätunnistusjärjestelmiä olisi käytettävä julkisissa tiloissa lainvalvontatarkoituksessa ainoastaan vahvistamaan kohteena olevan yksilön henkilöllisyys ja tämä käyttö olisi rajoitettava siihen, mikä on ehdottoman välttämätöntä, kun otetaan huomioon tällaisen järjestelmän käytön kesto sekä maantieteellinen ja henkilötason laajuus ja erityisesti uhkia, uhreja tai rikoksentekijää koskevat todisteet tai tiedossa olevat seikat. Reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö julkisissa tiloissa olisi sallittava vain, jos lainvalvontaviranomainen on saattanut päätökseen perusoikeuksia koskevan vaikutustenarvioinnin ja, jollei tässä asetuksessa toisin säädetä, rekisteröinyt järjestelmän tietokantaan tämän asetuksen mukaisesti. Henkilöitä koskevan viitetietokannan olisi oltava kuhunkin käyttötapaukseen sopiva kussakin edellä mainitussa tapauksessa.
(35)
Todo uso de un sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho debe haber sido autorizado de manera expresa y específica por una autoridad judicial o por una autoridad administrativa independiente de un Estado miembro y cuya decisión sea vinculante. En principio, dicha autorización debe obtenerse antes de utilizar el sistema de IA con el fin de identificar a una o varias personas. Deben permitirse excepciones a esa norma en situaciones debidamente justificadas por motivos de urgencia, a saber, en aquellas en las que la necesidad de utilizar los sistemas de que se trate sea tan imperiosa que resulte efectiva y objetivamente imposible obtener una autorización antes de iniciar el uso del sistema de IA. En tales situaciones de urgencia, el uso debe limitarse al mínimo imprescindible y satisfacer las garantías y condiciones oportunas, conforme a lo dispuesto en el Derecho nacional y según corresponda en cada supuesto concreto de uso urgente por parte de la propia autoridad garante del cumplimiento del Derecho. Además, en esas situaciones las autoridades garantes del cumplimiento del Derecho deben solicitar dicha autorización e indicar los motivos por los que no han podido hacerlo antes, sin demora indebida y, como máximo, en un plazo de veinticuatro horas. Si se rechaza dicha autorización, el uso de sistemas de identificación biométrica en tiempo real vinculados a la autorización debe interrumpirse con efecto inmediato y todos los datos relacionados con dicho uso deben desecharse y suprimirse. Entre esos datos se incluyen los datos de entrada directamente adquiridos por un sistema de IA durante el uso de dicho sistema, así como los resultados y la información de salida del uso vinculados a dicha autorización. No debe incluir la información de entrada adquirida legalmente de conformidad con otro acto del Derecho nacional o de la Unión. En cualquier caso, no debe adoptarse ninguna decisión que produzca efectos jurídicos adversos para una persona exclusivamente sobre la base de los resultados de salida del sistema de identificación biométrica remota.
(35)
Jokaisen reaaliaikaisen biometrisen etätunnistusjärjestelmän käytön julkisissa tiloissa lainvalvontatarkoituksessa olisi edellytettävä nimenomaista ja erityistä lupaa jäsenvaltion oikeusviranomaiselta tai riippumattomalta hallintoviranomaiselta, jonka päätös on sitova. Tällainen lupa olisi periaatteessa saatava ennen kuin tekoälyjärjestelmää käytetään henkilön tai henkilöiden tunnistamiseksi. Poikkeuksia tähän sääntöön olisi sallittava asianmukaisesti perustelluissa kiireellisissä tapauksissa eli tilanteissa, joissa kyseisten järjestelmien käyttötarve on sellainen, että luvan saaminen ennen tekoälyjärjestelmän käytön aloittamista on tosiasiallisesti ja objektiivisesti mahdotonta. Tällaisissa kiireellisissä tilanteissa tekoälyjärjestelmän käyttö olisi rajoitettava siihen, mikä on ehdottoman välttämätöntä, ja siihen olisi sovellettava asianmukaisia suojatoimia ja ehtoja, jotka määritellään kansallisessa lainsäädännössä ja jotka lainvalvontaviranomainen itse määrittää kunkin yksittäisen kiireellisen käyttötapauksen yhteydessä. Lisäksi lainvalvontaviranomaisen olisi näissä tilanteissa pyydettävä tällaista lupaa ja esitettävä samalla ilman aiheetonta viivytystä ja viimeistään 24 tunnin kuluessa syyt siihen, miksi se ei ole voinut pyytää lupaa aikaisemmin. Jos lupa evätään, siihen liittyvien reaaliaikaisten biometristen tunnistusjärjestelmien käyttö olisi lopetettava välittömästi ja kaikki tällaiseen käyttöön liittyvät tiedot olisi poistettava. Tällaisia tietoja ovat esimerkiksi syöttötiedot, jotka tekoälyjärjestelmä on sen käytön aikana hankkinut suoraan, sekä kyseiseen lupaan liittyvän käytön tulokset ja tuotokset. Siihen ei pitäisi sisällyttää tietoja, jotka on hankittu laillisesti jonkin muun unionin tai kansallisen lainsäädännön mukaisesti. Missään tapauksessa päätöstä, jolla on henkilöön kohdistuvia kielteisiä oikeusvaikutuksia, ei saisi tehdä pelkästään biometrisen etätunnistusjärjestelmän tuotosten perusteella.
(36)
A fin de desempeñar sus funciones de conformidad con los requisitos establecidos en el presente Reglamento, así como en las normas nacionales, debe notificarse a la autoridad de vigilancia del mercado pertinente y a la autoridad nacional de protección de datos cada uso del sistema de identificación biométrica en tiempo real. Las autoridades de vigilancia del mercado y las autoridades nacionales de protección de datos que hayan recibido una notificación deben presentar a la Comisión un informe anual sobre el uso de sistemas de identificación biométrica en tiempo real.
(36)
Jotta asianomainen markkinavalvontaviranomainen ja kansallinen tietosuojaviranomainen voisivat hoitaa tehtävänsä tässä asetuksessa ja kansallisissa säännöissä vahvistettujen vaatimusten mukaisesti, niille olisi ilmoitettava aina, kun reaaliaikaista biometristä tunnistusjärjestelmää käytetään. Ilmoituksia saaneiden markkinavalvontaviranomaisten ja kansallisten tietosuojaviranomaisten olisi toimitettava komissiolle vuosittain kertomus reaaliaikaisten biometristen tunnistusjärjestelmien käytöstä.
(37)
Por otro lado, conviene disponer, en el marco exhaustivo que establece este Reglamento, que dicho uso en el territorio de un Estado miembro conforme a lo dispuesto en el presente Reglamento solo debe ser posible cuando el Estado miembro de que se trate haya decidido contemplar expresamente la posibilidad de autorizarlo en las normas detalladas de su Derecho nacional, y en la medida en que lo haya contemplado. En consecuencia, con arreglo al presente Reglamento los Estados miembros siguen teniendo la libertad de no ofrecer esta posibilidad en absoluto o de ofrecerla únicamente en relación con algunos de los objetivos que pueden justificar un uso autorizado conforme al presente Reglamento. Dichas normas nacionales deben notificarse a la Comisión en un plazo de treinta días a partir de su adopción.
(37)
Osana tässä asetuksessa vahvistettuja kattavia puitteita on myös aiheellista säätää, että tällaisen tämän asetuksen mukaisen käytön olisi oltava mahdollista jäsenvaltion alueella vain jos ja siltä osin kuin kyseinen jäsenvaltio on kansallisen lainsäädäntönsä yksityiskohtaisissa säännöissä nimenomaisesti päättänyt säätää mahdollisuudesta sallia tällainen käyttö. Näin ollen jäsenvaltiot voivat tämän asetuksen nojalla olla säätämättä tällaisesta mahdollisuudesta lainkaan tai säätää tällaisesta mahdollisuudesta vain joidenkin tässä asetuksessa yksilöityjen tavoitteiden osalta, joilla sallittu käyttö voidaan perustella. Tällaisista kansallisista säännöistä olisi ilmoitettava komissiolle 30 päivän kuluessa niiden hyväksymisestä.
(38)
La utilización de sistemas de IA para la identificación biométrica remota en tiempo real de personas físicas en espacios de acceso público con fines de garantía del cumplimiento del Derecho implica, necesariamente, el tratamiento de datos biométricos. Las normas del presente Reglamento que prohíben, con algunas excepciones, ese uso, basadas en el artículo 16 del TFUE, deben aplicarse como lex specialis con respecto a las normas sobre el tratamiento de datos biométricos que figuran en el artículo 10 de la Directiva (UE) 2016/680, con lo que se regula de manera exhaustiva dicho uso y el tratamiento de los correspondientes datos biométricos. Por lo tanto, ese uso y tratamiento deben ser posibles únicamente en la medida en que sean compatibles con el marco establecido por el presente Reglamento, sin que haya margen, fuera de dicho marco, para que las autoridades competentes, cuando actúen con fines de garantía del cumplimiento del Derecho, utilicen tales sistemas y traten dichos datos en los supuestos previstos en el artículo 10 de la Directiva (UE) 2016/680. En ese sentido, el presente Reglamento no tiene por objeto proporcionar la base jurídica para el tratamiento de datos personales en virtud del artículo 8 de la Directiva (UE) 2016/680. Sin embargo, el uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines distintos de la garantía del cumplimiento del Derecho, también por parte de las autoridades competentes, no debe estar sujeto al marco específico establecido por el presente Reglamento en lo que respecta al uso de dichos sistemas con fines de garantía del cumplimiento del Derecho. Por consiguiente, su uso con fines distintos de la garantía del cumplimiento del Derecho no debe estar sujeto al requisito de obtener una autorización previsto en el presente Reglamento ni a las normas de desarrollo aplicables del Derecho nacional que puedan hacer efectiva dicha autorización.
(38)
Tekoälyjärjestelmien käyttö luonnollisten henkilöiden reaaliaikaiseen biometriseen etätunnistukseen julkisissa tiloissa lainvalvontatarkoituksessa edellyttää välttämättä biometristen tietojen käsittelyä. Tämän asetuksen sääntöjä, joissa kielletään tietyin poikkeuksin tällainen käyttö ja jotka perustuvat Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklaan, olisi sovellettava erityissäännöksinä (lex specialis) suhteessa direktiivin (EU) 2016/680 10 artiklaan sisältyviin biometristen tietojen käsittelyä koskeviin sääntöihin, eli niillä säännellään kattavasti tällaista käyttöä ja siihen liittyvien biometristen tietojen käsittelyä. Sen vuoksi tällaisen käytön ja käsittelyn olisi oltava mahdollista ainoastaan siinä määrin kuin se on yhteensopivaa tässä asetuksessa vahvistetun kehyksen kanssa, eikä toimivaltaisten viranomaisten pitäisi kyseisen kehyksen ulkopuolella lainvalvontatarkoituksessa toimiessaan voida käyttää tällaisia järjestelmiä ja käsitellä niiden yhteydessä tällaisia tietoja direktiivin (EU) 2016/680 10 artiklassa luetelluin perustein. Tässä yhteydessä tämän asetuksen tarkoituksena ei ole muodostaa oikeusperustaa direktiivin (EU) 2016/680 8 artiklan mukaiselle henkilötietojen käsittelylle. Reaaliaikaisten biometristen etätunnistusjärjestelmien käyttöä julkisissa tiloissa muihin tarkoituksiin kuin lainvalvontaan, myös toimivaltaisten viranomaisten toimesta, ei kuitenkaan pitäisi sisällyttää tässä asetuksessa vahvistettuun erityiskehykseen, joka koskee tällaista käyttöä lainvalvontatarkoituksessa. Tällaisen muussa kuin lainvalvontatarkoituksessa tapahtuvan käytön ei sen vuoksi pitäisi edellyttää tämän asetuksen mukaista lupaa eikä sen täytäntöönpanemiseksi annettujen kansallisen lainsäädännön yksityiskohtaisten sääntöjen soveltamista.
(39)
Todo tratamiento de datos biométricos y de datos personales de otra índole asociado al uso de sistemas de IA para la identificación biométrica, salvo el asociado al uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines de garantía del cumplimiento del Derecho regulado por el presente Reglamento, debe seguir cumpliendo todos los requisitos derivados del artículo 10 de la Directiva (UE) 2016/680. El artículo 9, apartado 1, del Reglamento (UE) 2016/679 y el artículo 10, apartado 1, del Reglamento (UE) 2018/1725 prohíben el tratamiento de datos biométricos con fines distintos de la garantía del cumplimiento del Derecho, con las excepciones limitadas previstas en dichos artículos. En la aplicación del artículo 9, apartado 1, del Reglamento (UE) 2016/679, el uso de la identificación biométrica remota para fines distintos de la garantía del cumplimiento del Derecho ya ha sido objeto de decisiones de prohibición por parte de las autoridades nacionales de protección de datos.
(39)
Kaikessa biometristen tietojen ja muiden henkilötietojen käsittelyssä, joka liittyy tekoälyjärjestelmien käyttöön biometriseen tunnistamiseen muussa yhteydessä kuin tässä asetuksessa säännellyssä reaaliaikaisten biometristen etätunnistusjärjestelmien käytössä julkisissa tiloissa lainvalvontatarkoituksessa olisi edelleen noudatettava kaikkia direktiivin (EU) 2016/680 10 artiklasta johtuvia vaatimuksia. Muita tarkoituksia kuin lainvalvontaa varten asetuksen (EU) 2016/679 9 artiklan 1 kohdassa ja asetuksen (EU) 2018/1725 10 artiklan 1 kohdassa kielletään biometristen tietojen käsittely joitakin kyseisissä artikloissa säädettyjä rajoitettuja poikkeuksia lukuun ottamatta. Asetuksen (EU) 2016/679 9 artiklan 1 kohtaa sovellettaessa kansalliset tietosuojaviranomaiset ovat jo kieltäneet biometrisen etätunnistuksen käytön muihin tarkoituksiin kuin lainvalvontatarkoituksiin.
(40)
De conformidad con el artículo 6 bis del Protocolo n.o 21 sobre la Posición del Reino Unido y de Irlanda respecto del Espacio de Libertad, Seguridad y Justicia, anejo al TUE y al TFUE, las normas establecidas en el artículo 5, apartado 1, párrafo primero, letra g), en la medida en que se aplica al uso de sistemas de categorización biométrica para actividades en el ámbito de la cooperación policial y la cooperación judicial en materia penal, el artículo 5, apartado 1, párrafo primero, letra d), en la medida en que se aplica al uso de sistemas de IA comprendidos en el ámbito de aplicación de dicho artículo, el artículo 5, apartado 1, párrafo primero, letra h), y apartados 2 a 6, y el artículo 26, apartado 10, del presente Reglamento, adoptadas basándose en el artículo 16 del TFUE que se refieran al tratamiento de datos de carácter personal por los Estados miembros en el ejercicio de las actividades comprendidas en el ámbito de aplicación de la tercera parte, título V, capítulos 4 o 5, de dicho Tratado solo serán vinculantes para Irlanda en la medida en que sean vinculantes para este Estado normas de la Unión que regulen formas de cooperación judicial en materia penal y de cooperación policial en cuyo marco deban respetarse las disposiciones establecidas basándose en el artículo 16 del TFUE.
(40)
Euroopan unionista tehtyyn sopimukseen ja Euroopan unionin toiminnasta tehtyyn sopimukseen liitetyn, Yhdistyneen kuningaskunnan ja Irlannin asemasta vapauden, turvallisuuden ja oikeuden alueen osalta tehdyssä pöytäkirjassa N:o 21 olevan 6 a artiklan mukaisesti Irlantia eivät sido tämän asetuksen 5 artiklan 1 kohdan ensimmäisen alakohdan g alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat biometristen luokittelujärjestelmien käytöstä poliisiyhteistyössä ja rikosasioissa tehtävässä oikeudellisessa yhteistyössä, 5 artiklan 1 kohdan ensimmäisen alakohdan d alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat tekoälyjärjestelmien käyttöä, johon kyseisiä säännöksiä sovelletaan sekä 5 artiklan 1 kohdan ensimmäisen alakohdan h alakohdassa, 5 artiklan 2–6 kohdassa ja 26 artiklan 10 kohdassa vahvistetut säännöt, jotka on hyväksytty Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan perusteella ja jotka koskevat jäsenvaltioiden suorittamaa henkilötietojen käsittelyä näiden toteuttaessa Euroopan unionin toiminnasta tehdyn sopimuksen kolmannen osan V osaston 4 tai 5 luvun soveltamisalaan kuuluvaa toimintaa, siinä tapauksessa, että Irlantia eivät sido rikosasioissa tehtävän oikeudellisen yhteistyön tai poliisiyhteistyön muotoa koskevat säännöt, jotka edellyttävät Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan perusteella vahvistettujen säännösten noudattamista.
(41)
De conformidad con lo dispuesto en los artículos 2 y 2 bis del Protocolo n.o 22 sobre la Posición de Dinamarca, anejo al TUE y al TFUE, las normas establecidas en el artículo 5, apartado 1, párrafo primero, letra g), en la medida en que se aplica al uso de sistemas de categorización biométrica para actividades en el ámbito de la cooperación policial y la cooperación judicial en materia penal, el artículo 5, apartado 1, párrafo primero, letra d), en la medida en que se aplican al uso de sistemas de IA comprendidos en el ámbito de aplicación de dicho artículo, el artículo 5, apartado 1, párrafo primero, letra h), y apartados 2 a 6, y el artículo 26, apartado 10, del presente Reglamento, adoptadas sobre la base del artículo 16 del TFUE que se refieran al tratamiento de datos de carácter personal por los Estados miembros en el ejercicio de las actividades comprendidas en el ámbito de aplicación de la tercera parte, título V, capítulos 4 o 5, de dicho Tratado, no vincularán a Dinamarca ni le serán aplicables.
(41)
Euroopan unionista tehtyyn sopimukseen ja Euroopan unionin toiminnasta tehtyyn sopimukseen liitetyn, Tanskan asemasta tehdyssä pöytäkirjassa N:o 22 olevien 2 ja 2 a artiklan mukaisesti tämän asetuksen 5 artiklan 1 kohdan ensimmäisen alakohdan g alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat biometristen luokittelujärjestelmien käytöstä poliisiyhteistyössä ja rikosasioissa tehtävässä oikeudellisessa yhteistyössä, 5 artiklan 1 kohdan ensimmäisen alakohdan d alakohdassa vahvistetut säännöt, siltä osin kuin ne koskevat tekoälyjärjestelmien käyttöä, johon kyseisiä säännöksiä sovelletaan sekä 5 artiklan 1 kohdan ensimmäisen alakohdan h alakohdassa, 5 artiklan 2–6 kohdassa ja 26 artiklan 10 kohdassa vahvistetut säännöt, jotka on hyväksytty Euroopan unionin toiminnasta tehdyn sopimuksen 16 artiklan perusteella ja jotka koskevat jäsenvaltioiden suorittamaa henkilötietojen käsittelyä näiden toteuttaessa Euroopan unionin toiminnasta tehdyn sopimuksen kolmannen osan V osaston 4 tai 5 luvun soveltamisalaan kuuluvaa toimintaa, eivät sido Tanskaa eikä niitä sovelleta Tanskaan.
(42)
En consonancia con la presunción de inocencia, las personas físicas de la Unión siempre deben ser juzgadas basándose en su comportamiento real. Las personas físicas nunca deben ser juzgadas a partir de comportamientos predichos por una IA basados únicamente en la elaboración de sus perfiles, en los rasgos o características de su personalidad, como la nacionalidad, el lugar de nacimiento, el lugar de residencia, el número de hijos, el nivel de endeudamiento o el tipo de vehículo, sin una valoración humana y sin que exista una sospecha razonable, basada en hechos objetivos comprobables, de que dicha persona está implicada en una actividad delictiva. Por lo tanto, deben prohibirse las evaluaciones de riesgos realizadas con respecto a personas físicas para evaluar la probabilidad de que cometan un delito o para predecir la comisión de un delito real o potencial basándose únicamente en la elaboración de perfiles de esas personas físicas o la evaluación de los rasgos y características de su personalidad. En cualquier caso, dicha prohibición no se refiere o atañe a los análisis de riesgos que no estén basados en la elaboración de perfiles de personas o en los rasgos y características de la personalidad de las personas, como los sistemas de IA que utilizan los análisis de riesgos para evaluar la probabilidad de fraude financiero por parte de empresas sobre la base de transacciones sospechosas o las herramientas de análisis de riesgo para predecir la probabilidad de localización de estupefacientes y mercancías ilícitas por parte de las autoridades aduaneras, por ejemplo basándose en las rutas de tráfico conocidas.
(42)
Syyttömyysolettaman mukaisesti unionissa olevia luonnollisia henkilöitä olisi aina arvioitava heidän tosiasiallisen käyttäytymisensä perusteella. Luonnollisia henkilöitä ei pitäisi koskaan arvioida tekoälyn ennustaman käyttäytymisen perusteella, kun tämän ennusteen pohjana on pelkästään kyseisten henkilöiden profilointi, persoonallisuuspiirteet tai persoonallisuusominaisuudet, kuten kansallisuus, syntymäpaikka, asuinpaikka, lasten lukumäärä, velkataso tai autotyyppi, ilman, että on perusteltua syytä epäillä kyseisen henkilön osallistuvan rikolliseen toimintaan objektiivisten todennettavissa olevien tosiseikkojen perusteella, ja ilman ihmisen tekemää arviointia niistä. Sen vuoksi olisi kiellettävä luonnollisia henkilöitä koskevat riskinarvioinnit, joiden tarkoituksena on arvioida, miten todennäköisesti he tekevät rikoksia, tai ennakoida todellisen tai mahdollisen rikoksen tapahtumista yksinomaan kyseisten henkilöiden profiloinnin tai persoonallisuuspiirteiden ja persoonallisuusominaisuuksien arvioinnin perusteella. Kielto ei missään tapauksessa koske riskianalytiikkaa, joka ei perustu yksilöiden profilointiin tai yksilöiden persoonallisuuspiirteisiin ja persoonallisuusominaisuuksiin, kuten tekoälyjärjestelmiä, joissa käytetään riskianalytiikkaa yritysten talouspetosten todennäköisyyden arvioimiseksi epäilyttävien liiketoimien perusteella, tai riskianalytiikkavälineitä, joilla tulliviranomaiset voivat ennustaa, kuinka todennäköisesti tietyissä paikoissa esiintyy huumausaineita tai laittomia tavaroita, esimerkiksi tunnettujen salakuljetusreittien perusteella.
(43)
La introducción en el mercado, la puesta en servicio para ese fin concreto o la utilización de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales a partir de internet o de imágenes de circuito cerrado de televisión deben estar prohibidas, pues esas prácticas agravan el sentimiento de vigilancia masiva y pueden dar lugar a graves violaciones de los derechos fundamentales, incluido el derecho a la intimidad.
(43)
Sellaisten tekoälyjärjestelmien markkinoille saattaminen, kyseiseen erityiseen tarkoitukseen käyttöönotto tai käyttö, jotka luovat kasvojentunnistustietokantoja tai laajentavat niitä haravoimalla kasvokuvia kohdentamattomasti internetistä tai valvontakamerakuvista, olisi kiellettävä, koska tämä käytäntö lisää tunnetta joukkovalvonnasta ja voi johtaa perusoikeuksien, myös yksityisyyden suojaa koskevan oikeuden, räikeisiin loukkauksiin.
(44)
Existe una gran preocupación respecto a la base científica de los sistemas de IA que procuran detectar o deducir las emociones, especialmente porque la expresión de las emociones varía de forma considerable entre culturas y situaciones, e incluso en una misma persona. Algunas de las deficiencias principales de estos sistemas son la fiabilidad limitada, la falta de especificidad y la limitada posibilidad de generalizar. Por consiguiente, los sistemas de IA que detectan o deducen las emociones o las intenciones de las personas físicas a partir de sus datos biométricos pueden tener resultados discriminatorios y pueden invadir los derechos y las libertades de las personas afectadas. Teniendo en cuenta el desequilibrio de poder en el contexto laboral o educativo, unido al carácter intrusivo de estos sistemas, dichos sistemas podrían dar lugar a un trato perjudicial o desfavorable de determinadas personas físicas o colectivos enteros. Por tanto, debe prohibirse la introducción en el mercado, la puesta en servicio y el uso de sistemas de IA destinados a ser utilizados para detectar el estado emocional de las personas en situaciones relacionadas con el lugar de trabajo y el ámbito educativo. Dicha prohibición no debe aplicarse a los sistemas de IA introducidos en el mercado estrictamente con fines médicos o de seguridad, como los sistemas destinados a un uso terapéutico.
(44)
Sellaisten tekoälyjärjestelmien tieteellinen perusta, joilla pyritään havaitsemaan tai päättelemään tunteita, herättää vakavia huolenaiheita erityisesti siksi, että tunteita ilmaistaan huomattavan erilaisin tavoin eri kulttuureissa ja eri tilanteissa; huomattavaa vaihtelua voi esiintyä jopa saman yksilön tunteiden ilmaisussa. Tällaisten järjestelmien keskeisiä puutteita ovat heikko luotettavuus, tarkkuuden puute ja heikko yleistettävyys. Sen vuoksi tekoälyjärjestelmät, jotka havaitsevat tai päättelevät luonnollisten henkilöiden tunteita tai aikomuksia heidän biometristen tietojensa perusteella, voivat tuottaa syrjiviä tuloksia ja loukata asianomaisten henkilöiden oikeuksia ja vapauksia. Kun otetaan huomioon vallan epätasapaino työelämässä tai koulutuksen alalla sekä näiden järjestelmien yksityisyyttä loukkaava luonne, tällaiset järjestelmät voivat johtaa tiettyjen luonnollisten henkilöiden tai kokonaisten henkilöryhmien haitalliseen tai epäedulliseen kohteluun. Sen vuoksi sellaisten tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tai käyttö, jotka on tarkoitettu yksilöiden emotionaalisen tilan havaitsemiseen työpaikalla ja oppilaitoksissa, olisi kiellettävä. Kielto ei saisi koskea tekoälyjärjestelmiä, jotka saatetaan markkinoille yksinomaan lääketieteellisistä tai turvallisuussyistä, kuten hoitotarkoituksiin käytettäviä järjestelmiä.
(45)
El presente Reglamento no debe afectar a las prácticas prohibidas por el Derecho de la Unión, incluido el Derecho de la Unión en materia de protección de datos, de no discriminación, de protección de los consumidores y sobre competencia.
(45)
Tämä asetus ei saisi vaikuttaa käytäntöihin, jotka on kielletty unionin oikeudessa, kuten tietosuojaa, syrjimättömyyttä, kuluttajansuojaa ja kilpailua koskevassa lainsäädännössä.
(46)
La introducción en el mercado de la Unión, la puesta en servicio o la utilización de sistemas de IA de alto riesgo debe supeditarse al cumplimiento por su parte de determinados requisitos obligatorios, los cuales deben garantizar que los sistemas de IA de alto riesgo disponibles en la Unión o cuyos resultados de salida se utilicen en la Unión no planteen riesgos inaceptables para intereses públicos importantes de la Unión, reconocidos y protegidos por el Derecho de la Unión. Sobre la base del nuevo marco legislativo, tal como se aclara en la Comunicación de la Comisión titulada «“Guía azul” sobre la aplicación de la normativa europea relativa a los productos, de 2022» (20), la norma general es que más de un acto jurídico de la legislación de armonización de la Unión, como los Reglamentos (UE) 2017/745 (21) y (UE) 2017/746 (22) del Parlamento Europeo y del Consejo o la Directiva 2006/42/CE del Parlamento Europeo y del Consejo (23) puedan aplicarse a un producto, dado que la introducción en el mercado o la puesta en servicio solo pueden tener lugar cuando el producto cumple toda la legislación de armonización de la Unión aplicable. A fin de garantizar la coherencia y evitar cargas administrativas o costes innecesarios, los proveedores de un producto que contenga uno o varios sistemas de IA de alto riesgo, a los que se apliquen los requisitos del presente Reglamento y de la legislación de armonización de la Unión incluida en una lista de un anexo del presente Reglamento, deben ser flexibles en lo que respecta a las decisiones operativas relativas a la manera de garantizar la conformidad de un producto que contenga uno o varios sistemas de IA con todos los requisitos aplicables de la legislación de armonización de la Unión de manera óptima. La clasificación de un sistema de IA como «de alto riesgo» debe limitarse a aquellos sistemas de IA que tengan un efecto perjudicial considerable en la salud, la seguridad y los derechos fundamentales de las personas de la Unión, y dicha limitación debe reducir al mínimo cualquier posible restricción del comercio internacional.
(46)
Suuririskisiä tekoälyjärjestelmiä olisi saatettava unionin markkinoille, otettava käyttöön tai käytettävä vain, jos ne täyttävät tietyt pakolliset vaatimukset. Näillä vaatimuksilla olisi varmistettava, että suuririskiset tekoälyjärjestelmät, jotka ovat saatavilla unionissa tai joiden tuloksia muutoin käytetään unionissa, eivät aiheuta kohtuuttomia riskejä unionin tärkeille julkisille eduille, sellaisina kuin ne on tunnustettu ja suojattu unionin oikeudessa. Uuden lainsäädäntökehyksen perusteella, kuten komission tiedonannossa ”Sininen opas – EU:n tuotesääntöjen täytäntöönpano-opas 2022” (20) selvennetään, yleissääntönä on, että useampaa kuin yhtä unionin yhdenmukaistamislainsäädännön säädöstä, kuten Euroopan parlamentin ja neuvoston asetuksia (EU) 2017/745 (21) ja (EU) 2017/746 (22) tai Euroopan parlamentin ja neuvoston direktiiviä 2006/42/EY (23), voidaan soveltaa yhteen tuotteeseen, koska saataville asettaminen tai käyttöönotto voidaan sallia vain, jos tuote on kaiken sovellettavan unionin yhdenmukaistamislainsäädännön mukainen. Johdonmukaisuuden varmistamiseksi sekä tarpeettomien hallinnollisten rasitteiden ja kustannusten välttämiseksi sellaisen tuotteen, joka sisältää yhden tai useamman suuririskisen tekoälyjärjestelmän, johon sovelletaan tämän asetuksen ja tämän asetuksen liitteessä luetellun unionin yhdenmukaistamislainsäädännön vaatimuksia, tarjoajien olisi oltava joustavia niiden operatiivisten päätösten osalta, joilla varmistetaan parhaalla mahdollisella tavalla yhden tai useamman tekoälyjärjestelmän sisältävän tuotteen vaatimustenmukaisuus kaikkien unionin yhdenmukaistamislainsäädännön säännösten kanssa. Suuririskisiksi määritellyt tekoälyjärjestelmät olisi rajattava järjestelmiin, joilla on merkittävä haitallinen vaikutus ihmisten terveyteen, turvallisuuteen ja perusoikeuksiin unionissa, ja tällaisella rajauksella olisi minimoitava mahdolliset kansainvälisen kaupan rajoitukset.
(47)
Los sistemas de IA pueden tener un efecto adverso para la salud y la seguridad de las personas, en particular cuando funcionan como componentes de seguridad de productos. En consonancia con los objetivos de la legislación de armonización de la Unión de facilitar la libre circulación de productos en el mercado interior y de velar por que solo lleguen al mercado aquellos productos que sean seguros y conformes, es importante prevenir y mitigar debidamente los riesgos de seguridad que pueda generar un producto en su conjunto debido a sus componentes digitales, entre los que pueden figurar los sistemas de IA. Por ejemplo, los robots cada vez más autónomos que se utilizan en las fábricas o con fines de asistencia y atención personal deben poder funcionar y desempeñar sus funciones de manera segura en entornos complejos. Del mismo modo, en el sector sanitario, donde puede haber repercusiones especialmente importantes en la vida y la salud, los sistemas de diagnóstico y de apoyo a las decisiones humanas, cuya sofisticación es cada vez mayor, deben ser fiables y precisos.
(47)
Tekoälyjärjestelmät voivat vaikuttaa haitallisesti ihmisten terveyteen ja turvallisuuteen erityisesti silloin, kun tällaiset järjestelmät toimivat tuotteiden turvakomponentteina. Unionin yhdenmukaistamislainsäädännön tavoitteena on helpottaa tuotteiden vapaata liikkuvuutta sisämarkkinoilla ja varmistaa, että markkinoille pääsee ainoastaan turvallisia ja muuten vaatimustenmukaisia tuotteita, ja näiden tavoitteiden mukaisesti on tärkeää, että turvallisuusriskejä, joita tuotteesta kokonaisuudessaan voi aiheutua sen digitaalisten komponenttien, kuten tekoälyjärjestelmien, vuoksi, ehkäistään ja vähennetään asianmukaisesti. Esimerkiksi yhä autonomisempien robottien olisi voitava toimia ja suorittaa tehtävänsä turvallisesti monimutkaisissa ympäristöissä, olipa kyse sitten valmistuksesta tai henkilökohtaisesta avusta ja huolenpidosta. Samoin terveydenhuoltoalalla, jossa panokset ovat elämän ja terveyden kannalta erityisen suuret, yhä kehittyneempien diagnostiikkajärjestelmien ja ihmisten päätöksiä tukevien järjestelmien olisi oltava luotettavia ja tarkkoja.
(48)
La magnitud de las consecuencias adversas de un sistema de IA para los derechos fundamentales protegidos por la Carta es especialmente importante a la hora de clasificar un sistema de IA como de alto riesgo. Entre dichos derechos se incluyen el derecho a la dignidad humana, el respeto de la vida privada y familiar, la protección de datos de carácter personal, la libertad de expresión y de información, la libertad de reunión y de asociación, el derecho a la no discriminación, el derecho a la educación, la protección de los consumidores, los derechos de los trabajadores, los derechos de las personas discapacitadas, la igualdad entre hombres y mujeres, los derechos de propiedad intelectual, el derecho a la tutela judicial efectiva y a un juez imparcial, los derechos de la defensa y la presunción de inocencia, y el derecho a una buena administración. Además de esos derechos, conviene poner de relieve el hecho de que los menores poseen unos derechos específicos consagrados en el artículo 24 de la Carta y en la Convención sobre los Derechos del Niño de las Naciones Unidas, que se desarrollan con más detalle en la observación general n.o 25 de la Convención sobre los Derechos del Niño de Naciones Unidas relativa a los derechos de los niños en relación con el entorno digital. Ambos instrumentos exigen que se tengan en consideración las vulnerabilidades de los menores y que se les brinde la protección y la asistencia necesarias para su bienestar. Cuando se evalúe la gravedad del perjuicio que puede ocasionar un sistema de IA, también en lo que respecta a la salud y la seguridad de las personas, también se debe tener en cuenta el derecho fundamental a un nivel elevado de protección del medio ambiente consagrado en la Carta y aplicado en las políticas de la Unión.
(48)
Tekoälyjärjestelmästä perusoikeuskirjassa suojatuille perusoikeuksille aiheutuvan haitallisen vaikutuksen laajuus on erityisen merkityksellinen, kun tekoälyjärjestelmä luokitellaan suuririskiseksi. Näitä oikeuksia ovat muun muassa oikeus ihmisarvoon, yksityis- ja perhe-elämän kunnioittaminen, henkilötietojen suoja, sananvapaus ja tiedonvälityksen vapaus, kokoontumis- ja yhdistymisvapaus, oikeus syrjimättömyyteen, oikeus koulutukseen, kuluttajansuoja, työntekijöiden oikeudet, vammaisten oikeudet, sukupuolten tasa-arvo, teollis- ja tekijänoikeudet, oikeus tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen, oikeus puolustukseen ja syyttömyysolettama sekä oikeus hyvään hallintoon. Näiden oikeuksien lisäksi on tärkeää korostaa, että lapsilla on erityisiä oikeuksia, jotka on vahvistettu perusoikeuskirjan 24 artiklassa ja Yhdistyneiden kansakuntien lapsen oikeuksien yleissopimuksessa, jota on täydennetty digitaalisen ympäristön osalta lapsen oikeuksien yleissopimuksen yleisessä huomautuksessa nro 25, ja joissa molemmissa edellytetään lasten haavoittuvuuden huomioon ottamista ja lasten hyvinvoinnin kannalta välttämättömän suojelun ja huolenpidon tarjoamista. Perusoikeuskirjaan kirjattu ja unionin politiikoissa täytäntöönpantu perusoikeus korkeaan ympäristönsuojelun tasoon olisi myös otettava huomioon arvioitaessa tekoälyjärjestelmästä mahdollisesti aiheutuvan haitan vakavuutta, myös suhteessa ihmisten terveyteen ja turvallisuuteen.
(49)
En relación con los sistemas de IA de alto riesgo que son componentes de seguridad de productos o sistemas, o que son en sí mismos productos o sistemas que entran en el ámbito de aplicación del Reglamento (CE) n.o 300/2008 del Parlamento Europeo y del Consejo (24), el Reglamento (UE) n.o 167/2013 del Parlamento Europeo y del Consejo (25), el Reglamento (UE) n.o 168/2013 del Parlamento Europeo y del Consejo (26), la Directiva 2014/90/UE del Parlamento Europeo y del Consejo (27), la Directiva (UE) 2016/797 del Parlamento Europeo y del Consejo (28), el Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo (29), el Reglamento (UE) 2018/1139 del Parlamento Europeo y del Consejo (30), y el Reglamento (UE) 2019/2144 del Parlamento Europeo y del Consejo (31), procede modificar dichos actos para garantizar que, cuando la Comisión adopte actos delegados o de ejecución pertinentes basados en ellos, tenga en cuenta los requisitos obligatorios para los sistemas de IA de alto riesgo previstos en el presente Reglamento, atendiendo a las particularidades técnicas y reglamentarias de los distintos sectores y sin interferir con los mecanismos y las autoridades de gobernanza, evaluación de la conformidad y control del cumplimiento vigentes establecidos en dichos actos.
(49)
Sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka ovat tuotteiden tai järjestelmien turvakomponentteja tai ovat itse tuotteita tai järjestelmiä, jotka kuuluvat Euroopan parlamentin ja neuvoston asetuksen (EY) N:o 300/2008 (24), Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 167/2013 (25), Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 168/2013 (26), Euroopan parlamentin ja neuvoston direktiivin 2014/90/EU (27), Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/797 (28), Euroopan parlamentin ja neuvoston asetuksen (EU) 2018/858 (29), Euroopan parlamentin ja neuvoston asetuksen (EU) 2018/1139 (30) ja Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/2144 (31) soveltamisalaan, on asianmukaista muuttaa mainittuja säädöksiä sen varmistamiseksi, että kun komissio hyväksyy mahdollisia asiaa koskevia delegoituja säädöksiä tai täytäntöönpanosäädöksiä mainittujen säädösten perusteella, se ottaa huomioon tässä asetuksessa vahvistetut suuririskisiä tekoälyjärjestelmiä koskevat pakolliset vaatimukset kunkin alan teknisten ja sääntelyllisten ominaispiirteiden perusteella ja puuttumatta mainituilla säädöksillä perustettuihin olemassa oleviin hallinnointi-, vaatimustenmukaisuuden arviointi- ja valvontamekanismeihin ja -viranomaisiin.
(50)
En cuanto a los sistemas de IA que son componentes de seguridad de productos, o que son productos en sí mismos, y entran dentro del ámbito de aplicación de determinados actos legislativos de armonización de la Unión enumerados en un anexo del presente Reglamento, procede clasificarlos como de alto riesgo en virtud del presente Reglamento si el producto de que se trate es sometido a un procedimiento de evaluación de la conformidad con un organismo de evaluación de la conformidad de terceros de acuerdo con dichos actos legislativos de armonización de la Unión. Esos productos son, en concreto, máquinas, juguetes, ascensores, equipo y sistemas de protección para uso en atmósferas potencialmente explosivas, equipos radioeléctricos, equipos a presión, equipos de embarcaciones de recreo, instalaciones de transporte por cable, aparatos que queman combustibles gaseosos, productos sanitarios, productos sanitarios para diagnóstico in vitro, automoción y aviación.
(50)
Tekoälyjärjestelmät, jotka ovat tämän asetuksen liitteessä luetellun tietyn unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluvien tuotteiden turvakomponentteja tai ovat itse tuotteita, on aiheellista luokitella suuririskisiksi tämän asetuksen mukaisesti, jos kyseiselle tuotteelle tehdään vaatimustenmukaisuuden arviointimenettely kolmatta osapuolta edustavassa vaatimustenmukaisuuden arviointilaitoksessa mainitun asiaa koskevan unionin yhdenmukaistamislainsäädännön mukaisesti. Tällaisia tuotteita ovat erityisesti koneet, lelut, hissit, räjähdysvaarallisissa tiloissa käytettäviksi tarkoitetut laitteet ja suojajärjestelmät, radiolaitteet, painelaitteet, huviveneet, köysiratalaitteistot, kaasumaisia polttoaineita polttavat laitteet sekä lääkinnälliset laitteet, in vitro -diagnostiikkaan tarkoitetut lääkinnälliset laitteet, ajoneuvot ja ilma-alukset.
(51)
Que un sistema de IA se clasifique como de alto riesgo en virtud del presente Reglamento no significa necesariamente que el producto del que sea componente de seguridad, o el propio sistema de IA como producto, se considere de «alto riesgo» conforme a los criterios establecidos en la correspondiente legislación de armonización de la Unión que se aplique al producto. Tal es el caso, en particular, de los Reglamentos (UE) 2017/745 y (UE) 2017/746, que prevén una evaluación de la conformidad de terceros de los productos de riesgo medio y alto.
(51)
Tekoälyjärjestelmän luokittelun suuririskiseksi tämän asetuksen mukaisesti ei välttämättä pitäisi tarkoittaa sitä, että tuotetta, jonka turvakomponentti on tekoälyjärjestelmä, tai itse tekoälyjärjestelmää tuotteena pidetään suuririskisenä tuotteeseen sovellettavassa asiaa koskevassa unionin yhdenmukaistamislainsäädännössä vahvistettujen perusteiden mukaisesti. Tämä koskee erityisesti asetuksia (EU) 2017/745 ja (EU) 2017/746, joissa säädetään kolmannen osapuolen suorittamasta vaatimustenmukaisuuden arvioinnista keskisuuren ja suuren riskin tuotteille.
(52)
En cuanto a los sistemas de IA independientes, a saber, aquellos sistemas de IA de alto riesgo que no son componentes de seguridad de productos, o que son productos en sí mismos, deben clasificarse como de alto riesgo si, a la luz de su finalidad prevista, presentan un alto riesgo de ser perjudiciales para la salud y la seguridad o los derechos fundamentales de las personas, teniendo en cuenta tanto la gravedad del posible perjuicio como la probabilidad de que se produzca, y se utilizan en varios ámbitos predefinidos especificados en el presente Reglamento. Para identificar dichos sistemas, se emplean la misma metodología y los mismos criterios previstos para la posible modificación futura de la lista de sistemas de IA de alto riesgo, que la Comisión debe estar facultada para adoptar, mediante actos delegados, a fin de tener en cuenta el rápido ritmo del desarrollo tecnológico, así como los posibles cambios en el uso de los sistemas de IA.
(52)
Erilliset tekoälyjärjestelmät eli muut suuririskiset tekoälyjärjestelmät kuin ne, jotka ovat tuotteiden turvakomponentteja tai jotka ovat itsenäisiä tuotteita, olisi luokiteltava suuririskisiksi, jos ne suunnitellun käyttötarkoituksensa perusteella aiheuttavat suuren riskin ihmisten terveydelle ja turvallisuudelle tai perusoikeuksille, kun otetaan huomioon sekä mahdollisen haitan vakavuus että sen esiintymistodennäköisyys, ja niitä käytetään tässä asetuksessa erikseen määritellyillä aloilla. Näiden järjestelmien yksilöinti perustuu samoihin menetelmiin ja kriteereihin, joita sovelletaan myös suuririskisten tekoälyjärjestelmien luetteloon tulevaisuudessa tehtäviin muutoksiin. Komissiolle olisi siirrettävä valta hyväksyä tällaisia muutoksia täytäntöönpanosäädöksillä, jotta voidaan ottaa huomioon teknologian nopea kehitys ja tekoälyjärjestelmien käytön mahdolliset muutokset.
(53)
También es importante aclarar que pueden existir casos específicos en los que los sistemas de IA referidos en ámbitos predefinidos especificados en el presente Reglamento no entrañen un riesgo considerable de causar un perjuicio a los intereses jurídicos amparados por dichos ámbitos, dado que no influyen sustancialmente en la toma de decisiones o no perjudican dichos intereses sustancialmente. A efectos del presente Reglamento, por sistema de IA que no influye sustancialmente en el resultado de la toma de decisiones debe entenderse un sistema de IA que no afecta al fondo, ni por consiguiente al resultado, de la toma de decisiones, ya sea humana o automatizada. Un sistema de IA que no influye sustancialmente en el resultado de la toma de decisiones podría incluir situaciones en las que se cumplen una o varias de las siguientes condiciones. La primera de dichas condiciones debe ser que el sistema de IA esté destinado a realizar una tarea de procedimiento delimitada, como un sistema de IA que transforme datos no estructurados en datos estructurados, un sistema de IA que clasifique en categorías los documentos recibidos o un sistema de IA que se utilice para detectar duplicados entre un gran número de aplicaciones. La naturaleza de esas tareas es tan restringida y limitada que solo presentan riesgos limitados que no aumentan por la utilización de un sistema de IA en un contexto que un anexo al presente Reglamento recoja como uso de alto riesgo. La segunda condición debe ser que la tarea realizada por el sistema de IA esté destinada a mejorar el resultado de una actividad previa llevada a cabo por un ser humano, que pudiera ser pertinente a efectos de las utilizaciones de alto riesgo enumeradas en un anexo del presente Reglamento. Teniendo en cuenta esas características, el sistema de IA solo añade un nivel adicional a la actividad humana, entrañando por consiguiente un riesgo menor. Esa condición se aplicaría, por ejemplo, a los sistemas de IA destinados a mejorar el lenguaje utilizado en documentos ya redactados, por ejemplo, en lo referente al empleo de un tono profesional o de un registro lingüístico académico o a la adaptación del texto a una determinada comunicación de marca. La tercera condición debe ser que el sistema de IA esté destinado a detectar patrones de toma de decisiones o desviaciones respecto de patrones de toma de decisiones anteriores. El riesgo sería menor debido a que el sistema de IA se utiliza tras una valoración humana previamente realizada y no pretende sustituirla o influir en ella sin una revisión adecuada por parte de un ser humano. Por ejemplo, entre los sistemas de IA de este tipo, se incluyen aquellos que pueden utilizarse para comprobar a posteriori si un profesor puede haberse desviado de su patrón de calificación determinado, a fin de llamar la atención sobre posibles incoherencias o anomalías. La cuarta condición debe ser que el sistema de IA esté destinado a realizar una tarea que solo sea preparatoria de cara a una evaluación pertinente a efectos de los sistemas de IA enumerados en el anexo del presente Reglamento, con lo que la posible repercusión de los resultados de salida del sistema sería muy escasa en términos de representar un riesgo para la subsiguiente evaluación. Esa condición comprende, entre otras cosas, soluciones inteligentes para la gestión de archivos, lo que incluye funciones diversas tales como la indexación, la búsqueda, el tratamiento de texto y del habla o la vinculación de datos a otras fuentes de datos, o bien los sistemas de IA utilizados para la traducción de los documentos iniciales. En cualquier caso, debe considerarse que los sistemas de IA utilizados en casos de alto riesgo enumerados en un anexo del presente Reglamento presentan un riesgo significativo de menoscabar la salud y la seguridad o los derechos fundamentales si el sistema de IA conlleva la elaboración de perfiles en el sentido del artículo 4, punto 4, del Reglamento (UE) 2016/679, del artículo 3, punto 4, de la Directiva (UE) 2016/680 o del artículo 3, punto 5, del Reglamento (UE) 2018/1725. Para garantizar la trazabilidad y la transparencia, los proveedores que, basándose en las condiciones antes citadas, consideren que un sistema de IA no es de alto riesgo, deben elaborar la documentación de la evaluación previamente a la introducción en el mercado o la entrada en servicio de dicho sistema de IA y facilitarla a las autoridades nacionales competentes cuando estas lo soliciten. Dichos proveedores deben tener la obligación de registrar el sistema en la base de datos de la UE creada en virtud del presente Reglamento. Con el fin de proporcionar orientaciones adicionales sobre la aplicación práctica de las condiciones con arreglo a las cuales los sistemas de IA enumerados en un anexo del presente Reglamento no se consideran, con carácter excepcional, de alto riesgo, la Comisión debe, previa consulta al Consejo de IA, proporcionar directrices que especifiquen dicha aplicación práctica, completadas por una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que sean de alto riesgo y de casos de uso que no lo sean.
(53)
On myös tärkeää selventää, että tietyissä tapauksissa tekoälyjärjestelmät, joihin viitataan tässä asetuksessa täsmennetyillä erikseen määritellyillä aloilla, eivät aiheuta merkittävän haitan riskiä kyseisillä aloilla suojatuille oikeudellisille eduille, koska ne eivät vaikuta olennaisesti päätöksentekoon tai vahingoita kyseisiä etuja merkittävästi. Tätä asetusta sovellettaessa tekoälyjärjestelmän, joka ei olennaisesti vaikuta päätöksenteon tulokseen, olisi katsottava olevan tekoälyjärjestelmä, jolla ei ole vaikutusta päätöksenteon sisältöön ja näin ollen sen tulokseen riippumatta siitä, onko tämä päätöksenteko automatisoitua vai vastaako siitä ihminen. Tekoälyjärjestelmä voidaan katsoa sellaiseksi, joka ei olennaisesti vaikuta päätöksenteon tulokseen, esimerkiksi tilanteissa, joissa yksi tai useampi seuraavista edellytyksistä täyttyy. Ensimmäisenä tällaisena edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu suorittamaan suppeaa menettelyllistä tehtävää. Tällaiseksi katsotaan esimerkiksi tekoälyjärjestelmä, joka muuntaa jäsentämättömän datan jäsennellyksi dataksi, tekoälyjärjestelmä, joka luokittelee saapuvia asiakirjoja, tai tekoälyjärjestelmä, jota käytetään päällekkäisyyksien havaitsemiseen useiden sovellusten välillä. Nämä tehtävät ovat niin kapea-alaisia ja rajallisia, että niistä aiheutuu vain vähäisiä riskejä, jotka eivät lisäänny sellaisen tekoälyjärjestelmän käytön yhteydessä, joka mainitaan tämän asetuksen liitteessä suuririskisenä käyttönä. Toisena edellytyksenä olisi oltava, että tekoälyjärjestelmän suorittaman tehtävän tarkoituksena on parantaa aiemmin päätökseen saatetun ihmisen toiminnan tulosta, jolla voi olla merkitystä tämän asetuksen liitteessä luetellun suuririskisen käytön kannalta. Kun otetaan huomioon nämä ominaisuudet, tekoälyjärjestelmä tuottaa vain täydentävän kerroksen ihmisen toiminnalle, jolloin riski on alentunut. Tätä edellytystä sovellettaisiin esimerkiksi tekoälyjärjestelmiin, joiden tarkoituksena on parantaa aiemmin laadituissa asiakirjoissa käytettyä kieltä esimerkiksi ammatillisen sävyn tai akateemisen tyylin osalta tai mukauttamalla teksti tietynlaisen brändiviestinnän mukaiseksi.Kolmantena edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu havaitsemaan päätöksentekotapoja tai poikkeamia aiemmista päätöksentekotavoista. Riski olisi alentunut, koska tekoälyjärjestelmän käyttö perustuu ihmisen aiemmin tekemään arviointiin, jota sen ei ole tarkoitus korvata tai johon sen ei ole tarkoitus vaikuttaa ilman asianmukaista ihmisen suorittamaa arviointia. Tällaisia tekoälyjärjestelmiä ovat esimerkiksi järjestelmät, joiden avulla voidaan esimerkiksi tietyn opettajan arvostelutapojen pohjalta tarkistaa jälkikäteen, onko kyseinen opettaja mahdollisesti poikennut arvostelutavoistaan. Näin voidaan ilmoittaa mahdollisista epäjohdonmukaisuuksista tai poikkeamista. Neljäntenä edellytyksenä olisi oltava, että tekoälyjärjestelmä on tarkoitettu suorittamaan tehtävä, joka on ainoastaan tämän asetuksen liitteessä lueteltujen tekoälyjärjestelmien kannalta merkityksellisen arvioinnin valmistelua, jolloin järjestelmän tuotoksen mahdollinen vaikutus on hyvin vähäinen siltä osin kuin se muodostaa riskin arvioinnissa. Tämä edellytys kattaa muun muassa tiedostojen käsittelyä koskevat älykkäät ratkaisut, joihin kuuluu erilaisia toimintoja, kuten indeksointi, haku, tekstin- ja puheenkäsittely tai tietojen yhdistäminen muihin tietolähteisiin, ja tekoälyjärjestelmät, joita käytetään alkuperäisten asiakirjojen kääntämiseen. Tämän asetuksen liitteessä luetelluissa suuririskisen käytön tapauksissa käytetyt tekoälyjärjestelmät olisi joka tapauksessa katsottava aiheuttavan merkittävän haitan riskin terveydelle, turvallisuudelle tai perusoikeuksille, jos tekoälyjärjestelmä edellyttää asetuksen (EU) 2016/679 4 artiklan 4 alakohdassa, direktiivin (EU) 2016/680 3 artiklan 4 alakohdassa tai asetuksen (EU) 2018/1725 3 artiklan 5 alakohdassa tarkoitettua profilointia. Jäljitettävyyden ja avoimuuden varmistamiseksi tarjoajan, joka edellä tarkoitettujen edellytysten perusteella katsoo, että tekoälyjärjestelmä ei ole suuririskinen, olisi laadittava arviointia koskeva dokumentaatio ennen kyseisen järjestelmän markkinoille saattamista tai käyttöönottoa ja toimitettava tämä dokumentaatio pyynnöstä kansallisille toimivaltaisille viranomaisille. Tällainen tarjoaja olisi velvoitettava rekisteröimään tekoälyjärjestelmä tämän asetuksen nojalla perustettuun EU:n tietokantaan. Jotta voidaan antaa lisäohjeita niiden edellytysten käytännön täytäntöönpanosta, joiden mukaisesti tämän asetuksen liitteessä luetellut tekoälyjärjestelmät ovat poikkeuksellisesti muita kuin suuririskisiä, komission olisi tekoälyneuvostoa kuultuaan annettava ohjeet, joissa täsmennetään, että käytännön täytäntöönpanoa täydennetään kattavalla luettelolla, jossa on käytännön esimerkkejä sellaisten tekoälyjärjestelmien käyttötapauksista, jotka ovat suuririskisiä, ja käyttötapauksista, jotka eivät sitä ole.
(54)
Dado que los datos biométricos constituyen una categoría de datos personales sensibles, procede clasificar como de alto riesgo varios casos de uso críticos de sistemas biométricos, en la medida que su utilización esté permitida con arreglo al Derecho de la Unión y nacional pertinente. Las imprecisiones técnicas de los sistemas de IA destinados a la identificación biométrica remota de las personas físicas pueden dar lugar a resultados sesgados y tener efectos discriminatorios. El riesgo de dichos resultados sesgados y efectos discriminatorios es especialmente pertinente por lo que respecta a la edad, la etnia, la raza, el sexo o la discapacidad. Por lo tanto, los sistemas de identificación biométrica remota deben clasificarse como de alto riesgo debido a los riesgos que entrañan. Quedan excluidos de dicha clasificación los sistemas de IA destinados a la verificación biométrica, que incluye la autenticación, cuyo único propósito es confirmar que una persona física concreta es quien dicha persona dice ser, así como confirmar la identidad de una persona física con la finalidad exclusiva de que tenga acceso a un servicio, desbloquee un dispositivo o tenga un acceso seguro a un local. Además, deben clasificarse como de alto riesgo los sistemas de IA destinados a ser utilizados para la categorización biométrica conforme a atributos o características sensibles protegidos en virtud del artículo 9, apartado 1, del Reglamento (UE) 2016/679 sobre la base de datos biométricos, en la medida en que no estén prohibidos en virtud del presente Reglamento, así como los sistemas de reconocimiento de emociones que no estén prohibidos con arreglo al presente Reglamento. Los sistemas biométricos destinados a ser utilizados exclusivamente a efectos de posibilitar la ciberseguridad y las medidas de protección de los datos personales no deben considerarse sistemas de IA de alto riesgo.
(54)
Biometriset tiedot muodostavat erityisen henkilötietojen ryhmän, joten on aiheellista luokitella suuririskisiksi biometristen järjestelmien useita kriittisiä käyttötapauksia, jos niiden käyttö on sallittua asiaa koskevan unionin ja kansallisen lainsäädännön nojalla. Luonnollisten henkilöiden biometriseen etätunnistukseen tarkoitettujen tekoälyjärjestelmien tekniset epätarkkuudet voivat johtaa vinoutuneisiin tuloksiin ja aiheuttaa syrjiviä vaikutuksia. Tällaisten vinoutuneiden tulosten ja syrjivien vaikutusten riski on erityisen merkityksellinen, kun tulokset tai vaikutukset liittyvät ikään, etniseen alkuperään, rotuun, sukupuoleen tai vammaisuuteen. Biometriset etätunnistusjärjestelmät olisi näin ollen luokiteltava suuririskisiksi niiden aiheuttamien riskien vuoksi. Tällaisen luokittelun ulkopuolelle jäävät tekoälyjärjestelmät, joita on tarkoitus käyttää biometriseen todennukseen, joka käsittää tunnistautumisen, ja joiden ainoana tarkoituksena on vahvistaa, että tietty luonnollinen henkilö on se henkilö, joka hän väittää olevansa, sekä vahvistaa luonnollisen henkilön henkilöllisyys ainoastaan jonkin palvelun käyttämiseksi, laitteen lukituksen poistamiseksi tai valvottuun tilaan pääsemiseksi. Lisäksi tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi biometriseen luokitteluun sellaisten arkaluonteisten ominaisuuksien tai ominaisuuspiirteiden mukaan, jotka on suojattu asetuksen (EU) 2016/679 9 artiklan 1 kohdan nojalla biometrisinä tietoina, siltä osin kuin tällaisia järjestelmiä ei ole kielletty tässä asetuksessa, ja tunteentunnistusjärjestelmät, joita ei ole kielletty tässä asetuksessa, olisi luokiteltava suuririskisiksi. Biometrisiä järjestelmiä, joita on tarkoitus käyttää yksinomaan kyberturvallisuutta ja henkilötietojen suojaamista koskeviin toimiin, ei olisi katsottava suuririskisiksi tekoälyjärjestelmiksi.
(55)
Por lo que respecta a la gestión y el funcionamiento de infraestructuras críticas, procede clasificar como de alto riesgo los sistemas de IA destinados a ser utilizados como componentes de seguridad en la gestión y el funcionamiento de las infraestructuras digitales críticas que se enumeran en el anexo, punto 8, de la Directiva (UE) 2022/2557; del tráfico rodado y del suministro de agua, gas, calefacción y electricidad, pues un fallo o un defecto de funcionamiento de estos componentes puede poner en peligro la vida y la salud de las personas a gran escala y alterar de manera considerable el desarrollo habitual de las actividades sociales y económicas. Los componentes de seguridad de las infraestructuras críticas, como las infraestructuras digitales críticas, son sistemas utilizados para proteger directamente la integridad física de las infraestructuras críticas o la salud y la seguridad de las personas y los bienes, pero que no son necesarios para el funcionamiento del sistema. El fallo o el defecto de funcionamiento de estos componentes podría dar lugar directamente a riesgos para la integridad física de las infraestructuras críticas y, por tanto, a riesgos para la salud y la seguridad de las personas y los bienes. Los componentes destinados a ser utilizados exclusivamente con fines de ciberseguridad no deben considerarse componentes de seguridad. Entre los componentes de seguridad de esas infraestructuras críticas cabe citar los sistemas de control de la presión del agua o los sistemas de control de las alarmas contra incendios en los centros de computación en la nube.
(55)
Kriittisen infrastruktuurin hallinnan ja toiminnan osalta on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi turvakomponentteina direktiivin (EU) 2022/2557 liitteessä olevassa 8 kohdassa luetellun kriittisen digitaalisen infrastruktuurin, tieliikenteen sekä vesi-, kaasu-, lämmitys- ja sähköhuollon hallinnassa ja toiminnassa, koska niiden viat tai toimintahäiriöt voivat vaarantaa ihmisten hengen ja terveyden suuressa mittakaavassa ja aiheuttaa tuntuvia häiriöitä yhteiskunnallisen ja taloudellisen toiminnan tavanomaisessa harjoittamisessa. Kriittisen infrastruktuurin, mukaan lukien kriittinen digitaalinen infrastruktuuri, turvakomponentit ovat järjestelmiä, joita käytetään suoraan suojaamaan kriittisen infrastruktuurin fyysistä koskemattomuutta tai henkilöiden terveyttä ja turvallisuutta ja omaisuuden turvallisuutta mutta jotka eivät ole tarpeellisia järjestelmän toiminnan kannalta. Tällaisten komponenttien vikaantuminen tai toimintahäiriö saattaa johtaa suoraan riskeihin kriittisen infrastruktuurin fyysiselle koskemattomuudelle ja näin ollen riskeihin henkilöiden terveydelle ja turvallisuudelle ja omaisuuden turvallisuudelle. Komponentteja, jotka on tarkoitettu käytettäviksi pelkästään kyberturvallisuustarkoituksiin, ei pitäisi katsoa turvakomponenteiksi. Esimerkkejä tällaisen kriittisen infrastruktuurin turvakomponenteista voivat olla järjestelmät vedenpaineen seuraamiseksi tai palohälytysohjausjärjestelmät pilvipalvelukeskuksissa.
(56)
El despliegue de sistemas de IA en el ámbito educativo es importante para fomentar una educación y formación digitales de alta calidad y para que todos los estudiantes y profesores puedan adquirir y compartir las capacidades y competencias digitales necesarias, incluidos la alfabetización mediática, y el pensamiento crítico, para participar activamente en la economía, la sociedad y los procesos democráticos. No obstante, deben clasificarse como de alto riesgo los sistemas de IA que se utilizan en la educación o la formación profesional, y en particular aquellos que determinan el acceso o la admisión, distribuyen a las personas entre distintas instituciones educativas y de formación profesional o programas de todos los niveles, evalúan los resultados del aprendizaje de las personas, evalúan el nivel apropiado de educación de una persona e influyen sustancialmente en el nivel de educación y formación que las personas recibirán o al que podrán acceder, o supervisan y detectan comportamientos prohibidos de los estudiantes durante las pruebas, ya que pueden decidir la trayectoria formativa y profesional de una persona y, en consecuencia, puede afectar a su capacidad para asegurar su subsistencia. Cuando no se diseñan y utilizan correctamente, estos sistemas pueden invadir especialmente y violar el derecho a la educación y la formación, y el derecho a no sufrir discriminación, además de perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, determinados grupos de edad, las personas con discapacidad o las personas de cierto origen racial o étnico o con una determinada orientación sexual.
(56)
Tekoälyjärjestelmien käyttöönotto koulutuksessa on tärkeää, jotta voidaan edistää laadukasta digitaalista koulutusta ja antaa kaikille oppijoille ja opettajille mahdollisuus hankkia ja jakaa tarvittavia digitaalisia taitoja ja osaamista, myös medialukutaitoa ja kriittistä ajattelua, jotta he voivat osallistua aktiivisesti talouteen, yhteiskuntaan ja demokraattisiin prosesseihin. Tekoälyjärjestelmiä, joita käytetään yleissivistävässä tai ammatillisessa koulutuksessa, erityisesti kun määritetään pääsyä tai hyväksymistä tai osoitetaan henkilöitä yleissivistävän tai ammatillisen koulutuksen oppilaitoksiin tai ohjelmiin kaikilla tasoilla, arvioidaan henkilöiden oppimistuloksia, arvioidaan yksittäiselle henkilölle soveltuvaa koulutustasoa ja vaikutetaan olennaisesti sen yleissivistävän tai ammatillisen koulutuksen tasoon, jota henkilö myöhemmin saa tai johon hän voi päästä, tai kun kokeiden aikana tarkkaillaan opiskelijoita tai pyritään havaitsemaan kiellettyä käyttäytymistä, olisi kuitenkin pidettävä suuririskisinä tekoälyjärjestelminä, koska ne voivat määrittää henkilön elämän koulutuksellisen ja ammatillisen suunnan ja voivat siten vaikuttaa kyseisen henkilön kykyyn turvata toimeentulonsa. Kun tällaiset järjestelmät suunnitellaan ja niitä käytetään epäasianmukaisesti, ne voivat olla erityisen tunkeilevia ja loukata oikeutta koulutukseen ja oikeutta olla joutumatta syrjityksi, ja ne voivat jatkaa historiallisia syrjinnän muotoja, jotka kohdistuvat esimerkiksi naisiin, tiettyihin ikäryhmiin, vammaisiin henkilöihin tai henkilöihin, joilla on tietty rodullinen tai etninen alkuperä tai seksuaalinen suuntautuminen.
(57)
También deben clasificarse como de alto riesgo los sistemas de IA que se utilizan en los ámbitos del empleo, la gestión de los trabajadores y el acceso al autoempleo, en particular para la contratación y la selección de personal, para la toma de decisiones que afecten a las condiciones de las relaciones de índole laboral, la promoción y la rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales y para la supervisión o evaluación de las personas en el marco de las relaciones contractuales de índole laboral, dado que pueden afectar de un modo considerable a las futuras perspectivas laborales, a los medios de subsistencia de dichas personas y a los derechos de los trabajadores. Las relaciones contractuales de índole laboral deben incluir, de manera significativa, a los empleados y las personas que prestan servicios a través de plataformas, como indica el programa de trabajo de la Comisión para 2021. Dichos sistemas pueden perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, determinados grupos de edad, las personas con discapacidad o las personas de orígenes raciales o étnicos concretos o con una orientación sexual determinada, durante todo el proceso de contratación y en la evaluación, promoción o retención de personas en las relaciones contractuales de índole laboral. Los sistemas de IA empleados para controlar el rendimiento y el comportamiento de estas personas también pueden socavar sus derechos fundamentales a la protección de los datos personales y a la intimidad.
(57)
Tekoälyjärjestelmät, joita käytetään työllistämisessä, henkilöstöhallinnossa ja itsenäisen ammatinharjoittamisen mahdollistamisessa, erityisesti henkilöiden rekrytoinnin ja valinnan osalta, sellaisten päätösten tekemisen osalta, jotka vaikuttavat työsuhteen ehtoihin sekä uralla etenemistä ja työsuhteen päättämistä koskeviin työehtoihin, työhön liittyviin sopimussuhteisiin perustuvan tehtävien jakamisen osalta yksilöllisen käyttäytymisen tai personallisuuspiirteiden tai -ominaisuuksien perusteella sekä työhön liittyvissä sopimussuhteissa olevien henkilöiden seurannan tai arvioinnin osalta, olisi myös luokiteltava suuririskisiksi, koska kyseiset järjestelmät voivat vaikuttaa merkittävästi näiden henkilöiden tuleviin uranäkymiin, toimeentuloon ja työntekijöiden oikeuksiin. Näiden työhön liittyvien sopimussuhteiden olisi koskettava merkityksellisellä tavalla myös työntekijöitä ja henkilöitä, jotka tarjoavat palveluja alustojen kautta, kuten komission vuoden 2021 työohjelmassa esitetään. Tällaiset järjestelmät voivat koko rekrytointiprosessin ajan sekä työhön liittyvissä sopimussuhteissa olevien henkilöiden arvioinnin, uralla etenemisen tai työsuhteen jatkamisen yhteydessä pitää yllä historiallisia syrjinnän muotoja, jotka kohdistuvat esimerkiksi naisiin, tiettyihin ikäryhmiin, vammaisiin henkilöihin tai henkilöihin, joilla on tietty rodullinen tai etninen alkuperä tai seksuaalinen suuntautuminen. Tekoälyjärjestelmät, joita käytetään tällaisten henkilöiden suorituskyvyn ja käyttäytymisen seurantaan, voivat heikentää myös heidän tietosuojaansa ja yksityisyyden suojaa koskevia perusoikeuksiaan.
(58)
El acceso a determinados servicios y prestaciones esenciales, de carácter público y privado, necesarios para que las personas puedan participar plenamente en la sociedad o mejorar su nivel de vida, y el disfrute de dichos servicios y prestaciones, es otro ámbito en el que conviene prestar especial atención a la utilización de sistemas de IA. En particular, las personas físicas que solicitan a las autoridades públicas o reciben de estas prestaciones y servicios esenciales de asistencia pública, a saber, servicios de asistencia sanitaria, prestaciones de seguridad social, servicios sociales que garantizan una protección en casos como la maternidad, la enfermedad, los accidentes laborales, la dependencia o la vejez y la pérdida de empleo, asistencia social y ayudas a la vivienda, suelen depender de dichas prestaciones y servicios y, por lo general, se encuentran en una posición de vulnerabilidad respecto de las autoridades responsables. La utilización de sistemas de IA para decidir si las autoridades deben conceder, denegar, reducir o revocar dichas prestaciones y servicios o reclamar su devolución, lo que incluye decidir, por ejemplo, si los beneficiarios tienen legítimamente derecho a dichas prestaciones y servicios, podría tener un efecto considerable en los medios de subsistencia de las personas y vulnerar sus derechos fundamentales, como el derecho a la protección social, a la no discriminación, a la dignidad humana o a la tutela judicial efectiva y, por lo tanto, deben clasificarse como de alto riesgo. No obstante, el presente Reglamento no debe obstaculizar el desarrollo y el uso de enfoques innovadores en la Administración, que podrían beneficiarse de una mayor utilización de sistemas de IA conformes y seguros, siempre y cuando dichos sistemas no supongan un alto riesgo para las personas jurídicas y físicas. Además, deben clasificarse como de alto riesgo los sistemas de IA usados para evaluar la calificación crediticia o solvencia de las personas físicas, ya que deciden si dichas personas pueden acceder a recursos financieros o servicios esenciales como la vivienda, la electricidad y los servicios de telecomunicaciones. Los sistemas de IA usados con esos fines pueden discriminar a determinadas personas o colectivos y perpetuar patrones históricos de discriminación, como por motivos de origen racial o étnico, género, discapacidad, edad u orientación sexual, o generar nuevas formas de discriminación. No obstante, los sistemas de IA previstos por el Derecho de la Unión con vistas a detectar fraudes en la oferta de servicios financieros y, a efectos prudenciales, para calcular los requisitos de capital de las entidades de crédito y las empresas de seguros no deben considerarse de alto riesgo en virtud del presente Reglamento. Además, los sistemas de IA destinados a ser utilizados para la evaluación de riesgos y la fijación de precios en relación con las personas físicas en el caso de los seguros de vida y de salud también pueden afectar de un modo considerable a los medios de subsistencia de las personas y, si no se diseñan, desarrollan y utilizan debidamente, pueden vulnerar sus derechos fundamentales y pueden tener graves consecuencias para la vida y la salud de las personas, como la exclusión financiera y la discriminación. Por último, los sistemas de IA empleados para evaluar y clasificar llamadas de emergencia de personas físicas o el envío o el establecimiento de prioridades en el envío de servicios de primera intervención en situaciones de emergencia, incluidos policía, bomberos y servicios de asistencia médica, así como sistemas de triaje de pacientes para la asistencia sanitaria de emergencia, también deben considerarse de alto riesgo, dado que adoptan decisiones en situaciones sumamente críticas para la vida y la salud de las personas y de sus bienes.
(58)
Toinen osa-alue, jolla tekoälyjärjestelmien käyttöön on kiinnitettävä erityistä huomiota, on sellaisten olennaisten yksityisten ja julkisten palvelujen ja etujen saatavuus ja käyttö, joita ihmiset tarvitsevat voidakseen osallistua täysipainoisesti yhteiskuntaan tai parantaakseen elintasoaan. Erityisesti luonnolliset henkilöt, jotka hakevat tai saavat viranomaisilta olennaisia julkisen avun etuuksia ja palveluja, kuten terveydenhuoltopalveluja, sosiaaliturvaetuuksia, sosiaalipalveluja, joilla taataan suoja muun muassa raskauden ja synnytyksen aikana ja sairauden, työtapaturman, hoidon tarpeen ja vanhuuden varalta sekä työpaikan menetyksen yhteydessä, ja toimeentuloturvaa ja asumisen tukea, ovat yleensä riippuvaisia näistä etuuksista ja palveluista ja haavoittuvassa asemassa vastuuviranomaisiin nähden. Jos tekoälyjärjestelmiä käytetään sen määrittämiseen, olisiko viranomaisten myönnettävä tai evättävä tällaiset etuudet ja palvelut tai rajoitettava niitä, peruutettava ne tai perittävä ne takaisin, mukaan lukien se, onko edunsaajilla laillinen oikeus tällaisiin etuuksiin tai palveluihin, näillä järjestelmillä voi olla merkittävä vaikutus henkilöiden toimeentuloon ja ne voivat loukata heidän perusoikeuksiaan, kuten oikeutta sosiaaliseen suojeluun, syrjimättömyyteen, ihmisarvoon tai tehokkaisiin oikeussuojakeinoihin, ja ne olisi sen vuoksi luokiteltava suuririskisiksi. Tämä asetus ei kuitenkaan saisi haitata innovatiivisten lähestymistapojen kehittämistä ja käyttöä julkishallinnossa, sillä se hyötyisi vaatimustenmukaisten ja turvallisten tekoälyjärjestelmien laajemmasta käytöstä edellyttäen, että kyseisiin järjestelmiin ei liity suurta oikeushenkilöihin ja luonnollisiin henkilöihin kohdistuvaa riskiä.Lisäksi tekoälyjärjestelmät, joita käytetään arvioitaessa luonnollisten henkilöiden luottopisteytystä tai luottokelpoisuutta, olisi luokiteltava suuririskisiksi tekoälyjärjestelmiksi, koska ne määrittävät kyseisten henkilöiden mahdollisuuden saada taloudellisia resursseja tai olennaisia palveluja, kuten asumis-, sähkö- ja televiestintäpalveluja. Näihin tarkoituksiin käytetyt tekoälyjärjestelmät voivat johtaa henkilöiden tai henkilöryhmien syrjintään ja voivat pitää yllä historiallisia syrjinnän muotoja, jotka perustuvat esimerkiksi rotuun tai etniseen alkuperään, sukupuoleen, vammaisuuteen, ikään tai sukupuoliseen suuntautumiseen, tai luoda uusia syrjiviä vaikutuksia. Tekoälyjärjestelmiä, joista säädetään unionin oikeudessa rahoituspalvelujen tarjoamiseen liittyvien petosten havaitsemiseksi ja vakavaraisuussyistä luottolaitosten ja vakuutusyritysten pääomavaatimusten laskemiseksi, ei kuitenkaan pitäisi katsoa suuririskisiksi tämän asetuksen nojalla. Lisäksi tekoälyjärjestelmillä, joita on tarkoitus käyttää luonnollisia henkilöitä koskevaan riskiarviointiin ja hinnoitteluun sairaus- ja henkivakuutusten tapauksessa, voi myös olla merkittävä vaikutus henkilöiden toimeentuloon ja jos niitä ei ole asianmukaisesti suunniteltu, kehitetty ja käytetty, ne voivat loukata heidän perusoikeuksiaan sekä aiheuttaa vakavia seurauksia ihmisten elämälle ja terveydelle, mukaan lukien taloudellinen syrjäytyminen ja syrjintä. Myös tekoälyjärjestelmät, joita käytetään luonnollisten henkilöiden hätäpuhelujen arvioinnissa ja luokittelussa tai pelastus- ja ensihoitopalvelujen, mukaan lukien poliisi, palokunta ja lääkintäapu sekä kiireellistä ensihoitoa tarvitsevien potilaiden lajittelujärjestelmä, lähettämisessä tai tärkeysjärjestyksen määrittämisessä, olisi luokiteltava suuririskisiksi, koska ne tekevät päätöksiä tilanteissa, jotka ovat erittäin kriittisiä ihmisten hengen ja terveyden ja heidän omaisuutensa kannalta.
(59)
Dado su papel y su responsabilidad, las actuaciones de las autoridades garantes del cumplimiento del Derecho que implican determinados usos de los sistemas de IA se caracterizan por un importante desequilibrio de poder y pueden dar lugar a la vigilancia, la detención o la privación de libertad de una persona física, así como tener otros efectos negativos sobre los derechos fundamentales consagrados en la Carta. En particular, si el sistema de IA no está entrenado con datos de buena calidad, no cumple los requisitos adecuados en términos de rendimiento, de precisión o de solidez, o no se diseña y prueba debidamente antes de introducirlo en el mercado o ponerlo en servicio, es posible que señale a personas de manera discriminatoria, incorrecta o injusta. Además, podría impedir el ejercicio de importantes derechos procesales fundamentales, como el derecho a la tutela judicial efectiva y a un juez imparcial, así como el derecho a la defensa y a la presunción de inocencia, sobre todo cuando dichos sistemas de IA no sean lo suficientemente transparentes y explicables ni estén suficientemente bien documentados. Por consiguiente, en la medida en que su uso esté permitido conforme al Derecho de la Unión y nacional pertinente, procede clasificar como de alto riesgo varios sistemas de IA destinados a ser utilizados con fines de garantía del cumplimiento del Derecho cuando su precisión, fiabilidad y transparencia sean especialmente importantes para evitar consecuencias adversas, conservar la confianza de la población y garantizar la rendición de cuentas y unas vías de recurso efectivas. En vista de la naturaleza de las actividades y de los riesgos conexos, entre dichos sistemas de IA de alto riesgo deben incluirse, en particular, los sistemas de IA destinados a ser utilizados por las autoridades garantes del cumplimiento del Derecho, o en nombre de estas, o por las instituciones, órganos u organismos de la Unión en apoyo de las primeras, para evaluar el riesgo de que una persona física sea víctima de delitos, como los polígrafos y otras herramientas similares, para evaluar la fiabilidad de las pruebas durante la investigación o el enjuiciamiento de delitos y, en la medida en que no esté prohibido conforme al presente Reglamento, para evaluar el riesgo de que una persona física cometa un delito o reincida, no solo sobre la base de la elaboración de perfiles de personas físicas o la evaluación de rasgos y características de la personalidad o comportamientos delictivos pasados de personas físicas o grupos de personas, o para elaborar perfiles durante la detección, la investigación o el enjuiciamiento de delitos. Los sistemas de IA destinados específicamente a ser utilizados en procesos administrativos por las autoridades fiscales y aduaneras y las unidades de inteligencia financiera que desempeñan tareas administrativas de análisis de información de conformidad con el Derecho de la Unión en materia de lucha contra el blanqueo de capitales no deben clasificarse como sistemas de IA de alto riesgo usados por las autoridades garantes del cumplimiento del Derecho con el fin de prevenir, detectar, investigar y enjuiciar delitos. El uso de herramientas de IA por parte de las autoridades garantes del cumplimiento del Derecho y otras autoridades pertinentes no debe convertirse en un factor de desigualdad o exclusión. No debe ignorarse el impacto del uso de herramientas de IA en los derechos de defensa de los sospechosos, en particular la dificultad para obtener información significativa sobre el funcionamiento de dichos sistemas y la consiguiente dificultad para impugnar sus resultados ante los tribunales, en particular por parte de las personas físicas investigadas.
(59)
Lainvalvontaviranomaisten toimille, joihin liittyy tiettyä tekoälyjärjestelmien käyttöä, on ominaista huomattava vallan epätasapaino niiden roolin ja vastuun vuoksi, ja ne voivat johtaa luonnollisen henkilön valvontaan, pidättämiseen tai vapaudenmenetykseen sekä muihin perusoikeuskirjassa taattuihin perusoikeuksiin kohdistuviin haitallisiin vaikutuksiin. Erityisesti jos tekoälyjärjestelmää ei ole koulutettu laadukkaalla datalla, se ei täytä riittäviä vaatimuksia toimintansa, tarkkuutensa tai vakautensa suhteen tai sitä ei ole suunniteltu ja testattu asianmukaisesti ennen markkinoille saattamista tai muuta käyttöönottoa, se voi valikoida henkilöitä syrjivästi tai muulla tavoin väärin tai epäoikeudenmukaisesti. Lisäksi merkittävien menettelyllisten perusoikeuksien, joita ovat muun muassa oikeus tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen sekä oikeus puolustukseen ja syyttömyysolettama, käyttö voisi vaikeutua erityisesti silloin, kun tällaiset tekoälyjärjestelmät eivät ole riittävän avoimia, selitettävissä olevia ja dokumentoituja. Sen vuoksi on aiheellista luokitella suuririskisiksi joukko tekoälyjärjestelmiä, jotka on tarkoitettu käytettäviksi lainvalvonnan yhteydessä, siltä osin kuin niiden käyttö on sallittua asiaa koskevan unionin oikeuden ja kansallisen lainsäädännön nojalla, kun tarkkuus, luotettavuus ja avoimuus ovat erityisen tärkeitä haitallisten vaikutusten välttämiseksi, kansalaisten luottamuksen säilyttämiseksi sekä vastuuvelvollisuuden ja tehokkaiden oikeussuojakeinojen varmistamiseksi. Kun otetaan huomioon toimintojen luonne ja niihin liittyvät riskit, näihin suuririskisiin tekoälyjärjestelmiin olisi katsottava kuuluvan erityisesti tekoälyjärjestelmät, joita on tarkoitus käyttää valheenpaljastimina ja vastaavina välineinä lainvalvontaviranomaisten toimesta tai niiden puolesta taikka unionin toimielinten, elinten, toimistojen tai virastojen toimesta lainvalvontaviranomaisten tueksi, jotta voidaan arvioida luonnollisen henkilön riskiä joutua rikoksen uhriksi ja todistusaineiston luotettavuutta rikostutkinnassa tai rikosoikeudellisissa menettelyissä ja, siltä osin kuin sitä ei kielletä tässä asetuksessa, arvioida luonnollisen henkilön rikoksen esiintymisen tai toistumisen riskiä myös muilla keinoilla kuin luonnollisten henkilöiden profiloinnin tai luonnollisten henkilöiden tai ryhmien persoonallisuuspiirteiden ja -ominaisuuksien tai aiemman rikollisen käyttäytymisen arvioinnin perusteella, rikosten paljastamisen, tutkimisen tai rikoksiin liittyvien syytetoimien yhteydessä tapahtuvaa profilointia varten. Tekoälyjärjestelmiä, jotka on erityisesti tarkoitettu käytettäviksi vero- ja tulliviranomaisten hallinnollisissa menettelyissä sekä rahanpesun selvittelykeskuksissa, jotka suorittavat hallinnollisia tehtäviä, joissa analysoidaan tietoja unionin rahanpesunvastaisen lainsäädännön nojalla, ei pitäisi luokitella suuririskisiksi tekoälyjärjestelmiksi, joita lainvalvontaviranomaiset käyttävät rikosten ennalta estämiseen, tutkimiseen, paljastamiseen tai rikoksiin liittyviin syytetoimiin. Lainvalvontaviranomaisten ja muiden asiaankuuluvien viranomaisten harjoittama tekoälyn käyttö ei saisi lisätä eriarvoisuutta tai syrjäytymistä. Tekoälyvälineiden käytön vaikutuksia rikoksesta epäiltyjen puolustusoikeuksiin ei pitäisi jättää huomiotta, etenkään vaikeuksia saada kyseisten järjestelmien toimintaa koskevia merkityksellisiä tietoja ja siitä erityisesti tutkinnan kohteena oleville luonnollisille henkilöille aiheutuvaa ongelmaa haastaa tekoälyvälineiden tulokset tuomioistuimessa.
(60)
Los sistemas de IA empleados en la migración, el asilo y la gestión del control fronterizo afectan a personas que con frecuencia se encuentran en una situación especialmente vulnerable y que dependen del resultado de las actuaciones de las autoridades públicas competentes. Por este motivo, es sumamente importante que los sistemas de IA que se utilicen en estos contextos sean precisos, no discriminatorios y transparentes, a fin de garantizar que se respeten los derechos fundamentales de las personas afectadas y, en particular, su derecho a la libre circulación, a la no discriminación, a la intimidad personal y la protección de los datos personales, a la protección internacional y a una buena administración. Por lo tanto, procede clasificar como de alto riesgo, en la medida en que su utilización esté permitida en virtud del Derecho de la Unión y nacional, aquellos sistemas de IA destinados a ser utilizados por las autoridades públicas competentes, o en su nombre, o por las instituciones, órganos u organismos de la Unión que realizan tareas en el ámbito de la migración, el asilo y la gestión del control fronterizo como polígrafos y herramientas similares, para evaluar determinados riesgos que presenten las personas físicas que entren en el territorio de un Estado miembro o que soliciten un visado o asilo, para ayudar a las autoridades públicas competentes a examinar, con inclusión de la evaluación conexa de la fiabilidad de las pruebas, las solicitudes de asilo, visado y permiso de residencia, así como las reclamaciones conexas en relación con el objetivo de determinar si las personas físicas solicitantes reúnen los requisitos necesarios para que se conceda su solicitud, a efectos de detectar, reconocer o identificar a las personas físicas en el contexto de la migración, el asilo y la gestión del control fronterizo, con excepción de la verificación de los documentos de viaje. Los sistemas de IA en el ámbito de la migración, el asilo y la gestión del control fronterizo sujetos al presente Reglamento deben cumplir los requisitos procedimentales pertinentes establecidos por el Reglamento (CE) n.o 810/2009 del Parlamento Europeo y del Consejo (32), la Directiva 2013/32/UE del Parlamento Europeo y del Consejo (33) y otro Derecho de la Unión pertinente. El empleo de los sistemas de IA en la migración, el asilo y la gestión del control fronterizo no debe, en ningún caso, ser utilizado por los Estados miembros o las instituciones, órganos u organismos de la Unión como medio para eludir sus obligaciones internacionales en virtud de la Convención de las Naciones Unidas sobre el Estatuto de los Refugiados, hecha en Ginebra el 28 de julio de 1951, modificada por el Protocolo de 31 de enero de 1967. Tampoco debe ser utilizado para infringir en modo alguno el principio de no devolución, ni para negar unas vías jurídicas seguras y efectivas de acceso al territorio de la Unión, incluido el derecho a la protección internacional.
(60)
Muuttoliikkeen hallinnassa, turvapaikka-asioissa ja rajavalvonnassa käytettävät tekoälyjärjestelmät vaikuttavat henkilöihin, jotka ovat usein erityisen haavoittuvassa asemassa ja riippuvaisia toimivaltaisten viranomaisten toimien tuloksista. Näissä yhteyksissä käytettävien tekoälyjärjestelmien tarkkuus, syrjimätön luonne ja avoimuus on sen vuoksi erityisen tärkeää, jotta voidaan taata henkilöiden, joihin vaikutukset kohdistuvat, perusoikeuksien kunnioittaminen, erityisesti heidän oikeutensa vapaaseen liikkuvuuteen, syrjimättömyyteen, yksityiselämän ja henkilötietojen suojaan, kansainväliseen suojeluun ja hyvään hallintoon. Sen vuoksi on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, siltä osin kuin niiden käyttö on sallittua asiaa koskevan unionin ja kansallisen lainsäädännön nojalla, joita on tarkoitus käyttää valheenpaljastimina ja vastaavina välineinä muuttoliikkeen hallinnassa, turvapaikka-asioissa ja rajavalvonnassa vastaavien toimivaltaisten viranomaisten toimesta tai niiden puolesta taikka vastaavien unionin elinten, toimistojen tai virastojen toimesta; jäsenvaltion alueelle saapuvien tai viisumia tai turvapaikkaa hakevien luonnollisten henkilöiden aiheuttamien tiettyjen riskien arvioimiseen; toimivaltaisten viranomaisten avustamiseen turvapaikka-, viisumi- ja oleskelulupahakemusten ja niihin liittyvien valitusten käsittelyssä, myös todistusaineiston luotettavuuden arvioinnin osalta, kun tavoitteena on vahvistaa asemaa hakevien luonnollisten henkilöiden kelpoisuus; sekä luonnollisten henkilöiden havaitsemiseen, tunnistamiseen tai henkilöllisyyden määrittämiseen muuttoliikkeen, turvapaikka-asioiden ja rajavalvonnan yhteydessä, pois lukien matkustusasiakirjojen tarkastaminen.Tämän asetuksen soveltamisalaan kuuluvien muuttoliikkeen hallinnan, turvapaikka-asioiden ja rajavalvonnan alan tekoälyjärjestelmien olisi oltava Euroopan parlamentin ja neuvoston asetuksessa (EY) N:o 810/2009 (32), Euroopan parlamentin ja neuvoston direktiivissä 2013/32/EU (33) ja muussa asiaa koskevassa unionin oikeudessa säädettyjen asiaankuuluvien menettelyvaatimusten mukaisia. Jäsenvaltioiden tai unionin toimielinten, elinten, toimistojen tai virastojen ei pitäisi missään tapauksessa käyttää tekoälyjärjestelmiä muuttoliikkeen, turvapaikka-asioiden ja rajavalvonnan hallinnassa keinona kiertää Genevessä 28 päivänä heinäkuuta 1951 tehdyn pakolaisten oikeusasemaa koskevan YK:n yleissopimuksen, sellaisena kuin se on muutettuna 31 päivänä tammikuuta 1967 tehdyllä pöytäkirjalla, mukaisia kansainvälisiä velvoitteitaan. Niiden käyttö ei myöskään saisi millään tavoin loukata palauttamiskiellon periaatetta eikä evätä unionin alueelle pääsemiseksi turvallisia ja toimivia laillisia väyliä tai oikeutta kansainväliseen suojeluun.
(61)
Deben clasificarse como de alto riesgo determinados sistemas de IA destinados a la administración de justicia y los procesos democráticos, dado que pueden tener efectos potencialmente importantes para la democracia, el Estado de Derecho, las libertades individuales y el derecho a la tutela judicial efectiva y a un juez imparcial. En particular, a fin de hacer frente al riesgo de posibles sesgos, errores y opacidades, procede clasificar como de alto riesgo aquellos sistemas de IA destinados a ser utilizados por una autoridad judicial o en su nombre para ayudar a las autoridades judiciales a investigar e interpretar los hechos y el Derecho y a aplicar la ley a unos hechos concretos. También deben considerarse de alto riesgo los sistemas de IA destinados a ser utilizados por los organismos de resolución alternativa de litigios con esos fines, cuando los resultados de los procedimientos de resolución alternativa de litigios surtan efectos jurídicos para las partes. La utilización de herramientas de IA puede apoyar el poder de decisión de los jueces o la independencia judicial, pero no debe substituirlas: la toma de decisiones finales debe seguir siendo una actividad humana. No obstante, la clasificación de los sistemas de IA como de alto riesgo no debe hacerse extensiva a los sistemas de IA destinados a actividades administrativas meramente accesorias que no afectan a la administración de justicia propiamente dicha en casos concretos, como la anonimización o seudonimización de resoluciones judiciales, documentos o datos, la comunicación entre los miembros del personal o las tareas administrativas.
(61)
Tietyt oikeudenhoitoon ja demokraattisiin prosesseihin tarkoitetut tekoälyjärjestelmät olisi luokiteltava suuririskisiksi ottaen huomioon niiden mahdollinen merkittävä vaikutus demokratiaan, oikeusvaltioon, yksilön vapauksiin sekä oikeuteen tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen. Erityisesti mahdollisten vinoutumien, virheiden ja läpinäkymättömyyden riskeihin puuttumiseksi on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, joita on tarkoitus käyttää oikeusviranomaisten toimesta tai niiden puolesta ja joiden tarkoituksena on auttaa oikeusviranomaisia tutkimaan ja tulkitsemaan tosiseikkoja ja lainsäädäntöä sekä soveltamaan lainsäädäntöä konkreettisiin tosiseikkoihin. Tekoälyjärjestelmiä, joita vaihtoehtoisten riidanratkaisuelinten on tarkoitus käyttää näihin tarkoituksiin, olisi myös pidettävä suuririskisinä, jos vaihtoehtoisten riidanratkaisumenettelyjen tuloksilla on oikeusvaikutuksia osapuolille. Tekoälyvälineiden käytöllä voidaan tukea mutta se ei saisi korvata tuomareiden päätöksentekovaltaa tai oikeuslaitoksen riippumattomuutta, koska lopullisten päätösten on myös jatkossa oltava ihmisen tekemiä. Tekoälyjärjestelmien luokittelua suuririskiseksi ei kuitenkaan pitäisi ulottaa tekoälyjärjestelmiin, jotka on tarkoitettu puhtaasti hallinnollisiin tukitoimiin, jotka eivät vaikuta oikeudenkäyttöön yksittäisissä tapauksissa, kuten tuomioistuinten päätösten, asiakirjojen tai tietojen anonymisointiin tai pseudonymisointiin, henkilöstön väliseen viestintään tai hallinnollisiin tehtäviin.
(62)
Sin perjuicio de las normas previstas en el Reglamento (UE) 2024/900 del Parlamento Europeo y del Consejo (34), y a fin de hacer frente a los riesgos de injerencia externa indebida en el derecho de voto consagrado en el artículo 39 de la Carta, y de efectos adversos sobre la democracia y el Estado de Derecho, deben clasificarse como sistemas de IA de alto riesgo los sistemas de IA destinados a ser utilizados para influir en el resultado de una elección o un referéndum, o en el comportamiento electoral de las personas físicas en el ejercicio de su voto en elecciones o referendos, con excepción de los sistemas de IA a cuyos resultados de salida las personas físicas no están directamente expuestas, como las herramientas utilizadas para organizar, optimizar y estructurar campañas políticas desde un punto de vista administrativo y logístico.
(62)
Jotta voidaan puuttua perusoikeuskirjan 39 artiklassa vahvistettuun äänioikeuteen kohdistuviin asiattoman ulkopuolisen sekaantumisen riskeihin sekä riskeihin haitallisista vaikutuksista demokratiaan ja oikeusvaltioon, sellaiset tekoälyjärjestelmät olisi luokiteltava suuririskisiksi, jotka on tarkoitettu käytettäviksi vaikuttamaan vaalien tai kansanäänestysten tulokseen tai vaaleissa tai kansanäänestyksissä äänioikeuttaan käyttävien luonnollisten henkilöiden äänestyskäyttäytymiseen, lukuun ottamatta tekoälyjärjestelmiä, joiden tuotoksille luonnolliset henkilöt eivät suoraan altistu, kuten välineet, joita käytetään poliittisten kampanjoiden hallinnolliseen ja logistiseen järjestämiseen, optimointiin ja jäsentämiseen, sanotun kuitenkaan rajoittamatta Euroopan parlamentin ja neuvoston asetuksessa (EU) 2024/900 (34) säädettyjen sääntöjen soveltamista.
(63)
El hecho de que un sistema de IA sea clasificado como un sistema de IA de alto riesgo en virtud del presente Reglamento no debe interpretarse como indicador de que su uso sea lícito con arreglo a otros actos del Derecho de la Unión o del Derecho nacional compatible con el Derecho de la Unión, por ejemplo, en materia de protección de los datos personales o la utilización de polígrafos y herramientas similares u otros sistemas para detectar el estado emocional de las personas físicas. Todo uso de ese tipo debe seguir realizándose exclusivamente en consonancia con los requisitos oportunos derivados de la Carta y de los actos aplicables del Derecho derivado de la Unión y del Derecho nacional. No debe entenderse que el presente Reglamento constituye un fundamento jurídico para el tratamiento de datos personales, incluidas las categorías especiales de datos personales, en su caso, salvo que el presente Reglamento disponga específicamente otra cosa.
(63)
Sen, että tekoälyjärjestelmä luokitellaan tässä asetuksessa suuririskiseksi tekoälyjärjestelmäksi, ei saisi tulkita osoittavan, että järjestelmän käyttö on laillista muiden unionin säädösten tai unionin oikeuden kanssa yhteensopivan kansallisen lainsäädännön nojalla, jota on annettu esimerkiksi henkilötietojen suojasta tai valheenpaljastimien ja vastaavien välineiden tai muiden järjestelmien käytöstä tai luonnollisen henkilön tunnetilan havaitsemisesta. Tällaisen käytön olisi jatkuttava yksinomaan perusoikeuskirjasta ja sovellettavista unionin johdetun oikeuden säädöksistä ja kansallisesta lainsäädännöstä johtuvien sovellettavien vaatimusten mukaisesti. Tätä asetusta ei pitäisi ymmärtää niin, että siinä säädettäisiin oikeusperustasta henkilötietojen käsittelylle, mukaan lukien tarvittaessa erityiset henkilötietoryhmät, ellei siitä nimenomaisesti toisin säädetä tässä asetuksessa.
(64)
Con el objetivo de mitigar los riesgos que presentan los sistemas de IA de alto riesgo que se introducen en el mercado o se ponen en servicio, y para garantizar un alto nivel de fiabilidad, deben aplicarse a los sistemas de IA de alto riesgo ciertos requisitos obligatorios que tengan en cuenta la finalidad prevista y el contexto del uso del sistema de IA y estén en consonancia con el sistema de gestión de riesgos que debe establecer el proveedor. Las medidas adoptadas por los proveedores para cumplir los requisitos obligatorios del presente Reglamento deben tener en cuenta el estado actual de la técnica generalmente reconocido en materia de IA, ser proporcionadas y eficaces para alcanzar los objetivos del presente Reglamento. Sobre la base del nuevo marco legislativo, como se aclara en la Comunicación de la Comisión titulada «“Guía azul” sobre la aplicación de la normativa europea relativa a los productos, de 2022», la norma general es que más de un acto jurídico de la legislación de armonización de la Unión puede ser aplicable a un producto, ya que la comercialización o la puesta en servicio solamente puede producirse cuando el producto cumple toda la legislación de armonización de la Unión aplicable. Los peligros de los sistemas de IA cubiertos por los requisitos del presente Reglamento se refieren a aspectos diferentes de los contemplados en la legislación de armonización de la Unión existente y, por consiguiente, los requisitos del presente Reglamento completarían el conjunto existente de legislación de armonización de la Unión. Por ejemplo, las máquinas o los productos sanitarios que incorporan un sistema de IA pueden presentar riesgos de los que no se ocupan los requisitos esenciales de salud y seguridad establecidos en la legislación armonizada de la Unión pertinente, ya que esa legislación sectorial no aborda los riesgos específicos de los sistemas de IA. Esto exige una aplicación simultánea y complementaria de diversos actos legislativos. A fin de garantizar la coherencia y evitar una carga administrativa innecesaria y costes innecesarios, los proveedores de un producto que contenga uno o varios sistemas de IA de alto riesgo, a los que se apliquen los requisitos del presente Reglamento y de los actos legislativos de armonización de la Unión basados en el nuevo marco legislativo y enumerados en un anexo del presente Reglamento, deben ser flexibles en lo que respecta a las decisiones operativas relativas a la manera de garantizar la conformidad de un producto que contenga uno o varios sistemas de IA con todos los requisitos aplicables de la legislación armonizada de la Unión de manera óptima. Esa flexibilidad podría significar, por ejemplo, la decisión del proveedor de integrar una parte de los procesos de prueba y notificación necesarios, así como la información y la documentación exigidas en virtud del presente Reglamento, en la documentación y los procedimientos ya existentes exigidos en virtud de los actos legislativos de armonización de la Unión vigentes basados en el nuevo marco legislativo y enumerados en un anexo del presente Reglamento. Esto no debe socavar en modo alguno la obligación del proveedor de cumplir todos los requisitos aplicables.
(64)
Jotta voidaan vähentää riskejä, joita markkinoille saatetuista tai muuten käyttöön otetuista suuririskisistä tekoälyjärjestelmistä aiheutuu, ja jotta voidaan varmistaa korkea luotettavuuden taso, suuririskisiin tekoälyjärjestelmiin olisi sovellettava tiettyjä pakollisia vaatimuksia ottaen huomioon tekoälyjärjestelmän käyttötarkoitus ja -yhteys ja noudattaen tarjoajan perustamaa riskinhallintajärjestelmää. Toimenpiteissä, joita tarjoajat toteuttavat noudattaakseen tämän asetuksen pakollisia vaatimuksia, olisi otettava huomioon yleisesti tunnustettu tekoälyä koskeva viimeisin kehitys, ja niiden olisi oltava oikeasuhteisia ja tehokkaita tämän asetuksen tavoitteiden saavuttamiseksi. Uuden lainsäädäntökehyksen perusteella, kuten komission tiedonannossa ”Sininen opas – EU:n tuotesääntöjen täytäntöönpano-opas 2022” selvennetään, yleissääntönä on, että useampaa kuin yhtä unionin yhdenmukaistamislainsäädännön säädöstä voidaan soveltaa yhteen tuotteeseen, koska saataville asettaminen tai käyttöönotto voidaan sallia vain, jos tuote on kaiken sovellettavan unionin yhdenmukaistamislainsäädännön mukainen. Tämän asetuksen vaatimusten soveltamisalaan kuuluvien tekoälyjärjestelmien vaarat koskevat eri näkökohtia kuin voimassa oleva unionin yhdenmukaistamislainsäädäntö, minkä vuoksi tämän asetuksen vaatimukset täydentäisivät nykyistä unionin yhdenmukaistamislainsäädäntöä. Esimerkiksi tekoälyjärjestelmän sisältäviin koneisiin tai lääkinnällisiin laitteisiin voi liittyä riskejä, joita ei käsitellä asiaa koskevan unionin yhdenmukaistamislainsäädännön vahvistetuissa olennaisissa terveys- ja turvallisuusvaatimuksissa, koska kyseisessä alakohtaisessa lainsäädännössä ei käsitellä tekoälyjärjestelmille ominaisia riskejä.Tämä edellyttää eri säädösten samanaikaista ja täydentävää soveltamista. Johdonmukaisuuden varmistamiseksi sekä tarpeettoman hallinnollisen rasitteen ja turhien kustannusten välttämiseksi sellaisen tuotteen, joka sisältää yhden tai useamman suuririskisen tekoälyjärjestelmän, johon sovelletaan tämän asetuksen ja tämän asetuksen liitteessä luetellun uuteen lainsäädäntökehykseen perustuvan unionin yhdenmukaistamislainsäädännön vaatimuksia, tarjoajien olisi oltava joustavia niiden operatiivisten päätösten osalta, joilla varmistetaan parhaalla mahdollisella tavalla yhden tai useamman tekoälyjärjestelmän sisältävän tuotteen vaatimustenmukaisuus kaikkien kyseisen unionin yhdenmukaistetun lainsäädännön säännösten kanssa. Tämä joustavuus voisi tarkoittaa esimerkiksi tarjoajan päätöstä sisällyttää osa tämän asetuksen nojalla vaadittavista testaus- ja raportointiprosesseista, tiedoista ja asiakirjoista jo olemassa oleviin asiakirjoihin ja menettelyihin, joita edellytetään tämän asetuksen liitteessä lueteltuun uuteen lainsäädäntökehykseen perustuvassa voimassa olevassa unionin yhdenmukaistamislainsäädännössä. Tämä ei saisi millään tavoin vähentää tarjoajan velvollisuutta noudattaa kaikkia sovellettavia vaatimuksia.
(65)
El sistema de gestión de riesgos debe consistir en un proceso iterativo continuo que sea planificado y ejecutado durante todo el ciclo de vida del sistema de IA de alto riesgo. Dicho proceso debe tener por objeto detectar y mitigar los riesgos pertinentes de los sistemas de IA para la salud, la seguridad y los derechos fundamentales. El sistema de gestión de riesgos debe revisarse y actualizarse periódicamente para garantizar su eficacia continua, así como la justificación y documentación de cualesquiera decisiones y acciones significativas adoptadas con arreglo al presente Reglamento. Este proceso debe garantizar que el proveedor determine los riesgos o efectos negativos y aplique medidas de mitigación de los riesgos conocidos y razonablemente previsibles de los sistemas de IA para la salud, la seguridad y los derechos fundamentales, habida cuenta de su finalidad prevista y de su uso indebido razonablemente previsible, incluidos los posibles riesgos derivados de la interacción entre el sistema de IA y el entorno en el que opera. El sistema de gestión de riesgos debe adoptar las medidas de gestión de riesgos más adecuadas a la luz del estado actual de la técnica en materia de IA. Al determinar las medidas de gestión de riesgos más adecuadas, el proveedor debe documentar y explicar las elecciones realizadas y, cuando proceda, contar con la participación de expertos y partes interesadas externas. Al determinar el uso indebido razonablemente previsible de los sistemas de IA de alto riesgo, el proveedor debe tener en cuenta los usos de los sistemas de IA que, aunque no estén directamente cubiertos por la finalidad prevista ni establecidos en las instrucciones de uso, cabe esperar razonablemente que se deriven de un comportamiento humano fácilmente previsible en el contexto de las características específicas y del uso de un sistema de IA concreto. Debe incluirse en las instrucciones de uso que sean facilitadas por el proveedor cualquier circunstancia conocida o previsible, asociada a la utilización del sistema de IA de alto riesgo conforme a su finalidad prevista o a un uso indebido razonablemente previsible, que pueda dar lugar a riesgos para la salud y la seguridad o los derechos fundamentales. Con ello se pretende garantizar que el responsable del despliegue sea consciente de estos riesgos y los tenga en cuenta al utilizar el sistema de IA de alto riesgo. La identificación y la aplicación de medidas de reducción del riesgo en caso de uso indebido previsible con arreglo al presente Reglamento no deben suponer la exigencia, para su acometida, de entrenamiento adicional específico para el sistema de IA de alto riesgo por parte del proveedor para hacer frente a usos indebidos previsibles. No obstante, se anima a los proveedores a considerar dichas medidas de entrenamiento adicionales para mitigar los usos indebidos razonablemente previsibles, cuando resulte necesario y oportuno.
(65)
Riskinhallintajärjestelmän olisi koostuttava iteratiivisesta prosessista, joka jatkuu suunnitellusti suuririskisen tekoälyjärjestelmän koko elinkaaren ajan. Kyseisellä prosessilla olisi pyrittävä määrittämään ja lieventämään tekoälyjärjestelmien terveyteen, turvallisuuteen ja perusoikeuksiin liittyviä riskejä. Riskinhallintajärjestelmää olisi tarkasteltava ja päivitettävä säännöllisesti, jotta voidaan varmistaa sen jatkuva tehokkuus sekä tämän asetuksen soveltamisalaan kuuluvien merkittävien päätösten ja toteutettujen toimien perustelut ja dokumentointi. Tällä prosessilla olisi varmistettava, että tarjoaja määrittää riskit tai haitalliset vaikutukset ja toteuttaa lieventäviä toimenpiteitä ottaen huomioon tekoälyjärjestelmien käyttötarkoituksen ja kohtuudella ennakoitavissa olevan väärinkäytön, jotta voidaan torjua niiden terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvia tunnettuja ja kohtuudella ennakoitavissa olevia riskejä, mukaan lukien mahdolliset riskit, jotka johtuvat tekoälyjärjestelmän ja sen toimintaympäristön välisestä vuorovaikutuksesta. Riskinhallintajärjestelmässä olisi otettava käyttöön asianmukaisimmat riskinhallintatoimenpiteet ottaen huomioon tekoälyn viimeisin kehitys. Asianmukaisimpia riskinhallintatoimenpiteitä määrittäessään tarjoajan olisi dokumentoitava ja selitettävä tehdyt valinnat sekä tarvittaessa otettava mukaan asiantuntijoita ja ulkopuolisia sidosryhmiä. Määrittäessään suuririskisten tekoälyjärjestelmien kohtuudella ennakoitavissa olevaa väärinkäyttöä tarjoajan olisi käsiteltävä tekoälyjärjestelmien käyttötarkoitukset, joiden voidaan kohtuudella olettaa johtuvan ihmisen helposti ennustettavissa olevasta käyttäytymisestä tietyn tekoälyjärjestelmän ominaisuuksien ja käytön yhteydessä, vaikka ne eivät kuuluisi suoraan käyttötarkoituksen piiriin ja niitä ei ole mainittu käyttöohjeissa. Kaikki tunnetut tai ennakoitavissa olevat olosuhteet, jotka liittyvät suuririskisen tekoälyjärjestelmän käyttöön sen käyttötarkoituksen mukaisesti tai kohtuudella ennakoitavissa olevissa väärinkäytön olosuhteissa ja jotka voivat aiheuttaa terveyteen, turvallisuuteen tai perusoikeuksiin kohdistuvia riskejä, olisi sisällytettävä tarjoajan antamiin käyttöohjeisiin. Näin varmistetaan, että käyttöönottaja on tietoinen niistä ja ottaa ne huomioon käyttäessään suuririskistä tekoälyjärjestelmää. Tämän asetuksen mukaisten ennakoitavissa olevan väärinkäytön riskinvähentämistoimenpiteiden määrittäminen ja toteuttaminen ei saisi edellyttää tarjoajalta suuririskistä tekoälyjärjestelmää koskevaa erityistä lisäkoulutusta ennakoitavissa olevan väärinkäytön käsittelemiseksi. Tarjoajia kannustetaan kuitenkin harkitsemaan tällaisia lisäkoulutustoimenpiteitä tarpeen mukaan kohtuullisesti ennakoitavissa olevien väärinkäytösten lieventämiseksi.
(66)
Deben aplicarse a los sistemas de IA de alto riesgo requisitos referentes a la gestión de riesgos, la calidad y la pertinencia de los conjuntos de datos utilizados, la documentación técnica y la conservación de registros, la transparencia y la comunicación de información a los responsables del despliegue, la supervisión humana, la solidez, la precisión y la ciberseguridad. Dichos requisitos son necesarios para mitigar de forma efectiva los riesgos para la salud, la seguridad y los derechos fundamentales. Al no disponerse razonablemente de otras medidas menos restrictivas del comercio, dichos requisitos no son restricciones injustificadas al comercio.
(66)
Suuririskisiin tekoälyjärjestelmiin olisi sovellettava vaatimuksia, jotka koskevat käytettyjen datajoukkojen riskinhallintaa, laatua ja merkityksellisyyttä, teknistä dokumentaatiota ja tietojen säilyttämistä, avoimuutta ja tietojen antamista käyttöönottajille, ihmisen suorittamaa valvontaa sekä vakautta, tarkkuutta ja kyberturvallisuutta. Nämä vaatimukset ovat tarpeen, jotta voidaan tehokkaasti vähentää terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvia riskejä. Koska muita vähemmän kauppaa rajoittavia toimenpiteitä ei ole kohtuudella käytettävissä, ja näin ollen kyseiset vaatimukset eivät ole perusteettomia kaupan rajoituksia.
(67)
Los datos de alta calidad y el acceso a datos de alta calidad desempeñan un papel esencial a la hora de proporcionar una estructura y garantizar el funcionamiento de muchos sistemas de IA, en especial cuando se emplean técnicas que implican el entrenamiento de modelos, con vistas a garantizar que el sistema de IA de alto riesgo funcione del modo previsto y en condiciones de seguridad y no se convierta en una fuente de algún tipo de discriminación prohibida por el Derecho de la Unión. Es preciso instaurar prácticas adecuadas de gestión y gobernanza de datos para lograr que los conjuntos de datos para el entrenamiento, la validación y la prueba sean de alta calidad. Los conjuntos de datos para el entrenamiento, la validación y la prueba, incluidas las etiquetas, deben ser pertinentes, lo suficientemente representativos y, en la mayor medida posible, estar libres de errores y ser completos en vista de la finalidad prevista del sistema. A fin de facilitar el cumplimiento del Derecho de la Unión en materia de protección de datos, como el Reglamento (UE) 2016/679, las prácticas de gestión y gobernanza de datos deben incluir, en el caso de los datos personales, la transparencia sobre el fin original de la recopilación de datos. Los conjuntos de datos deben tener las propiedades estadísticas adecuadas, también en lo que respecta a las personas o los colectivos de personas en relación con los que esté previsto utilizar el sistema de IA de alto riesgo, prestando una atención especial a la mitigación de los posibles sesgos en los conjuntos de datos que puedan afectar a la salud y la seguridad de las personas físicas, tener repercusiones negativas en los derechos fundamentales o dar lugar a algún tipo de discriminación prohibida por el Derecho de la Unión, especialmente cuando los datos de salida influyan en la información de entrada de futuras operaciones (bucles de retroalimentación). Los sesgos, por ejemplo, pueden ser inherentes a los conjuntos de datos subyacentes, especialmente cuando se utilizan datos históricos, o generados cuando los sistemas se despliegan en entornos del mundo real. Los resultados de los sistemas de IA dependen de dichos sesgos inherentes, que tienden a aumentar gradualmente y, por tanto, perpetúan y amplifican la discriminación existente, en particular con respecto a las personas pertenecientes a determinados colectivos vulnerables, incluidos colectivos raciales o étnicos. El requisito de que los conjuntos de datos, en la mayor medida posible, sean completos y estén libres de errores no debe afectar al uso de técnicas de protección de la intimidad en el contexto del desarrollo y la prueba de sistemas de IA. En particular, los conjuntos de datos deben tener en cuenta, en la medida en que lo exija su finalidad prevista, los rasgos, características o elementos particulares del entorno geográfico, contextual, conductual o funcional específico en el que esté previsto que se utilice el sistema de IA. Los requisitos relacionados con la gobernanza de datos pueden cumplirse recurriendo a terceros que ofrezcan servicios certificados de cumplimiento, incluida la verificación de la gobernanza de datos, la integridad del conjunto de datos y las prácticas de entrenamiento, validación y prueba de datos, en la medida en que se garantice el cumplimiento de los requisitos en materia de datos del presente Reglamento.
(67)
Korkealaatuisella datalla ja sen saatavuudella on ensisijainen rooli monien tekoälyjärjestelmien rakenteen luomisen ja suorituskyvyn varmistamisen kannalta, erityisesti kun käytetään tekniikoita, joihin sisältyy mallien kouluttamista, jotta voidaan varmistaa, että suuririskinen tekoälyjärjestelmä toimii tarkoitetulla tavalla ja turvallisesti eikä siitä tule unionin oikeudessa kiellettyä syrjinnän lähdettä. Korkealaatuiset koulutus-, validointi- ja testausdatajoukot edellyttävät asianmukaisten datanhallinta- ja hallinnointikäytäntöjen täytäntöönpanoa. Koulutus-, validointi- ja testausdatajoukkojen, myös tunnisteiden, olisi oltava merkityksellisiä, riittävän edustavia ja niin suurelta osin kuin mahdollista virheettömiä ja täydellisiä järjestelmän käyttötarkoitusta ajatellen. Datanhallinta- ja hallinnointikäytäntöihin olisi henkilötietojen osalta sisällytettävä avoimuus datankeruun alkuperäisestä tarkoituksesta, jotta voidaan helpottaa unionin tietosuojalainsäädännön, kuten asetuksen (EU) 2016/679, noudattamista. Datajoukoilla olisi myös oltava asianmukaiset tilastolliset ominaisuudet, myös niiden henkilöiden tai henkilöryhmien osalta, joihin suuririskistä tekoälyjärjestelmää on tarkoitus käyttää, kiinnittäen erityistä huomiota sellaisten datajoukkojen mahdollisten vinoutumien vähentämiseen, jotka todennäköisesti vaikuttavat henkilöiden terveyteen ja turvallisuuteen, vaikuttavat kielteisesti perusoikeuksiin tai johtavat unionin oikeudessa kiellettyyn syrjintään, erityisesti silloin, kun datan tuotokset vaikuttavat tulevien toimintojen syöttötietoihin (palautesilmukat). Taustalla oleviin datajoukkoihin voi esimerkiksi sisältyä vinoutumia erityisesti silloin, kun käytetään historiallisia tietoja tai kun järjestelmät otetaan käyttöön todellisissa olosuhteissa.Dataan sisältyvät vinoutumat voivat vaikuttaa tekoälyjärjestelmien tuottamiin tuloksiin, ja tällaisilla vinoutumilla on taipumus vähitellen lisääntyä ja siten ylläpitää ja lisätä olemassa olevaa syrjintää erityisesti tiettyihin haavoittuvassa asemassa oleviin ryhmiin, myös rodullisiin tai etnisiin ryhmiin, kuuluvien henkilöiden osalta. Datajoukkojen mahdollisimman suurta täydellisyyttä ja virheettömyyttä koskeva vaatimus ei saisi vaikuttaa yksityisyyden suojaa parantavien tekniikoiden käyttöön tekoälyjärjestelmien kehittämisen ja testauksen yhteydessä. Datajoukoissa olisi otettava erityisesti huomioon niiden käyttötarkoituksen edellyttämässä laajuudessa ne ominaispiirteet, ominaisuudet tai osatekijät, jotka ovat ominaisia sille maantieteelliselle, viitekehyksenä olevalle, käyttäytymiseen liittyvälle tai toiminnalliselle ympäristölle, jossa tekoälyjärjestelmää on tarkoitus käyttää. Datanhallintaan liittyviä vaatimuksia voidaan noudattaa turvautumalla kolmansiin osapuoliin, jotka tarjoavat sertifioituja vaatimustenmukaisuuspalveluja, mukaan lukien datanhallinnan, datajoukkojen eheyden sekä dataa koskevien koulutus-, validointi- ja testauskäytäntöjen todentaminen, kunhan tämän asetuksen datavaatimusten noudattaminen on varmistettu.
(68)
Para poder desarrollar y evaluar sistemas de IA de alto riesgo, determinados agentes, tales como proveedores, organismos notificados y otras entidades pertinentes, como centros europeos de innovación digital, instalaciones de ensayo y experimentación e investigadores, deben tener acceso a conjuntos de datos de alta calidad en sus campos de actividad relacionados con el presente Reglamento y deben poder utilizarlos. Los espacios comunes europeos de datos establecidos por la Comisión y la facilitación del intercambio de datos entre empresas y con los Gobiernos en favor del interés público serán esenciales para brindar un acceso fiable, responsable y no discriminatorio a datos de alta calidad con los que entrenar, validar y probar los sistemas de IA. Por ejemplo, en el ámbito de la salud, el espacio europeo de datos sanitarios facilitará el acceso no discriminatorio a datos sanitarios y el entrenamiento, a partir de esos conjuntos de datos, de algoritmos de IA de una manera segura, oportuna, transparente, fiable y que respete la intimidad, y contando con la debida gobernanza institucional. Las autoridades competentes pertinentes, incluidas las sectoriales, que proporcionan acceso a datos o lo facilitan también pueden brindar apoyo al suministro de datos de alta calidad con los que entrenar, validar y probar los sistemas de IA.
(68)
Suuririskisten tekoälyjärjestelmien kehittämiseksi ja arvioimiseksi tiettyjen toimijoiden, esimerkiksi tarjoajien, ilmoitettujen laitosten ja muiden asiaankuuluvien tahojen, kuten digitaali-innovaatiokeskittymien, testauslaitosten ja tutkijoiden, olisi voitava saada käyttöönsä ja käyttää korkealaatuisia datajoukkoja tähän asetukseen liittyvillä kyseisten toimijoiden toiminta-aloilla. Komission perustama yhteinen eurooppalainen data-avaruus ja datan jakamisen helpottaminen yritysten välillä ja viranomaisten kanssa yleisen edun nimissä ovat ratkaisevan tärkeitä, jotta voidaan tarjota luotettava, vastuullinen ja syrjimätön pääsy korkealaatuiseen dataan tekoälyjärjestelmien koulutusta, validointia ja testausta varten. Esimerkiksi terveydenhuollon alalla eurooppalainen terveysdata-avaruus helpottaa terveysdatan syrjimätöntä saatavuutta ja tekoälyalgoritmien koulutusta näillä datajoukoilla yksityisyyden suojaavalla, turvallisella, oikea-aikaisella, avoimella ja luotettavalla tavalla ja asianmukaisen institutionaalisen hallinnon alaisena. Asiaankuuluvat toimivaltaiset viranomaiset, myös alakohtaiset viranomaiset, jotka tarjoavat dataa tai tukevat datan saatavuutta, voivat myös tukea korkealaatuisen datan tarjoamista tekoälyjärjestelmien koulutusta, validointia ja testausta varten.
(69)
El derecho a la intimidad y a la protección de datos personales debe garantizarse a lo largo de todo el ciclo de vida del sistema de IA. A este respecto, los principios de minimización de datos y de protección de datos desde el diseño y por defecto, establecidos en el Derecho de la Unión en materia de protección de datos, son aplicables cuando se tratan datos personales. Las medidas adoptadas por los proveedores para garantizar el cumplimiento de estos principios podrán incluir no solo la anonimización y el cifrado, sino también el uso de una tecnología que permita llevar los algoritmos a los datos y el entrenamiento de los sistemas de IA sin que sea necesaria la transmisión entre las partes ni la copia de los datos brutos o estructurados, sin perjuicio de los requisitos en materia de gobernanza de datos establecidos en el presente Reglamento.
(69)
Oikeus yksityisyyteen ja henkilötietojen suojaan on taattava tekoälyjärjestelmän koko elinkaaren ajan. Tässä yhteydessä henkilötietojen käsittelyn osalta sovelletaan tietojen minimoinnin ja sisäänrakennetun ja oletusarvoisen tietosuojan periaatteita, sellaisina kuin niistä säädetään unionin tietosuojalainsäädännössä. Kyseisten periaatteiden noudattamisen varmistamiseksi tarjoajat toteuttavat toimenpiteitä, joihin voi anonymisoinnin ja salauksen lisäksi kuulua myös sellaisen teknologian käyttö, joka mahdollistaa sekä algoritmien tuomisen dataan että tekoälyjärjestelmien kouluttamisen ilman osapuolten välistä siirtoa tai itse raakadatan tai jäsennellyn datan kopiointia, sanotun kuitenkaan rajoittamatta tässä asetuksessa säädettyjen datan hallintaa koskevien vaatimusten soveltamista.
(70)
A fin de proteger los derechos de terceros frente a la discriminación que podría provocar el sesgo de los sistemas de IA, los proveedores deben —con carácter excepcional, en la medida en que sea estrictamente necesario para garantizar la detección y corrección de los sesgos asociados a los sistemas de IA de alto riesgo, con sujeción a las garantías adecuadas para los derechos y libertades fundamentales de las personas físicas y tras la aplicación de todas las condiciones aplicables establecidas en el presente Reglamento, además de las condiciones establecidas en los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y la Directiva (UE) 2016/680— ser capaces de tratar también categorías especiales de datos personales, como cuestión de interés público esencial en el sentido del artículo 9, apartado 2, letra g), del Reglamento (UE) 2016/679 y del artículo 10, apartado 2, letra g), del Reglamento (UE) 2018/1725.
(70)
Jotta voitaisiin suojella muita tekoälyjärjestelmissä esiintyvästä vinoutumisesta mahdollisesti johtuvalta syrjinnältä, tarjoajien olisi suuririskisten tekoälyjärjestelmien vinoutumien havaitsemisen ja korjaamisen varmistamiseksi voitava, poikkeuksellisesti ja siinä määrin kuin se on ehdottoman välttämätöntä sekä soveltaen luonnollisten henkilöiden perusoikeuksia ja -vapauksia koskevia asianmukaisia suojatoimia sekä kaikkia tässä asetuksessa säädettyjä sovellettavia ehtoja asetuksissa (EU) 2016/679 ja (EU) 2018/1725 sekä direktiivissä (EU) 2016/680 säädettyjen edellytysten lisäksi, käsitellä myös erityisiä henkilötietoryhmiä asetuksen (EU) 2016/679 9 artiklan 2 kohdan g alakohdassa ja asetuksen (EU) 2018/1725 10 artiklan 2 kohdan g alakohdassa tarkoitetun tärkeän yleisen edun nimissä.
(71)
Para permitir la trazabilidad de los sistemas de IA de alto riesgo, verificar si cumplen los requisitos previstos en el presente Reglamento, así como vigilar su funcionamiento y llevar a cabo la vigilancia poscomercialización, resulta esencial disponer de información comprensible sobre el modo en que se han desarrollado y sobre su funcionamiento durante toda su vida útil. A tal fin, es preciso llevar registros y disponer de documentación técnica que contenga la información necesaria para evaluar si el sistema de IA de que se trate cumple los requisitos pertinentes y facilitar la vigilancia poscomercialización. Dicha información debe incluir las características generales, las capacidades y las limitaciones del sistema y los algoritmos, datos y procesos de entrenamiento, prueba y validación empleados, así como documentación sobre el sistema de gestión de riesgos pertinente, elaborada de manera clara y completa. La documentación técnica debe mantenerse adecuadamente actualizada durante toda la vida útil del sistema de IA. Además, los sistemas de IA de alto riesgo deben permitir técnicamente el registro automático de acontecimientos, mediante archivos de registro, durante toda la vida útil del sistema.
(71)
Tämän asetuksen vaatimusten noudattamisen todentamisen kannalta on olennaisen tärkeää saada ymmärrettävää tietoa siitä, miten suuririskiset tekoälyjärjestelmät on kehitetty ja miten ne toimivat koko niiden käyttöiän ajan, jotta voidaan mahdollistaa näiden järjestelmien jäljitettävyys sekä niiden toiminnan ja markkinoille saattamisen jälkeinen seuranta. Tämä edellyttää, että tiedot säilytetään ja että saatavilla on tekninen dokumentaatio, joka sisältää tiedot, joita tarvitaan sen arvioimiseksi, onko tekoälyjärjestelmä asiaankuuluvien vaatimusten mukainen, ja markkinoille saattamisen jälkeisen seurannan helpottamiseksi. Tällaisiin tietoihin olisi sisällyttävä järjestelmän yleiset ominaisuudet, valmiudet ja rajoitukset, algoritmit, data, koulutus, testaus- ja validointiprosessit sekä sovellettua riskinhallintajärjestelmää koskevat asiakirjat, ja ne olisi laadittava selkeässä ja ymmärrettävässä muodossa. Tekninen dokumentaatio olisi pidettävä asianmukaisesti ajan tasalla tekoälyjärjestelmän koko käyttöiän ajan. Lisäksi suuririskisissä tekoälyjärjestelmissä olisi mahdollistettava teknisesti tapahtumien automaattinen tallentaminen lokitietojen muodossa järjestelmän käyttöiän keston ajan.
(72)
A fin de abordar las preocupaciones relacionadas con la opacidad y complejidad de determinados sistemas de IA y ayudar a los responsables del despliegue a cumplir sus obligaciones en virtud del presente Reglamento, debe exigirse transparencia respecto de los sistemas de IA de alto riesgo antes de su introducción en el mercado o su puesta en servicio. Los sistemas de IA de alto riesgo deben diseñarse de modo que permitan a los responsables del despliegue comprender la manera en que el sistema de IA funciona, evaluar su funcionalidad y comprender sus fortalezas y limitaciones. Los sistemas de IA de alto riesgo deben ir acompañados de la información adecuada en forma de instrucciones de uso. Dicha información debe incluir las características, las capacidades y las limitaciones del funcionamiento del sistema de IA. Estas comprenderían la información sobre las posibles circunstancias conocidas y previsibles relacionadas con el uso del sistema de IA de alto riesgo, incluida la actuación del responsable del despliegue capaz de influir en el comportamiento y el funcionamiento del sistema, en cuyo marco el sistema de IA puede dar lugar a riesgos para la salud, la seguridad y los derechos fundamentales, sobre los cambios que el proveedor haya predeterminado y evaluado para comprobar su conformidad y sobre las medidas pertinentes de supervisión humana, incluidas las medidas para facilitar la interpretación de los resultados de salida del sistema de IA por parte de los responsables del despliegue. La transparencia, incluidas las instrucciones de uso que acompañan a los sistemas de IA, debe ayudar a los responsables del despliegue a utilizar el sistema y tomar decisiones con conocimiento de causa. Los responsables del despliegue deben, entre otras cosas, estar en mejores condiciones para elegir correctamente el sistema que pretenden utilizar a la luz de las obligaciones que les son aplicables, estar informados sobre los usos previstos y excluidos y utilizar el sistema de IA correctamente y según proceda. A fin de mejorar la legibilidad y la accesibilidad de la información incluida en las instrucciones de uso, cuando proceda, deben incluirse ejemplos ilustrativos, por ejemplo sobre las limitaciones y sobre los usos previstos y excluidos del sistema de IA. Los proveedores deben garantizar que toda la documentación, incluidas las instrucciones de uso, contenga información significativa, exhaustiva, accesible y comprensible, que tenga en cuenta las necesidades y los conocimientos previsibles de los responsables del despliegue destinatarios. Las instrucciones de uso deben estar disponibles en una lengua fácilmente comprensible para los responsables del despliegue destinatarios, según lo que decida el Estado miembro de que se trate.
(72)
Jotta voidaan puuttua tiettyjen tekoälyjärjestelmien läpinäkymättömyyteen ja monimutkaisuuteen liittyviin huolenaiheisiin ja auttaa käyttöönottajia täyttämään tämän asetuksen mukaiset velvoitteensa, suuririskisiltä tekoälyjärjestelmiltä olisi edellytettävä avoimuutta, ennen kuin ne saatetaan markkinoille tai otetaan käyttöön. Suuririskiset tekoälyjärjestelmät olisi suunniteltava siten, että käyttöönottajat voivat ymmärtää, miten tekoälyjärjestelmä toimii, arvioida sen toimivuutta ja ymmärtää sen vahvuuksia ja rajoituksia. Suuririskisten tekoälyjärjestelmien mukana olisi oltava asianmukaiset tiedot käyttöohjeiden muodossa. Tällaisiin tietoihin olisi sisällyttävä tekoälyjärjestelmän ominaisuudet, valmiudet ja suorituskyvyn rajoitukset. Nämä kattaisivat tiedot mahdollisista suuririskisen tekoälyjärjestelmän käyttöön liittyvistä tunnetuista ja ennakoitavissa olevista olosuhteista, mukaan lukien käyttöönottajan toiminta, joka voi vaikuttaa järjestelmän käyttäytymiseen ja suorituskykyyn, jolloin tekoälyjärjestelmä voi aiheuttaa terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvia riskejä; muutoksista, jotka tarjoaja on ennalta määrittänyt ja joiden vaatimustenmukaisuuden se on arvioinut; sekä asiaankuuluvista ihmisen suorittamista valvontatoimenpiteistä, mukaan lukien toimenpiteet, joilla helpotetaan tekoälyjärjestelmän tuotosten tulkintaa käyttöönottajille. Avoimuuden, myös mukana olevien käyttöohjeiden, olisi avustettava käyttöönottajia järjestelmän käytössä ja tuettava heitä tietoon perustuvassa päätöksenteossa. Käyttöönottajilla olisi muun muassa oltava paremmat mahdollisuudet valita, ottaen huomioon niihin sovellettavat velvoitteet, oikea järjestelmä, jota he aikovat käyttää, saada tietoa käyttötarkoituksesta tai käytön esteistä sekä käyttää tekoälyjärjestelmää oikein ja tarpeen mukaan. Käyttöohjeisiin olisi tarvittaessa sisällytettävä havainnollistavia esimerkkejä esimerkiksi tekoälyjärjestelmän rajoituksista sekä käyttötarkoituksesta ja käytön esteistä, jotta voidaan parantaa niihin sisältyvien tietojen luettavuutta ja saatavuutta. Tarjoajien olisi varmistettava, että kaikki asiakirjat, myös käyttöohjeet, sisältävät merkityksellisiä, kattavia, helposti saatavilla olevia ja ymmärrettäviä tietoja, joissa otetaan huomioon kohteena olevien käyttöönottajien tarpeet ja ennakoitavissa oleva tietämys. Käyttöohjeet olisi asetettava saataville kohteena olevien käyttöönottajien helposti ymmärtämällä, asianomaisen jäsenvaltion määräämällä kielellä.
(73)
Los sistemas de IA de alto riesgo deben diseñarse y desarrollarse de tal modo que las personas físicas puedan supervisar su funcionamiento, así como asegurarse de que se usan según lo previsto y de que sus repercusiones se abordan a lo largo del ciclo de vida del sistema. A tal fin, el proveedor del sistema debe definir las medidas adecuadas de supervisión humana antes de su introducción en el mercado o puesta en servicio. Cuando proceda, dichas medidas deben garantizar, en concreto, que el sistema esté sujeto a limitaciones operativas incorporadas en el propio sistema que este no pueda desactivar, que responda al operador humano y que las personas físicas a quienes se haya encomendado la supervisión humana posean las competencias, la formación y la autoridad necesarias para desempeñar esa función. También es esencial, según proceda, garantizar que los sistemas de IA de alto riesgo incluyan mecanismos destinados a orientar e informar a las personas físicas a las que se haya asignado la supervisión humana para que tomen decisiones con conocimiento de causa acerca de si intervenir, cuándo hacerlo y de qué manera, a fin de evitar consecuencias negativas o riesgos, o de detener el sistema si no funciona según lo previsto. Teniendo en cuenta las enormes consecuencias para las personas en caso de una correspondencia incorrecta efectuada por determinados sistemas de identificación biométrica, conviene establecer un requisito de supervisión humana reforzada para dichos sistemas, de modo que el responsable del despliegue no pueda actuar ni tomar ninguna decisión basándose en la identificación generada por el sistema, salvo si al menos dos personas físicas la han verificado y confirmado por separado. Dichas personas podrían proceder de una o varias entidades e incluir a la persona que maneja o utiliza el sistema. Este requisito no debe suponer una carga ni retrasos innecesarios y podría bastar con que las verificaciones que las distintas personas efectúen por separado se registren automáticamente en los registros generados por el sistema. Dadas las especificidades de los ámbitos de la garantía del cumplimiento del Derecho, la migración, el control fronterizo y el asilo, ese requisito no debe aplicarse cuando el Derecho nacional o de la Unión considere que su aplicación es desproporcionada.
(73)
Suuririskiset tekoälyjärjestelmät olisi suunniteltava ja kehitettävä siten, että luonnolliset henkilöt voivat valvoa niiden toimintaa, varmistaa niiden käytön tarkoitetulla tavalla ja että niiden vaikutuksia käsitellään koko järjestelmän elinkaaren ajan. Tätä varten järjestelmän tarjoajan olisi määritettävä asianmukaiset ihmisen suorittamat valvontatoimenpiteet ennen järjestelmän markkinoille saattamista tai käyttöönottoa. Tällaisilla toimenpiteillä olisi tarvittaessa erityisesti varmistettava, että järjestelmässä on sisäänrakennettuja toiminnallisia rajoituksia, joita järjestelmä ei voi itse ohittaa ja jotka vastaavat ihmiskäyttäjän komentoihin, ja että luonnollisilla henkilöillä, joiden tehtäväksi ihmisen suorittama valvonta on annettu, on tarvittava pätevyys, koulutus ja valtuudet tämän tehtävän hoitamiseksi. On myös olennaisen tärkeää tarpeen mukaan varmistaa, että suuririskiset tekoälyjärjestelmät sisältävät mekanismeja, joilla annetaan ohjausta ja tietoa luonnolliselle henkilölle, jonka tehtäväksi ihmisen suorittama valvonta on annettu jotta hän voi tehdä tietoon perustuvia päätöksiä siitä, milloin ja millä keinoin asiaan on puututtava, jos ollenkaan, jotta voidaan välttää kielteiset seuraukset tai riskit taikka pysäyttää järjestelmä, jos se ei toimi tarkoitetulla tavalla. Ottaen huomioon tiettyjen biometristen tunnistusjärjestelmien virheellisestä tuloksesta henkilöille aiheutuvat merkittävät seuraukset, on asianmukaista säätää tehostettua ihmisen suorittamaa valvontaa koskevasta vaatimuksesta näiden järjestelmien osalta siten, että käyttöönottaja ei voi suorittaa toimea tai tehdä päätöstä järjestelmästä johtuvan tunnistamisen perusteella, ellei vähintään kaksi luonnollista henkilöä ole erikseen varmistanut ja vahvistanut sitä. Nämä henkilöt voivat olla yhdestä tai useammasta toimijasta ja heihin voi sisältyä järjestelmää hoitava tai käyttävä henkilö. Tämä vaatimus ei saisi aiheuttaa tarpeetonta rasitetta tai viiveitä, ja voi olla riittävää, että eri henkilöiden suorittamat erilliset varmistukset tallennetaan automaattisesti järjestelmän tuottamiin lokitietoihin. Kun otetaan huomioon lainvalvontaan, muuttoliikkeeseen, rajavalvontaan ja turvapaikka-asioihin liittyvät erityispiirteet, tätä vaatimusta ei pitäisi soveltaa, jos unionin oikeudessa tai kansallisessa lainsäädännössä katsotaan, että kyseisen vaatimuksen soveltaminen on suhteetonta.
(74)
Los sistemas de IA de alto riesgo deben funcionar de manera uniforme durante todo su ciclo de vida y presentar un nivel adecuado de precisión, solidez y ciberseguridad, a la luz de su finalidad prevista y con arreglo al estado actual de la técnica generalmente reconocido. Se anima a la Comisión y las organizaciones y partes interesadas pertinentes a que tengan debidamente en cuenta la mitigación de los riesgos y las repercusiones negativas del sistema de IA. El nivel previsto de los parámetros de funcionamiento debe declararse en las instrucciones de uso que acompañen a los sistemas de IA. Se insta a los proveedores a que comuniquen dicha información a los responsables del despliegue de manera clara y fácilmente comprensible, sin malentendidos ni afirmaciones engañosas. El Derecho de la Unión en materia de metrología legal, incluidas las Directivas 2014/31/UE (35) y 2014/32/UE (36) del Parlamento Europeo y del Consejo, tiene por objeto garantizar la precisión de las mediciones y contribuir a la transparencia y la equidad de las transacciones comerciales. En ese contexto, en cooperación con las partes interesadas y las organizaciones pertinentes, como las autoridades de metrología y de evaluación comparativa, la Comisión debe fomentar, según proceda, el desarrollo de parámetros de referencia y metodologías de medición para los sistemas de IA. Al hacerlo, la Comisión debe tomar nota de los socios internacionales que trabajan en la metrología y los indicadores de medición pertinentes relacionados con la IA y colaborar con ellos.
(74)
Suuririskisten tekoälyjärjestelmien olisi toimittava johdonmukaisesti koko elinkaarensa ajan ja saavutettava asianmukainen tarkkuuden, vakauden ja kyberturvallisuuden taso niiden käyttötarkoitus huomioon ottaen ja yleisesti tunnustetun alan viimeisimmän kehityksen mukaisesti. Komissiota sekä asiaankuuluvia järjestöjä ja sidosryhmiä kehotetaan ottamaan asianmukaisesti huomioon tekoälyjärjestelmien aiheuttamien riskien ja negatiivisten vaikutusten vähentäminen. Suorituskykymittareiden odotettu taso olisi ilmoitettava liitteenä olevissa käyttöohjeissa. Tarjoajia kehotetaan välittämään nämä tiedot käyttöönottajille selkeällä ja helposti ymmärrettävällä tavalla, joka ei aiheuta väärinymmärryksiä tai sisällä harhaanjohtavia lausuntoja. Lakisääteistä mittaustoimintaa koskevalla unionin oikeudella, mukaan lukien Euroopan parlamentin ja neuvoston direktiivit 2014/31/EU (35) ja 2014/32/EU (36), pyritään varmistamaan mittausten tarkkuus ja edistämään avoimuutta ja oikeudenmukaisuutta liiketoimissa. Tässä yhteydessä komission olisi tarpeen mukaan edistettävä vertailuarvojen ja mittausmenetelmien kehittämistä tekoälyjärjestelmiä varten yhteistyössä asiaankuuluvien sidosryhmien ja järjestöjen, kuten metrologia- ja vertailuanalyysiviranomaisten, kanssa. Näin toimiessaan komission olisi pantava merkille tekoälyyn liittyvät metrologiaa ja asiaankuuluvia mittausindikaattoreita käsittelevät kansainväliset kumppanit ja tehtävä yhteistyötä niiden kanssa.
(75)
La solidez técnica es un requisito clave para los sistemas de IA de alto riesgo, que deben ser resilientes en relación con los comportamientos perjudiciales o indeseables por otros motivos que puedan derivarse de limitaciones en los sistemas o del entorno en el que estos funcionan (p. ej., errores, fallos, incoherencias o situaciones inesperadas). Por consiguiente, deben adoptarse medidas técnicas y organizativas para garantizar la solidez de los sistemas de IA de alto riesgo, por ejemplo mediante el diseño y desarrollo de soluciones técnicas adecuadas para prevenir o reducir al mínimo ese comportamiento perjudicial o indeseable. Estas soluciones técnicas pueden incluir, por ejemplo, mecanismos que permitan al sistema interrumpir de forma segura su funcionamiento (planes de prevención contra fallos) en presencia de determinadas anomalías o cuando el funcionamiento tenga lugar fuera de determinados límites predeterminados. El hecho de no adoptar medidas de protección frente a estos riesgos podría tener consecuencias para la seguridad o afectar de manera negativa a los derechos fundamentales, por ejemplo, debido a decisiones equivocadas o resultados de salida erróneos o sesgados generados por el sistema de IA.
(75)
Tekninen vakaus on yksi suuririskisten tekoälyjärjestelmien keskeinen vaatimus. Niiden olisi oltava kestäviä sellaisen haitallisen tai muuten ei-toivotun käyttäytymisen varalta, joka saattaa aiheutua järjestelmien sisäisistä rajoituksista tai järjestelmien toimintaympäristöstä (esimerkiksi virheet, viat, epäjohdonmukaisuudet tai odottamattomat tilanteet). Sen vuoksi olisi toteutettava teknisiä ja organisatorisia toimenpiteitä suuririskisten tekoälyjärjestelmien vakauden varmistamiseksi esimerkiksi suunnittelemalla ja kehittämällä asianmukaisia teknisiä ratkaisuja haitallisen tai muuten ei-toivotun käyttäytymisen estämiseksi tai minimoimiseksi. Näihin teknisiin ratkaisuihin voi sisältyä esimerkiksi mekanismeja, joiden avulla järjestelmä voi turvallisesti keskeyttää toimintansa (vikavarmistussuunnitelmat) tiettyjen poikkeavuuksien esiintyessä tai kun toiminta tapahtuu tiettyjen ennalta määritettyjen rajojen ulkopuolella. Se, ettei näiltä riskeiltä suojauduta, voi johtaa turvallisuusvaikutuksiin tai vaikuttaa kielteisesti perusoikeuksiin esimerkiksi virheellisten päätösten tai tekoälyjärjestelmän tuottamien väärien tai puolueellisten tulosten vuoksi.
(76)
La ciberseguridad es fundamental para garantizar que los sistemas de IA resistan a las actuaciones de terceros maliciosos que, aprovechando las vulnerabilidades del sistema, traten de alterar su uso, comportamiento o funcionamiento o de poner en peligro sus propiedades de seguridad. Los ciberataques contra sistemas de IA pueden dirigirse contra activos específicos de la IA, como los conjuntos de datos de entrenamiento (p. ej., envenenamiento de datos) o los modelos entrenados (p. ej., ataques adversarios o inferencia de pertenencia), o aprovechar las vulnerabilidades de los activos digitales del sistema de IA o la infraestructura de TIC subyacente. Por lo tanto, para garantizar un nivel de ciberseguridad adecuado a los riesgos, los proveedores de sistemas de IA de alto riesgo deben adoptar medidas adecuadas, como los controles de seguridad, teniendo también en cuenta, cuando proceda, la infraestructura de TIC subyacente.
(76)
Kyberturvallisuudella on ratkaiseva merkitys varmistettaessa, että tekoälyjärjestelmät kestävät järjestelmän haavoittuvuuksia hyödyntävien vihamielisten kolmansien osapuolten yritykset muuttaa niiden käyttöä, käyttäytymistä tai suorituskykyä tai vaarantaa niiden turvallisuusominaisuudet. Tekoälyjärjestelmiin kohdistuvissa kyberhyökkäyksissä voidaan käyttää hyväksi tekoälyyn liittyviä resursseja, kuten koulutusdatajoukkoja (esim. datamyrkytys) tai koulutettuja malleja (esim. adversariaaliset hyökkäykset tai joukkoon kuulumiseen perustuva päättely), tai hyödyntää tekoälyjärjestelmän digitaalisten resurssien tai taustalla olevan tieto- ja viestintätekniikkainfrastruktuurin haavoittuvuuksia. Jotta voidaan varmistaa riskeihin nähden asianmukainen kyberturvallisuuden taso, suuririskisten tekoälyjärjestelmien tarjoajien olisi toteutettava asianmukaisia toimenpiteitä, kuten turvatarkastuksia, ottaen tarvittaessa huomioon myös taustalla oleva tieto- ja viestintätekniikkainfrastruktuuri.
(77)
Sin perjuicio de los requisitos relacionados con la solidez y la precisión establecidos en el presente Reglamento, los sistemas de IA de alto riesgo que entren en el ámbito de aplicación de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, de conformidad con dicho reglamento, pueden demostrar el cumplimiento con los requisitos de ciberseguridad del presente Reglamento mediante el cumplimiento de los requisitos esenciales de ciberseguridad establecidos en dicho reglamento. Cuando los sistemas de IA de alto riesgo cumplan los requisitos esenciales de ciberseguridad de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, debe presumirse que cumplen los requisitos de ciberseguridad del presente Reglamento en la medida en que la satisfacción de esos requisitos se demuestre en la declaración UE de conformidad de emitida con arreglo a dicho reglamento, o partes de esta. A tal fin, la evaluación de los riesgos de ciberseguridad asociados a un producto con elementos digitales clasificado como un sistema de IA de alto riesgo con arreglo al presente Reglamento, realizada en virtud de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, debe tener en cuenta los riesgos para la ciberresiliencia de un sistema de IA por lo que respecta a los intentos de terceros no autorizados de alterar su uso, comportamiento o funcionamiento, incluidas las vulnerabilidades específicas de la IA, como el envenenamiento de datos o los ataques adversarios, así como, en su caso, los riesgos para los derechos fundamentales, tal como exige el presente Reglamento.
(77)
Suuririskiset tekoälyjärjestelmät, jotka kuuluvat digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan Euroopan parlamentin ja neuvoston asetuksen soveltamisalaan, voivat kyseisen asetuksen mukaisesti osoittaa tässä asetuksessa säädettyjen kyberturvavaatimusten noudattamisen noudattamalla kyseisessä asetuksessa säädettyjä olennaisia kyberturvavaatimuksia, sanotun kuitenkaan rajoittamatta tässä asetuksessa säädettyjen vakautta ja tarkkuutta koskevien vaatimusten soveltamista. Kun suuririskiset tekoälyjärjestelmät täyttävät digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavassa asetuksessa säädetyt olennaiset vaatimukset, niiden olisi katsottava olevan tässä asetuksessa säädettyjen kyberturvavaatimusten mukaisia siltä osin kuin kyseisten vaatimusten noudattaminen on osoitettu EU-vaatimustenmukaisuusvakuutuksella tai sen osilla, jotka on myönnetty kyseisen asetuksen nojalla. Sen vuoksi digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen nojalla tehtävässä kyberturvallisuusriskien arvioinnissa, joka koskee tässä asetuksessa tarkoitettua digitaalisia elementtejä sisältävää suuririskistä tekoälyjärjestelmää, olisi otettava huomioon tekoälyjärjestelmän kyberresilienssiin kohdistuvat riskit, jotka liittyvät luvattomien kolmansien osapuolten pyrkimyksiin muuttaa sen käyttöä, käyttäytymistä tai suorituskykyä, mukaan lukien tekoälyyn liittyvät erityiset haavoittuvuudet, kuten datamyrkytys tai adversariaaliset hyökkäykset, sekä tapauksen mukaan tässä asetuksessa edellytettyihin perusoikeuksiin kohdistuvat riskit.
(78)
El procedimiento de evaluación de la conformidad establecido en el presente Reglamento debe aplicarse en relación con los requisitos esenciales de ciberseguridad de un producto con elementos digitales regulado por un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales y clasificado como sistema de IA de alto riesgo con arreglo al presente Reglamento. Sin embargo, esta norma no debe dar lugar a una reducción del nivel de garantía necesario para los productos críticos con elementos digitales sujetos a un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales. Por consiguiente, no obstante lo dispuesto en esta norma, los sistemas de IA de alto riesgo que entran dentro del ámbito de aplicación del presente Reglamento y que también se consideran productos críticos importantes con elementos digitales en virtud de un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales, y a los que se aplica el procedimiento de evaluación de la conformidad fundamentado en un control interno que se establece en un anexo del presente Reglamento, están sujetos a lo dispuesto en un reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para los productos con elementos digitales en materia de evaluación de la conformidad por lo que se refiere a los requisitos esenciales de ciberseguridad de dicho reglamento. En tal caso, en relación con todos los demás aspectos que entren en el ámbito de aplicación del presente Reglamento, debe aplicarse lo dispuesto en el anexo VI del presente Reglamento en materia de evaluación de la conformidad fundamentada en un control interno. Habida cuenta de los conocimientos y la experiencia de la Agencia de la Unión Europea para la Ciberseguridad (ENISA) en materia de política de ciberseguridad y de las tareas que se le encomiendan en virtud del Reglamento (UE) 2019/881 del Parlamento Europeo y del Consejo (37), la Comisión debe cooperar con ENISA en las cuestiones relacionadas con la ciberseguridad de los sistemas de IA.
(78)
Tässä asetuksessa säädettyä vaatimustenmukaisuuden arviointimenettelyä olisi sovellettava digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen soveltamisalaan kuuluvan ja tämän asetuksen nojalla digitaalisia elementtejä sisältävän suuririskiseksi tekoälyjärjestelmäksi luokitellun tuotteen olennaisiin kyberturvallisuusvaatimuksiin. Tämä pääsääntö ei kuitenkaan saisi johtaa digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen soveltamisalaan kuuluvien digitaalisia elementtejä sisältävien kriittisten tuotteiden tarvittavan varmuustason alenemiseen. Tästä säännöstä poiketen suuririskisiin tekoälyjärjestelmiin, jotka kuuluvat tämän asetuksen soveltamisalaan ja joita myös pidetään digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavan asetuksen nojalla tärkeinä ja kriittisinä digitaalisia elementtejä sisältävinä tuotteina ja joihin sovelletaan tämän asetuksen liitteessä vahvistettua sisäiseen valvontaan perustuvaa vaatimustenmukaisuuden arviointimenettelyä, sovelletaan digitaalisia elementtejä sisältävien tuotteiden horisontaalisia kyberturvavaatimuksista annettavassa asetuksessa säädettyjä vaatimustenmukaisuuden arviointia koskevia säännöksiä kyseisen asetuksen olennaisten kyberturvallisuusvaatimusten osalta. Tällaisessa tapauksessa kaikkiin muihin tämän asetuksen soveltamisalaan kuuluviin näkökohtiin olisi sovellettava tämän asetuksen liitteessä vahvistettuja asiaankuuluvia säännöksiä, jotka koskevat sisäiseen valvontaan perustuvaa vaatimustenmukaisuuden arviointia. Komission olisi tehtävä yhteistyötä ENISAn kanssa tekoälyjärjestelmien kyberturvallisuuteen liittyvissä kysymyksissä ENISAn kyberturvallisuuspolitiikkaa koskevan tietämyksen ja asiantuntemuksen ja sille Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/881 (37) nojalla osoitettujen tehtävien pohjalta.
(79)
Conviene que una persona física o jurídica concreta, definida como el proveedor, asuma la responsabilidad asociada a la introducción en el mercado o la puesta en servicio de un sistema de IA de alto riesgo, con independencia de si dicha persona física o jurídica es o no quien diseñó o desarrolló el sistema.
(79)
On asianmukaista, että tietty tarjoajaksi määritelty luonnollinen tai oikeushenkilö ottaa vastuun suuririskisen tekoälyjärjestelmän markkinoille saattamisesta tai käyttöönotosta riippumatta siitä, onko kyseinen luonnollinen henkilö tai oikeushenkilö järjestelmän suunnittelija tai kehittäjä.
(80)
Como signatarios de la Convención sobre los Derechos de las Personas con Discapacidad, la Unión y todos los Estados miembros están legalmente obligados a proteger a las personas con discapacidad contra la discriminación y a promover su igualdad, a garantizar que las personas con discapacidad tengan acceso, en igualdad de condiciones con las demás, a las tecnologías y sistemas de la información y las comunicaciones, y a garantizar el respeto a la intimidad de las personas con discapacidad. Habida cuenta de la importancia y el uso crecientes de los sistemas de IA, la aplicación de los principios de diseño universal a todas las nuevas tecnologías y servicios debe garantizar el acceso pleno e igualitario de todas las personas a las que puedan afectar las tecnologías de IA o que puedan utilizar dichas tecnologías, incluidas las personas con discapacidad, de forma que se tenga plenamente en cuenta su dignidad y diversidad inherentes. Por ello es esencial que los proveedores garanticen el pleno cumplimiento de los requisitos de accesibilidad, incluidas la Directiva (UE) 2016/2102 del Parlamento Europeo y del Consejo (38) y la Directiva (UE) 2019/882. Los proveedores deben garantizar el cumplimiento de estos requisitos desde el diseño. Por consiguiente, las medidas necesarias deben integrarse en la medida de lo posible en el diseño de los sistemas de IA de alto riesgo.
(80)
Vammaisten henkilöiden oikeuksia koskevan Yhdistyneiden kansakuntien yleissopimuksen allekirjoittajina unioni ja jäsenvaltiot ovat oikeudellisesti velvoitettuja suojelemaan vammaisia henkilöitä syrjinnältä ja edistämään heidän yhdenvertaisuuttaan, varmistamaan, että vammaiset henkilöt voivat käyttää tieto- ja viestintäteknologiaa ja -järjestelmiä yhdenvertaisesti muiden kanssa, ja varmistamaan vammaisten henkilöiden yksityisyyden kunnioittamisen. Koska tekoälyjärjestelmät ovat yhä tärkeämpiä ja niitä käytetään yhä enemmän, yleismaailmallisten suunnitteluperiaatteiden soveltamisella kaikkiin uusiin teknologioihin ja palveluihin olisi varmistettava kaikille, joihin tekoälyteknologia mahdollisesti vaikuttaa tai jotka käyttävät sitä, myös vammaisille henkilöille, täysimääräinen ja tasapuolinen mahdollisuus käyttää niitä tavalla, jossa otetaan kaikilta osin huomioon heidän ihmisarvonsa ja monimuotoisuutensa. Sen vuoksi on olennaisen tärkeää, että tarjoajat varmistavat esteettömyysvaatimusten, kuten Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/2102 (38) ja direktiivin (EU) 2019/882, täysimääräisen noudattamisen. Tarjoajien olisi varmistettava, että näitä vaatimuksia noudatetaan sisäänrakennetusti. Sen vuoksi tarvittavat toimenpiteet olisi sisällytettävä mahdollisuuksien mukaan suuririskisen tekoälyjärjestelmän suunnitteluun.
(81)
El proveedor debe instaurar un sistema de gestión de la calidad sólido, velar por que se siga el procedimiento de evaluación de la conformidad necesario, elaborar la documentación pertinente y establecer un sistema de vigilancia poscomercialización sólido. Los proveedores de sistemas de IA de alto riesgo que estén sujetos a obligaciones relativas a los sistemas de gestión de la calidad con arreglo al Derecho sectorial pertinente de la Unión deben tener la posibilidad de integrar los elementos del sistema de gestión de la calidad establecido en el presente Reglamento en el sistema de gestión de la calidad establecido en dicho Derecho sectorial de la Unión. La complementariedad entre el presente Reglamento y el Derecho sectorial vigente de la Unión también debe tenerse en cuenta en las futuras actividades de normalización o en las orientaciones adoptadas por la Comisión al respecto. Las autoridades públicas que pongan en servicio sistemas de IA de alto riesgo para su propio uso pueden aprobar y aplicar las normas que regulen el sistema de gestión de la calidad en el marco del sistema de gestión de la calidad adoptado a escala nacional o regional, según proceda, teniendo en cuenta las particularidades del sector y las competencias y la organización de la autoridad pública de que se trate.
(81)
Tarjoajan olisi perustettava luotettava laadunhallintajärjestelmä, varmistettava vaaditun vaatimustenmukaisuuden arviointimenettelyn suorittaminen, laadittava asiaa koskeva dokumentaatio ja perustettava vankka markkinoille saattamisen jälkeinen seurantajärjestelmä. Niillä suuririskisten tekoälyjärjestelmien tarjoajilla, joihin sovelletaan asiaankuuluvan alakohtaisen unionin oikeuden mukaisia laadunhallintajärjestelmiä koskevia velvoitteita, olisi oltava mahdollisuus sisällyttää tässä asetuksessa säädetyn laadunhallintajärjestelmän osatekijät osaksi kyseisen muun alakohtaisen unionin oikeuden mukaista nykyistä laadunhallintajärjestelmää. Tämän asetuksen ja voimassa olevan alakohtaisen unionin oikeuden välinen täydentävyys olisi otettava huomioon myös tulevissa standardointitoimissa tai komission hyväksymissä ohjeissa. Viranomaiset, jotka ottavat suuririskisiä tekoälyjärjestelmiä omaan käyttöönsä, voivat tarvittaessa hyväksyä ja panna täytäntöön laadunhallintajärjestelmää koskevat säännöt osana kansallisella tai alueellisella tasolla hyväksyttyä laadunhallintajärjestelmää ottaen huomioon alan erityispiirteet ja asianomaisen viranomaisen toimivallan ja organisaation.
(82)
Para permitir la ejecución del presente Reglamento y ofrecer igualdad de condiciones a los operadores, es importante velar por que una persona establecida en la Unión pueda, en cualquier circunstancia, facilitar a las autoridades toda la información necesaria sobre la conformidad de un sistema de IA, teniendo en cuenta las distintas formas en que se pueden ofrecer productos digitales. Por lo tanto, antes de comercializar sus sistemas de IA en la Unión, los proveedores establecidos fuera de su territorio deben designar, mediante un mandato escrito, a un representante autorizado que se encuentre en la Unión. El representante autorizado desempeña un papel fundamental a la hora de velar por la conformidad de los sistemas de IA de alto riesgo introducidos en el mercado o puestos en servicio en la Unión por esos proveedores no establecidos en la Unión y servir de persona de contacto establecida en la Unión.
(82)
Tämän asetuksen täytäntöönpanon mahdollistamiseksi ja tasapuolisten toimintaedellytysten luomiseksi toimijoille ja ottaen huomioon digitaalisten tuotteiden saataville asettamisen eri muodot on tärkeää varmistaa, että unioniin sijoittautunut henkilö voi kaikissa olosuhteissa antaa viranomaisille kaikki tarvittavat tiedot tekoälyjärjestelmän vaatimustenmukaisuudesta. Siksi kolmansiin maihin sijoittautuneiden tarjoajien olisi ennen tekoälyjärjestelmiensä asettamista saataville unionin markkinoilla nimettävä kirjallisella toimeksiannolla unioniin sijoittautunut valtuutettu edustaja. Tällä valtuutetulla edustajalla on olennaisen tärkeä rooli sen varmistamisessa, että näiden unioniin sijoittumattomien tarjoajien unionissa markkinoille saattamat tai käyttöön ottamat suuririskiset tekoälyjärjestelmät ovat vaatimusten mukaisia, ja toimimisessa näiden tarjoajien unioniin sijoittautuneena yhteyshenkilönä.
(83)
Teniendo en cuenta la naturaleza y la complejidad de la cadena de valor de los sistemas de IA y de conformidad con el nuevo marco legislativo, es esencial garantizar la seguridad jurídica y facilitar el cumplimiento del presente Reglamento. Por ello es necesario aclarar la función y las obligaciones específicas de los operadores pertinentes de toda dicha cadena de valor, como los importadores y los distribuidores, que pueden contribuir al desarrollo de sistemas de IA. En determinadas situaciones, esos operadores pueden desempeñar más de una función al mismo tiempo y, por lo tanto, deben cumplir de forma acumulativa todas las obligaciones pertinentes asociadas a dichas funciones. Por ejemplo, un operador puede actuar como distribuidor e importador al mismo tiempo.
(83)
Ottaen huomioon tekoälyjärjestelmien arvoketjun luonne ja monimutkaisuus sekä uuden lainsäädäntökehyksen noudattaminen on olennaisen tärkeää varmistaa oikeusvarmuus ja helpottaa tämän asetuksen noudattamista. Sen vuoksi on tarpeen selventää kyseisen arvoketjun kaikissa vaiheissa asiaankuuluvien toimijoiden, kuten maahantuojien ja jakelijoiden, roolia ja erityisvelvoitteita, jotka voivat edistää tekoälyjärjestelmien kehittämistä. Tietyissä tilanteissa nämä toimijat voisivat toimia useammassa kuin yhdessä roolissa samanaikaisesti, joten niiden olisi täytettävä kumulatiivisesti kaikki kyseisiin rooleihin liittyvät asiaankuuluvat velvoitteet. Esimerkiksi toimija voisi toimia jakelijana ja maahantuojana samanaikaisesti.
(84)
Para garantizar la seguridad jurídica, es necesario aclarar que, en determinadas condiciones específicas, debe considerarse proveedor de un sistema de IA de alto riesgo a cualquier distribuidor, importador, responsable del despliegue u otro tercero que, por tanto, debe asumir todas las obligaciones pertinentes. Este sería el caso si, por ejemplo, esa persona pone su nombre o marca en un sistema de IA de alto riesgo ya introducido en el mercado o puesto en servicio, sin perjuicio de los acuerdos contractuales que estipulen otra distribución de las obligaciones. Este también sería el caso si dicha parte modifica sustancialmente un sistema de IA de alto riesgo que ya se haya introducido en el mercado o puesto en servicio de tal manera que el sistema modificado siga siendo un sistema de IA de alto riesgo de conformidad con el presente Reglamento, o si modifica la finalidad prevista de un sistema de IA, como un sistema de IA de uso general, que ya se haya introducido en el mercado o puesto en servicio y que no esté clasificado como sistema de alto riesgo, de tal manera que el sistema modificado pase a ser un sistema de IA de alto riesgo de conformidad con el presente Reglamento. Esas disposiciones deben aplicarse sin perjuicio de las disposiciones más específicas establecidas en determinados actos legislativos de armonización de la Unión basados en el nuevo marco legislativo que se deben aplicar en conjunción con el presente Reglamento. Por ejemplo, el artículo 16, apartado 2, del Reglamento (UE) 2017/745, que establece que determinados cambios no deben considerarse modificaciones de un producto que puedan afectar al cumplimiento de los requisitos aplicables, debe seguir aplicándose a los sistemas de IA de alto riesgo que sean productos sanitarios en el sentido de dicho Reglamento.
(84)
Oikeusvarmuuden takaamiseksi on tarpeen selventää, että tietyissä erityisolosuhteissa minkä tahansa jakelijan, maahantuojan, käyttöönottajan tai muun kolmannen osapuolen olisi katsottava olevan suuririskisen tekoälyjärjestelmän tarjoaja, jonka olisi näin ollen vastattava kaikista asiaankuuluvista velvoitteista. Näin katsotaan olevan, jos kyseinen osapuoli laittaa nimensä tai tavaramerkkinsä jo markkinoille saatettuun tai käyttöön otettuun suuririskiseen tekoälyjärjestelmään, sanotun kuitenkaan rajoittamatta sopimusjärjestelyjä, joissa määrätään velvoitteiden jakamisesta muulla tavoin. Näin olisi myös silloin, jos kyseinen osapuoli tekee merkittävän muutoksen jo markkinoille saatettuun tai käyttöön otettuun suuririskiseen tekoälyjärjestelmään siten, että se pysyy suuririskisenä tekoälyjärjestelmänä tämän asetuksen mukaisesti, tai jos se muuttaa sellaisen tekoälyjärjestelmän, myös yleiskäyttöisen tekoälyjärjestelmän, käyttötarkoitusta, jota ei ole luokiteltu suuririskiseksi ja joka on jo saatettu markkinoille tai otettu käyttöön siten, että tekoälyjärjestelmästä tulee suuririskinen tekoälyjärjestelmä tämän asetuksen mukaisesti. Kyseisiä säännöksiä olisi sovellettava rajoittamatta uuteen lainsäädäntökehykseen perustuvassa tietyssä unionin yhdenmukaistamislainsäädännössä vahvistettuja yksityiskohtaisempia säännöksiä, joiden kanssa tätä asetusta olisi sovellettava. Esimerkiksi asetuksen (EU) 2017/745 16 artiklan 2 kohtaa, jonka mukaan tiettyjä muutoksia ei olisi katsottava laitteen muutoksiksi, jotka voisivat vaikuttaa sen vaatimustenmukaisuuteen, olisi edelleen sovellettava suuririskisiin tekoälyjärjestelmiin, jotka ovat kyseisessä asetuksessa tarkoitettuja lääkinnällisiä laitteita.
(85)
Los sistemas de IA de uso general pueden utilizarse como sistemas de IA de alto riesgo por sí solos o ser componentes de sistemas de IA de alto riesgo. Así pues, debido a su particular naturaleza y a fin de garantizar un reparto equitativo de responsabilidades a lo largo de toda la cadena de valor, los proveedores de tales sistemas, con independencia de que estos sistemas puedan ser utilizados como sistemas de IA de alto riesgo por sí solos por otros proveedores o como componentes de sistemas de IA de alto riesgo, y salvo que se disponga otra cosa en el presente Reglamento, deben cooperar estrechamente con los proveedores de los sistemas de IA de alto riesgo correspondientes para que estos puedan cumplir las obligaciones pertinentes en virtud del presente Reglamento, así como con las autoridades competentes establecidas en virtud del presente Reglamento.
(85)
Yleiskäyttöisiä tekoälyjärjestelmiä voidaan käyttää suuririskisinä tekoälyjärjestelminä itsessään tai ne voivat olla muiden suuririskisten tekoälyjärjestelmien komponentteja. Näin ollen niiden erityisen luonteen vuoksi ja jotta voidaan varmistaa vastuiden oikeudenmukainen jakautuminen tekoälyn arvoketjussa, tällaisten järjestelmien tarjoajien, riippumatta siitä, voivatko muut tarjoajat käyttää näitä järjestelmiä suuririskisinä tekoälyjärjestelminä sellaisinaan tai suuririskisten tekoälyjärjestelmien komponentteina, ja jollei tässä asetuksessa toisin säädetä, olisi tehtävä tiivistä yhteistyötä asiaankuuluvien suuririskisten tekoälyjärjestelmien tarjoajien kanssa, jotta voidaan varmistaa, että niiden osalta noudatetaan tämän asetuksen mukaisia asiaankuuluvia velvoitteita, ja tämän asetuksen nojalla perustettujen toimivaltaisten viranomaisten kanssa.
(86)
Cuando, con arreglo a las condiciones establecidas en el presente Reglamento, el proveedor que introdujo inicialmente el sistema de IA en el mercado o lo puso en servicio ya no deba considerarse el proveedor a los efectos del presente Reglamento, y cuando dicho proveedor no haya excluido expresamente la transformación del sistema de IA en un sistema de IA de alto riesgo, el primer proveedor debe, no obstante, cooperar estrechamente, facilitar la información necesaria y proporcionar el acceso técnico u otra asistencia que quepa esperar razonablemente y que sean necesarios para el cumplimiento de las obligaciones establecidas en el presente Reglamento, en particular en lo que respecta al cumplimiento de la evaluación de la conformidad de los sistemas de IA de alto riesgo.
(86)
Jos tässä asetuksessa säädetyin edellytyksin tarjoajaa, joka alun perin saattoi tekoälyjärjestelmän markkinoille tai otti sen käyttöön, ei olisi enää pidettävä tätä asetusta sovellettaessa tarjoajana ja jos kyseinen tarjoaja ei ole nimenomaisesti sulkenut pois tekoälyjärjestelmän muuttamista suuririskiseksi tekoälyjärjestelmäksi, aiemman tarjoajan olisi kuitenkin tehtävä tiivistä yhteistyötä ja asetettava saataville tarvittavat tiedot sekä tarjottava kohtuudella odotettavissa oleva tekninen pääsy ja muuta apua, joita tarvitaan tässä asetuksessa säädettyjen velvoitteiden täyttämiseksi, erityisesti suuririskisten tekoälyjärjestelmien vaatimustenmukaisuuden arvioinnin noudattamisen osalta.
(87)
Además, cuando un sistema de IA de alto riesgo que sea un componente de seguridad de un producto que entre dentro del ámbito de aplicación de un acto legislativo de armonización de la Unión basado en el nuevo marco legislativo no se introduzca en el mercado ni se ponga en servicio de forma independiente del producto, el fabricante del producto, tal como se define en el acto legislativo pertinente, debe cumplir las obligaciones que el presente Reglamento impone al proveedor y, en particular, debe garantizar que el sistema de IA integrado en el producto final cumpla los requisitos del presente Reglamento.
(87)
Jos suuririskistä tekoälyjärjestelmää, joka on sellaisen tuotteen turvakomponentti, joka kuuluu uuteen lainsäädäntökehykseen perustuvaan unionin yhdenmukaistamislainsäädännön soveltamisalaan, ei saateta markkinoille tai oteta käyttöön tuotteesta erillään, kyseisessä lainsäädännössä määritellyn tuotteen valmistajan olisi lisäksi noudatettava tässä asetuksessa vahvistettuja tarjoajan velvollisuuksia ja erityisesti varmistettava, että lopputuotteeseen sulautettu tekoälyjärjestelmä on tämän asetuksen vaatimusten mukainen.
(88)
A lo largo de la cadena de valor de la IA, numerosas partes suministran a menudo no solo sistemas, herramientas y servicios de IA, sino también componentes o procesos que el proveedor incorpora al sistema de IA con diversos objetivos, como el entrenamiento de modelos, el reentrenamiento de modelos, la prueba y evaluación de modelos, la integración en el software u otros aspectos del desarrollo de modelos. Dichas partes desempeñan un papel importante en la cadena de valor en relación con el proveedor del sistema de IA de alto riesgo en el que se integran sus sistemas, herramientas, servicios, componentes o procesos de IA, y deben proporcionar a dicho proveedor, mediante acuerdo escrito, la información, las capacidades, el acceso técnico y demás asistencia que sean necesarios habida cuenta del estado actual de la técnica generalmente reconocido, a fin de que el proveedor pueda cumplir íntegramente las obligaciones establecidas en el presente Reglamento, sin comprometer sus propios derechos de propiedad intelectual e industrial o secretos comerciales.
(88)
Tekoälyn arvoketjussa usein useat osapuolet toimittavat tekoälyjärjestelmiä, välineitä ja palveluja mutta myös komponentteja tai prosesseja, jotka tarjoaja sisällyttää tekoälyjärjestelmään ja joilla on useita tavoitteita, mukaan lukien mallien kouluttaminen ja uudelleenkouluttaminen, mallien testaus ja arviointi, integrointi ohjelmistoihin tai muut mallien kehittämisen näkökohdat. Kyseisillä osapuolilla on tärkeä rooli arvoketjussa suhteessa sellaisen suuririskisen tekoälyjärjestelmän tarjoajaan, johon niiden tekoälyjärjestelmät, välineet, palvelut, komponentit tai prosessit on integroitu, ja niiden olisi kirjallisella sopimuksella annettava tälle tarjoajalle yleisesti tunnustettuun viimeisimpään kehitykseen perustuvat tarvittavat tiedot, valmiudet, tekninen pääsy ja muu apu, jotta tarjoaja voi noudattaa täysimääräisesti tässä asetuksessa säädettyjä velvoitteita vaarantamatta omia teollis- ja tekijänoikeuksiaan tai liikesalaisuuksiaan.
(89)
A los terceros que ponen a disposición del público herramientas, servicios, procesos o componentes de IA que no sean modelos de IA de uso general no se les debe imponer la obligación de cumplir los requisitos relativos a las responsabilidades a lo largo de la cadena de valor de la IA, en particular por lo que respecta al proveedor que haya utilizado o integrado dichas herramientas, servicios, procesos o componentes de IA, cuando el acceso a dichas herramientas, servicios, procesos o componentes de IA esté sujeto a una licencia libre y de código abierto. No obstante, se debe animar a los desarrolladores de herramientas, servicios, procesos o componentes de IA libres y de código abierto que no sean modelos de IA de uso general a que apliquen prácticas de documentación ampliamente adoptadas, como tarjetas de modelo y hojas de datos, como una forma de acelerar el intercambio de información a lo largo de la cadena de valor de la IA, permitiendo la promoción en la Unión de sistemas de IA fiables.
(89)
Kolmansia osapuolia, jotka asettavat saataville julkisia välineitä, palveluja, prosesseja tai muita tekoälykomponentteja kuin yleiskäyttöinen tekoälymalli, ei saisi velvoittaa, erityisesti niitä käyttäneeseen tai integroineeseen tarjoajaan nähden, noudattamaan vastuita tekoälyn arvoketjussa koskevia vaatimuksia, kun kyseiset välineet, palvelut, prosessit tai tekoälykomponentit asetetaan saataville vapaalla ja avoimen lähdekoodin lisenssillä. Vapaiden ja avoimen lähdekoodin välineiden, palveluiden, prosessien ja muiden tekoälykomponenttien kuin yleiskäyttöisten tekoälymallien kehittäjiä olisi kuitenkin kannustettava noudattamaan dokumentoinnin laajalti hyväksyttyjä käytänteitä, kuten mallikortteja ja tiedotteita, jotta voidaan nopeuttaa tiedon jakamista tekoälyn arvoketjussa ja edistää luotettavia tekoälyjärjestelmiä unionissa.
(90)
La Comisión podría elaborar y recomendar cláusulas contractuales tipo, de carácter voluntario, entre los proveedores de sistemas de IA de alto riesgo y los terceros que suministren herramientas, servicios, componentes o procesos que se utilicen o integren en los sistemas de IA de alto riesgo, a fin de facilitar la cooperación a lo largo de la cadena de valor. Cuando elabore estas cláusulas contractuales tipo de carácter voluntario, la Comisión también debe tener en cuenta los posibles requisitos contractuales aplicables en determinados sectores o modelos de negocio.
(90)
Komissio voisi laatia ja suositella vapaaehtoisia mallisopimusehtoja suuririskisten tekoälyjärjestelmien tarjoajien ja sellaisten kolmansien osapuolten välisiä sopimuksia varten, jotka toimittavat välineitä, palveluja, komponentteja tai prosesseja, joita käytetään suuririskisissä tekoälyjärjestelmissä tai integroidaan niihin, yhteistyön helpottamiseksi kaikissa arvoketjun vaiheissa. Laatiessaan ei-sitovia mallisopimusehtoja komission olisi myös otettava huomioon tietyillä aloilla tai tietyissä liiketoimintamalleissa mahdollisesti sovellettavat sopimusperusteiset vaatimukset.
(91)
Habida cuenta de las características de los sistemas de IA y de los riesgos que su uso lleva aparejado para la seguridad y los derechos fundamentales, también en lo que respecta a la necesidad de garantizar la correcta vigilancia del funcionamiento de un sistema de IA en un entorno real, conviene establecer las responsabilidades específicas de los responsables del despliegue. En particular, los responsables del despliegue deben adoptar las medidas técnicas y organizativas adecuadas para garantizar que utilizan los sistemas de IA de alto riesgo conforme a las instrucciones de uso. Además, es preciso definir otras obligaciones en relación con la vigilancia del funcionamiento de los sistemas de IA y la conservación de registros, según proceda. Asimismo, los responsables del despliegue deben garantizar que las personas encargadas de poner en práctica las instrucciones de uso y la supervisión humana establecidas en el presente Reglamento tengan las competencias necesarias, en particular un nivel adecuado de alfabetización, formación y autoridad en materia de IA para desempeñar adecuadamente dichas tareas. Dichas obligaciones deben entenderse sin perjuicio de otras obligaciones que tenga el responsable del despliegue en relación con los sistemas de IA de alto riesgo con arreglo al Derecho nacional o de la Unión.
(91)
Kun otetaan huomioon tekoälyjärjestelmien luonne ja niiden käyttöön mahdollisesti liittyvät turvallisuuteen ja perusoikeuksiin kohdistuvat riskit, mukaan lukien tarve varmistaa tekoälyjärjestelmän suorituskyvyn asianmukainen seuranta todellisissa olosuhteissa, on asianmukaista asettaa käyttöönottajille erityisiä vastuita. Käyttöönottajien olisi erityisesti toteutettava teknisiä ja organisatorisia toimenpiteitä, joilla varmistetaan, että ne käyttävät suuririskisiä tekoälyjärjestelmiä käyttöohjeiden mukaisesti, ja tarvittaessa olisi säädettävä tietyistä muista tekoälyjärjestelmien toiminnan seurantaa ja tietojen säilyttämistä koskevista velvoitteista. Lisäksi käyttöönottajien olisi varmistettava, että henkilöillä, joiden tehtäväksi on annettu tässä asetuksessa vahvistettujen käyttöohjeiden ja ihmisen suorittaman valvonnan täytäntöönpano, on tarvittava pätevyys, erityisesti riittävä tekoälylukutaito, koulutus ja valtuudet näiden tehtävien hoitamiseksi asianmukaisesti. Kyseiset velvoitteet eivät saisi vaikuttaa muihin käyttöönottajan velvoitteisiin, jotka liittyvät suuririskisiin tekoälyjärjestelmiin unionin oikeuden tai kansallisen lainsäädännön mukaisesti.
(92)
El presente Reglamento se entiende sin perjuicio de la obligación de los empleadores de informar o de informar y consultar a los trabajadores o a sus representantes, en virtud del Derecho o las prácticas nacionales o de la Unión, incluida la Directiva 2002/14/CE del Parlamento Europeo y del Consejo (39), sobre la decisión de poner en servicio o utilizar sistemas de IA. Se debe velar por que se informe a los trabajadores y a sus representantes sobre el despliegue previsto de sistemas de IA de alto riesgo en el lugar de trabajo incluso aunque no se cumplan las condiciones de las citadas obligaciones de información o de información y consulta previstas en otros instrumentos jurídicos. Además, este derecho de información es accesorio y necesario para el objetivo de protección de los derechos fundamentales que subyace al presente Reglamento. Por consiguiente, debe establecerse en el presente Reglamento un requisito de información a tal efecto, sin que dicho requisito afecte a ningún derecho vigente de los trabajadores.
(92)
Tämä asetus ei vaikuta unionin oikeuden tai kansallisen lainsäädännön, mukaan lukien Euroopan parlamentin ja neuvoston direktiivi 2002/14/EY (39), ja käytännön mukaisiin työnantajien velvollisuuksiin tiedottaa työntekijöille tai heidän edustajilleen ja kuulla heitä tekoälyjärjestelmien käyttöönottoa tai käyttöä koskevista päätöksistä. On silti edelleen tarpeellista varmistaa, että työntekijöille ja heidän edustajilleen tiedotetaan suuririskisten tekoälyjärjestelmien suunnitellusta käyttöönotosta työpaikalla, jos kyseisten tiedotus- ja kuulemisvelvoitteiden edellytykset muissa oikeudellisissa välineissä eivät täyty. Lisäksi tällainen tiedonsaantioikeus on tarpeellinen tämän asetuksen taustalla olevalle perusoikeuksien suojelua koskevalle tavoitteelle ja sen sivutavoite. Sen vuoksi tässä asetuksessa olisi säädettävä kyseistä asiaa koskevasta tietovaatimuksesta, joka ei vaikuta työntekijöiden olemassa oleviin oikeuksiin.
(93)
Aunque los riesgos relacionados con los sistemas de IA pueden derivarse de su diseño, también pueden derivarse riesgos del uso que se hace de ellos. Por ello, los responsables del despliegue de un sistema de IA de alto riesgo desempeñan un papel fundamental a la hora de garantizar la protección de los derechos fundamentales, como complemento de las obligaciones del proveedor al desarrollar el sistema de IA. Los responsables del despliegue se encuentran en una posición óptima para comprender el uso concreto que se le dará al sistema de IA de alto riesgo y pueden, por lo tanto, detectar potenciales riesgos significativos que no se previeron en la fase de desarrollo, al tener un conocimiento más preciso del contexto de uso y de las personas o los colectivos de personas que probablemente se vean afectados, entre los que se incluyen colectivos vulnerables. Los responsables del despliegue de los sistemas de IA de alto riesgo que se enumeran en un anexo del presente Reglamento también desempeñan un papel fundamental a la hora de informar a las personas físicas y, cuando tomen decisiones o ayuden a tomar decisiones relacionadas con personas físicas, deben, en su caso, informar a las personas físicas de que son objeto de la utilización de un sistema de IA de alto riesgo. Esta información debe incluir la finalidad prevista y el tipo de decisiones que se toman. El responsable del despliegue también debe informar a las personas físicas de su derecho a una explicación con arreglo al presente Reglamento. Por lo que respecta a los sistemas de IA de alto riesgo que se utilizan a efectos de la garantía del cumplimiento del Derecho, esa obligación debe ejecutarse de conformidad con el artículo 13 de la Directiva (UE) 2016/680.
(93)
Vaikka tekoälyjärjestelmiin liittyvät riskit voivat olla seurausta tavasta, jolla tällaiset järjestelmät suunnitellaan, riskit voivat myös johtua siitä, miten tällaisia tekoälyjärjestelmiä käytetään. Suuririskisen tekoälyjärjestelmän käyttöönottajilla on siksi ratkaiseva rooli sen varmistamisessa, että perusoikeuksia suojellaan ja että ne täydentävät tarjoajan velvoitteita, kun tekoälyjärjestelmää kehitetään. Käyttöönottajilla on parhaat mahdollisuudet ymmärtää, miten suuririskistä tekoälyjärjestelmää käytetään konkreettisesti, ja näin ollen he voivat tunnistaa mahdollisia merkittäviä riskejä, joita ei ollut ennakoitu kehitysvaiheessa, koska he tuntevat tarkemmin käyttöyhteyden, henkilöt tai henkilöryhmät, mukaan lukien haavoittuvat asemassa olevat ryhmät, joihin vaikutukset todennäköisesti kohdistuvat. Tämän asetuksen liitteessä lueteltujen suuririskisten tekoälyjärjestelmien käyttöönottajilla on myös ratkaiseva rooli tietojen antamisessa luonnollisille henkilöille ja heidän olisi tapauksen mukaan ilmoitettava luonnollisille henkilöille heihin liittyvästä suuririskisen tekoälyjärjestelmän käytöstä, kun he tekevät tai auttavat tekemään luonnollisia henkilöitä koskevia päätöksiä. Näihin tietoihin olisi sisällyttävä tekoälyjärjestelmän käyttötarkoitus ja sen tekemien päätösten tyyppi. Käyttöönottajan olisi myös ilmoitettava luonnollisille henkilöille heidän oikeudestaan saada selitys tämän artiklan mukaisesti. Lainvalvontatarkoituksiin käytettävien suuririskisten tekoälyjärjestelmien osalta kyseinen velvoite olisi pantava täytäntöön direktiivin (EU) 2016/680 13 artiklan mukaisesti.
(94)
Todo tratamiento de datos biométricos que se produzca en el marco de la utilización de un sistema de IA para la identificación biométrica con fines de garantía del cumplimiento del Derecho debe cumplir lo dispuesto en el artículo 10 de la Directiva (UE) 2016/680, que permite dicho tratamiento solo cuando sea estrictamente necesario, con sujeción a las salvaguardias adecuadas para los derechos y libertades del interesado y cuando así lo autorice el Derecho de la Unión o de los Estados miembros. Dicho uso, cuando esté autorizado, también debe respetar los principios establecidos en el artículo 4, apartado 1, de la Directiva (UE) 2016/680, como, entre otros, que el tratamiento sea lícito y leal, la transparencia, la limitación de la finalidad, la exactitud y la limitación del plazo de conservación.
(94)
Kaikessa lainvalvontatarpeita varten tehtävän tekoälyjärjestelmien biometrista tunnistamista koskevan käytön yhteydessä biometristen tietojen käsittelyssä on noudatettava direktiivin (EU) 2016/680 10 artiklaa, joka sallii tällaisen käsittelyn vain, jos se on ehdottoman välttämätöntä, edellyttäen, että rekisteröidyn oikeuksiin ja vapauksiin sovelletaan asianmukaisia suojatoimia ja käsittely sallitaan unionin oikeudessa tai jäsenvaltion lainsäädännössä. Tällaisen käytön yhteydessä, silloin kun siihen on lupa, on myös noudatettava direktiivin (EU) 2016/680 4 artiklan 1 kohdassa säädettyjä periaatteita, kuten lainmukaisuutta, oikeudenmukaisuutta ja avoimuutta, käyttötarkoituksen rajoittamista, tarkkuutta ja säilytystä koskevia rajoituksia.
(95)
Sin perjuicio del Derecho de la Unión aplicable, en particular el Reglamento (UE) 2016/679 y la Directiva (UE) 2016/680, teniendo en cuenta el carácter intrusivo de los sistemas de identificación biométrica remota en diferido, el uso de este tipo de sistemas debe estar sujeto a garantías. Los sistemas de identificación biométrica remota en diferido deben utilizarse siempre de manera proporcionada y legítima, en la medida de lo estrictamente necesario y, por ende, de forma selectiva por lo que respecta a las personas que deben identificarse, la ubicación y el alcance temporal y a partir de un conjunto limitado de datos de grabaciones de vídeo obtenidas legalmente. En cualquier caso, los sistemas de identificación biométrica remota en diferido no deben utilizarse en el marco de la garantía del cumplimiento del Derecho de tal forma que se produzca una vigilancia indiscriminada. Las condiciones para la identificación biométrica remota en diferido en ningún caso deben servir para eludir las condiciones de la prohibición y las estrictas excepciones aplicables a la identificación biométrica remota en tiempo real.
(95)
Kun otetaan huomioon jälkikäteisten biometristen etätunnistusjärjestelmien yksityisyyttä loukkaava luonne, jälkikäteisten etätunnistusjärjestelmien käyttöön olisi sovellettava suojatoimia, sanotun kuitenkaan rajoittamatta sovellettavan unionin oikeuden, erityisesti asetuksen (EU) 2016/679 ja direktiivin (EU) 2016/680, soveltamista. Biometrisiä etätunnistusjärjestelmiä olisi aina käytettävä tavalla, joka on oikeasuhteinen, oikeutettu ja ehdottoman välttämätön ja siten kohdennettu tunnistettaviin henkilöihin, sijaintiin ja ajalliseen laajuuteen, ja perustuttava laillisesti hankitun videokuvan suljettuun datajoukkoon. Jälkikäteisiä biometrisiä etätunnistusjärjestelmiä ei saisi missään tapauksessa käyttää lainvalvonnan puitteissa siten, että se voi johtaa mielivaltaiseen valvontaan. Jälkikäteisen biometrisen etätunnistuksen edellytysten ei pitäisi missään tapauksessa olla peruste kiellon edellytysten ja reaaliaikaista biometristä etätunnistusta koskevien tiukkojen poikkeusten kiertämiselle.
(96)
A fin de garantizar eficazmente la protección de los derechos fundamentales, los responsables del despliegue de sistemas de IA de alto riesgo que sean organismos de Derecho público, o las entidades privadas que presten servicios públicos y los responsables del despliegue de determinados sistemas de IA de alto riesgo enumerados en un anexo del presente Reglamento, como las entidades bancarias o de seguros, deben llevar a cabo una evaluación de impacto relativa a los derechos fundamentales antes de su puesta en funcionamiento. Algunos servicios importantes para las personas que son de carácter público también pueden ser prestados por entidades privadas. Las entidades privadas que prestan estos servicios públicos se vinculan a funciones de interés público, por ejemplo, en el ámbito de la educación, la asistencia sanitaria, los servicios sociales, la vivienda y la administración de justicia. El objetivo de la evaluación de impacto relativa a los derechos fundamentales es que el responsable del despliegue determine los riesgos específicos para los derechos de las personas o colectivos de personas que probablemente se vean afectados y defina las medidas que deben adoptarse en caso de que se materialicen dichos riesgos. La evaluación de impacto debe llevarse a cabo antes del despliegue del sistema de IA de alto riesgo y debe actualizarse cuando el responsable del despliegue considere que alguno de los factores pertinentes ha cambiado. La evaluación de impacto debe determinar los procesos pertinentes del responsable del despliegue en los que se utilizará el sistema de IA de alto riesgo en consonancia con su finalidad prevista y debe incluir una descripción del plazo de tiempo y la frecuencia en que se pretende utilizar el sistema, así como de las categorías concretas de personas físicas y de colectivos de personas que probablemente se vean afectados por el uso del sistema de IA de alto riesgo en ese contexto de uso específico. La evaluación también debe determinar los riesgos de perjuicio específicos que probablemente afecten a los derechos fundamentales de dichas personas o colectivos. Al llevar a cabo esta evaluación, el responsable del despliegue debe tener en cuenta la información pertinente para una evaluación adecuada del impacto, lo que incluye, por ejemplo, la información facilitada por el proveedor del sistema de IA de alto riesgo en las instrucciones de uso. A la luz de los riesgos detectados, los responsables del despliegue deben determinar las medidas que han de adoptarse en caso de que se materialicen dichos riesgos, entre las que se incluyen, por ejemplo, sistemas de gobernanza para ese contexto de uso específico, como los mecanismos de supervisión humana con arreglo a las instrucciones de uso, los procedimientos de tramitación de reclamaciones y de recurso, ya que podrían ser fundamentales para mitigar los riesgos para los derechos fundamentales en casos de uso concretos. Tras llevar a cabo dicha evaluación de impacto, el responsable del despliegue debe notificarlo a la autoridad de vigilancia del mercado pertinente. Cuando proceda, para recopilar la información pertinente necesaria para llevar a cabo la evaluación de impacto, los responsables del despliegue de un sistema de IA de alto riesgo, en particular cuando el sistema de IA se utilice en el sector público, pueden contar con la participación de las partes interesadas pertinentes, como, por ejemplo, los representantes de colectivos de personas que probablemente se vean afectados por el sistema de IA, expertos independientes u organizaciones de la sociedad civil, en la realización de dichas evaluaciones de impacto y en el diseño de las medidas que deben adoptarse en caso de materialización de los riesgos. La Oficina Europea de Inteligencia Artificial (en lo sucesivo, «Oficina de IA») debe elaborar un modelo de cuestionario con el fin de facilitar el cumplimiento y reducir la carga administrativa para los responsables del despliegue.
(96)
Jotta voidaan varmistaa tehokkaasti perusoikeuksien suojelu, suuririskisten tekoälyjärjestelmien käyttöönottajien, jotka ovat julkisoikeudellisia laitoksia tai julkisia palveluja tarjoavia yksityisiä tahoja ja tiettyjä tämän asetuksen liitteessä lueteltuja suuririskisiä tekoälyjärjestelmiä käyttöön ottavia toimijoita, kuten pankkiyhteisöt tai vakuutusyhtiöt, olisi tehtävä perusoikeuksia koskeva vaikutustenarviointi ennen järjestelmän käyttöönottoa. Myös yksityiset tahot voivat tarjota henkilöille tärkeitä palveluja, jotka ovat luonteeltaan julkisia. Tällaisia julkisia palveluja tarjoavat yksityiset tahot liittyvät yleisen edun mukaisiin tehtäviin, kuten koulutukseen, terveydenhuoltoon, sosiaalipalveluihin, asumiseen ja oikeudenkäyttöön. Perusoikeuksia koskevan vaikutustenarvioinnin tavoitteena on, että käyttöönottaja tunnistaa niiden yksilöiden tai henkilöryhmien oikeuksiin kohdistuvat erityiset riskit, joihin vaikutukset todennäköisesti kohdistuvat, ja määrittää toimenpiteet, jotka on toteutettava tällaisten riskien toteutuessa. Vaikutustenarviointi olisi tehtävä ennen suuririskisen tekoälyjärjestelmän käyttöönottoa, ja sitä olisi päivitettävä, kun käyttöönottaja katsoo, että jokin asiaankuuluvista tekijöistä on muuttunut. Vaikutustenarvioinnissa olisi yksilöitävä käyttöönottajan asiaankuuluvat prosessit, joissa suuririskistä tekoälyjärjestelmää käytetään sen käyttötarkoituksen mukaisesti, ja siihen olisi sisällyttävä kuvaus ajanjaksosta, jolloin järjestelmää on tarkoitus käyttää, ja käytön tiheydestä, sekä tietyistä luonnollisten henkilöiden ja ryhmien joukoista, joihin todennäköisesti kohdistuu vaikutuksia tietyssä käyttöyhteydessä.Arvioinnissa olisi myös tunnistettava sellaiset erityiset riskit, joita aiheutuu haitasta, joka todennäköisesti vaikuttaa kyseisten henkilöiden tai ryhmien perusoikeuksiin. Tätä arviointia tehdessään käyttöönottajan olisi otettava huomioon vaikutusten asianmukaisen arvioinnin kannalta merkitykselliset tiedot, kuten esimerkiksi suuririskisen tekoälyjärjestelmän tarjoajan käyttöohjeissa antamat tiedot. Kun otetaan huomioon tunnistetut riskit, käyttöönottajien olisi määritettävä toimenpiteitä, joita on toteutettava kyseisten riskien toteutuessa ja joihin voi kuulua esimerkiksi kyseisen käyttöyhteyden hallintojärjestelyt, kuten ihmisen suorittamaa valvontaa koskevat järjestelyt käyttöohjeiden mukaisesti tai valitusten käsittely ja muutoksenhakumenettelyt, koska ne voisivat konkreettisissa käyttötapauksissa olla keskeisessä asemassa perusoikeuksiin kohdistuvien riskien vähentämisessä. Kun tällainen vaikutustenarviointi tehty, käyttöönottajan olisi ilmoitettava asiasta asianomaiselle markkinavalvontaviranomaiselle. Jotta voidaan kerätä tarvittavat asiaankuuluvat tiedot vaikutustenarvioinnin toteuttamiseksi, suuririskisten tekoälyjärjestelmien käyttöönottajat voisivat ottaa asiaankuuluvat sidosryhmät, mukaan lukien sellaisten henkilöryhmien edustajat, joihin tekoälyjärjestelmä todennäköisesti vaikuttaa, riippumattomat asiantuntijat ja kansalaisjärjestöt, mukaan tällaisen vaikutustenarvioinnin toteuttamiseen sekä riskien toteutuessa toteutettavien toimenpiteiden suunnitteluun, etenkin jos tekoälyjärjestelmiä käytetään julkisella sektorilla. Euroopan tekoälytoimiston, jäljempänä ”tekoälytoimisto”, olisi laadittava malli kyselylomakkeelle vaatimusten noudattamisen helpottamiseksi ja käyttöönottajille aiheutuvan hallinnollisen rasitteen keventämiseksi.
(97)
El concepto de modelos de IA de uso general debe definirse claramente y diferenciarse del concepto de sistemas de IA con el fin de garantizar la seguridad jurídica. La definición debe basarse en las características funcionales esenciales de un modelo de IA de uso general, en particular la generalidad y la capacidad de realizar de manera competente una amplia variedad de tareas diferenciadas. Estos modelos suelen entrenarse usando grandes volúmenes de datos y a través de diversos métodos, como el aprendizaje autosupervisado, no supervisado o por refuerzo. Los modelos de IA de uso general pueden introducirse en el mercado de diversas maneras, por ejemplo, a través de bibliotecas, interfaces de programación de aplicaciones (API), como descarga directa o como copia física. Estos modelos pueden modificarse o perfeccionarse y transformarse en nuevos modelos. Aunque los modelos de IA son componentes esenciales de los sistemas de IA, no constituyen por sí mismos sistemas de IA. Los modelos de IA requieren que se les añadan otros componentes, como, por ejemplo, una interfaz de usuario, para convertirse en sistemas de IA. Los modelos de IA suelen estar integrados en los sistemas de IA y formar parte de dichos sistemas. El presente Reglamento establece normas específicas para los modelos de IA de uso general y para los modelos de IA de uso general que entrañan riesgos sistémicos, que deben aplicarse también cuando estos modelos estén integrados en un sistema de IA o formen parte de un sistema de IA. Debe entenderse que las obligaciones de los proveedores de modelos de IA de uso general deben aplicarse una vez que los modelos de IA de uso general se introduzcan en el mercado. Cuando el proveedor de un modelo de IA de uso general integre un modelo propio en un sistema de IA propio que se comercialice o ponga en servicio, se debe considerar que dicho modelo se ha introducido en el mercado y, por tanto, se deben seguir aplicando las obligaciones establecidas en el presente Reglamento en relación con los modelos, además de las establecidas en relación con los sistemas de IA. En cualquier caso, las obligaciones establecidas en relación con los modelos no deben aplicarse cuando un modelo propio se utilice en procesos puramente internos que no sean esenciales para suministrar un producto o un servicio a un tercero y los derechos de las personas físicas no se vean afectados. Teniendo en cuenta su potencial para causar efectos negativos importantes, los modelos de IA de uso general con riesgo sistémico deben estar siempre sujetos a las obligaciones pertinentes establecidas en el presente Reglamento. La definición no debe incluir los modelos de IA utilizados antes de su introducción en el mercado únicamente para actividades de investigación, desarrollo y creación de prototipos. Lo anterior se entiende sin perjuicio de la obligación de cumplir lo dispuesto en el presente Reglamento cuando, tras haber realizado dichas actividades, el modelo se introduzca en el mercado.
(97)
Yleiskäyttöisten tekoälymallien käsite olisi määriteltävä selkeästi ja erotettava tekoälyjärjestelmien käsitteestä oikeusvarmuuden takaamiseksi. Määritelmän olisi perustuttava yleiskäyttöisen tekoälymallin keskeisiin toiminnallisiin ominaisuuksiin, erityisesti yleisyyteen ja valmiuteen suorittaa pätevästi monenlaisia erillisiä tehtäviä. Näitä malleja koulutetaan yleensä suurilla määrillä dataa ja useilla eri menetelmillä, kuten ohjatulla, ohjaamattomalla tai vahvistavalla oppimisella. Yleiskäyttöisiä tekoälymalleja voidaan saattaa markkinoille eri tavoin, esimerkiksi kirjastojen ja sovellusrajapintojen (API) kautta sekä suoralatauksena tai fyysisenä kopiona. Näitä malleja voidaan edelleen muuttaa tai hienosäätää uusiksi malleiksi. Vaikka tekoälymallit ovat tekoälyjärjestelmien olennaisia osia, ne eivät yksinään muodosta tekoälyjärjestelmiä. Tekoälyjärjestelmät edellyttävät lisäkomponenttien, kuten käyttöliittymän, lisäämistä tekoälymalleihin. Tekoälymallit tyypillisesti integroidaan tekoälyjärjestelmiin ja ovat osa niitä. Tässä asetuksessa vahvistetaan yleiskäyttöisiä tekoälymalleja ja systeemisiä riskejä aiheuttavia yleiskäyttöisiä tekoälymalleja koskevat erityiset säännöt, joita olisi sovellettava myös silloin, kun nämä mallit on integroitu tekoälyjärjestelmään tai ne ovat osa sitä. Olisi katsottava, että yleiskäyttöisten tekoälymallien tarjoajien velvoitteita olisi sovellettava siitä alkaen, kun yleiskäyttöiset tekoälymallit on saatettu markkinoille.Kun yleiskäyttöisen tekoälymallin tarjoaja sisällyttää oman mallin omaan tekoälyjärjestelmäänsä, joka on asetettu saataville markkinoilla tai otettu käyttöön, kyseistä mallia olisi pidettävä markkinoille saatettuna, ja sen vuoksi tämän asetuksen malleja koskevia velvoitteita olisi edelleen sovellettava tekoälyjärjestelmiä koskevien velvoitteiden lisäksi. Malleja koskevia velvoitteita ei kuitenkaan pitäisi missään tapauksessa soveltaa, kun omaa mallia käytetään puhtaasti sisäisissä prosesseissa, jotka eivät ole välttämättömiä tuotteen tai palvelun tarjoamiseksi kolmansille osapuolille eivätkä ne vaikuta luonnollisten henkilöiden oikeuksiin. Ottaen huomioon yleiskäyttöisten tekoälymallien, joihin liittyy systeeminen riski, mahdolliset merkittävät kielteiset vaikutukset, niihin olisi aina sovellettava tämän asetuksen mukaisia asiaankuuluvia velvoitteita. Määritelmän ei pitäisi kattaa tekoälymalleja, joita on käytetty yksinomaan tutkimukseen, kehitykseen ja prototyyppeihin liittyvään toimintaan ennen niiden markkinoille saattamista. Tämä ei vaikuta velvoitteeseen noudattaa tätä asetusta, kun malli saatetaan markkinoille tällaisten toimien jälkeen.
(98)
Aunque la generalidad de un modelo también podría determinarse, entre otras cosas, mediante una serie de parámetros, debe considerarse que los modelos que tengan al menos mil millones de parámetros y se hayan entrenado con un gran volumen de datos utilizando la autosupervisión a escala presentan un grado significativo de generalidad y realizan de manera competente una amplia variedad de tareas diferenciadas.
(98)
Vaikka mallin yleisyys voitaisiin muiden kriteerien ohella määrittää myös useiden parametrien perusteella, olisi katsottava, että mallit, joissa parametreja on vähintään miljardi, jotka on koulutettu suurella määrällä dataa ja joissa käytetään laajamittaista itsevalvontaa, ovat hyvin yleisluonteisia ja suorittavat pätevästi monenlaisia erillisiä tehtäviä.
(99)
Los grandes modelos de IA generativa son un ejemplo típico de un modelo de IA de uso general, ya que permiten la generación flexible de contenidos, por ejemplo, en formato de texto, audio, imágenes o vídeo, que pueden adaptarse fácilmente a una amplia gama de tareas diferenciadas.
(99)
Suuret generatiiviset tekoälymallit ovat tyypillinen esimerkki yleiskäyttöisestä tekoälymallista, koska ne mahdollistavat joustavan sisällön tuottamisen, esimerkiksi tekstin, äänen, kuvien tai videoiden muodossa, jossa voidaan helposti ottaa huomioon monenlaiset erilliset tehtävät.
(100)
Cuando un modelo de IA de uso general esté integrado en un sistema de IA o forme parte de él, este sistema debe considerarse un sistema de IA de uso general cuando, debido a esta integración, el sistema tenga la capacidad de servir a diversos fines. Un sistema de IA de uso general puede utilizarse directamente e integrarse en otros sistemas de IA.
(100)
Kun yleiskäyttöinen tekoälymalli on integroitu tekoälyjärjestelmään tai se on osa sitä, järjestelmää olisi pidettävä yleiskäyttöisenä tekoälyjärjestelmänä, koska tällaisen integroinnin vuoksi tällaisella järjestelmällä on valmiudet palvella erilaisia tarkoituksia. Yleiskäyttöistä tekoälyjärjestelmää voidaan käyttää suoraan tai se voidaan integroida muihin tekoälyjärjestelmiin;
(101)
Los proveedores de modelos de IA de uso general tienen una función y una responsabilidad particulares a lo largo de la cadena de valor de la IA, ya que los modelos que suministran pueden constituir la base de diversos sistemas de etapas posteriores, que a menudo son suministrados por proveedores posteriores que necesitan entender bien los modelos y sus capacidades, tanto para permitir la integración de dichos modelos en sus productos como para cumplir sus obligaciones en virtud del presente Reglamento o de otros reglamentos. Por consiguiente, deben establecerse medidas de transparencia proporcionadas, lo que incluye elaborar documentación y mantenerla actualizada y facilitar información sobre el modelo de IA de uso general para su uso por parte de los proveedores posteriores. El proveedor del modelo de IA de uso general debe elaborar y mantener actualizada la documentación técnica con el fin de ponerla a disposición, previa solicitud, de la Oficina de IA y de las autoridades nacionales competentes. Los elementos mínimos que debe contener dicha documentación deben establecerse en anexos específicos del presente Reglamento. La Comisión debe estar facultada para modificar dichos anexos mediante actos delegados en función de los avances tecnológicos.
(101)
Yleiskäyttöisten tekoälymallien tarjoajilla on erityinen rooli ja vastuu tekoälyn arvoketjussa, koska niiden tarjoamat mallit voivat muodostaa perustan useille ketjun loppupään järjestelmille, joita tarjoavat usein ketjun loppupään tarjoajat, jotka edellyttävät mallien ja niiden valmiuksien hyvää ymmärtämistä, jotta tällaiset mallit voidaan integroida niiden tuotteisiin ja jotta ne voivat täyttää tämän tai muiden asetusten mukaiset velvoitteensa. Sen vuoksi olisi vahvistettava oikeasuhteiset avoimuuden lisäämistä koskevat toimenpiteet, mukaan lukien asiakirjojen laatiminen ja ajan tasalla pitäminen sekä tietojen antaminen yleiskäyttöisestä tekoälymallista ketjun loppupään tarjoajien käyttöön. Yleiskäyttöisen tekoälymallin tarjoajan olisi laadittava tekniset asiakirjat ja pidettävä ne ajan tasalla, jotta ne voidaan pyynnöstä asettaa tekoälytoimiston ja kansallisten toimivaltaisten viranomaisten saataville. Tällaisiin asiakirjoihin sisällytettävät vähimmäistiedot olisi vahvistettava tämän asetuksen erityisissä liitteissä. Komissiolle olisi siirrettävä valta muuttaa kyseisiä liitteitä delegoiduilla säädöksillä teknologian kehityksen perusteella.
(102)
El software y los datos, incluidos los modelos, divulgados con arreglo a una licencia libre y de código abierto que permita compartirlos abiertamente y que los usuarios puedan acceder a ellos, o a versiones modificadas de dicho software y dichos datos, o utilizarlos, modificarlos y redistribuirlos libremente, pueden contribuir a la investigación y la innovación en el mercado y pueden ofrecer importantes oportunidades de crecimiento para la economía de la Unión. Debe considerarse que los modelos de IA de uso general divulgados con arreglo a una licencia libre y de código abierto garantizan altos niveles de transparencia y apertura si sus parámetros, incluidos los pesos, la información sobre la arquitectura del modelo y la información sobre el uso del modelo, se ponen a disposición del público. La licencia debe considerarse libre y de código abierto cuando permita a los usuarios ejecutar, copiar, distribuir, estudiar, modificar y mejorar el software y los datos, incluidos los modelos a condición de que se cite al proveedor original del modelo, si se respetan unas condiciones de distribución idénticas o comparables.
(102)
Ohjelmistot ja data, mukaan lukien mallit, jotka on julkaistu vapaalla ja avoimen lähdekoodin lisenssillä, joka mahdollistaa niiden avoimen jakamisen ja jolla käyttäjät voivat vapaasti saada, käyttää, muokata ja jakaa niitä tai niiden muutettuja versioita, voivat edistää tutkimusta ja innovointia markkinoilla ja voivat tarjota merkittäviä kasvumahdollisuuksia unionin taloudelle. Vapailla ja avoimen lähdekoodin lisensseillä julkaistujen yleiskäyttöisten tekoälymallien olisi katsottava varmistavan korkean avoimuuden tason, jos niiden parametrit, mukaan lukien painokertoimet, malliarkkitehtuuria koskevat tiedot ja mallien käyttöä koskevat tiedot, asetetaan julkisesti saataville. Lisenssi olisi pidettävä vapaana ja avoimena lähdekoodina myös silloin, kun se antaa käyttäjille mahdollisuuden käyttää, kopioida, jakaa, tutkia, muuttaa ja parantaa ohjelmistoja ja dataa, mukaan lukien malleja sillä edellytyksellä, että mallin alkuperäinen tarjoaja mainitaan ja että samoja tai vertailukelpoisia jakeluehtoja noudatetaan.
(103)
Los componentes de IA libres y de código abierto comprenden el software y los datos, incluidos los modelos y los modelos de IA de uso general, las herramientas, los servicios y los procesos de un sistema de IA. Los componentes de IA libres y de código abierto pueden suministrarse a través de diferentes canales, lo que incluye la posibilidad de desarrollarlos en repositorios abiertos. A los efectos del presente Reglamento, los componentes de IA que se suministren a cambio de una contraprestación o que se moneticen de cualquier otro modo, como, por ejemplo, mediante la prestación de apoyo técnico u otros servicios en relación con el componente de IA, ya sea a través de una plataforma de software o por otros medios, o mediante el uso de datos personales con fines que no se refieran exclusivamente a la mejora de la seguridad, la compatibilidad o la interoperabilidad del software, salvo si se trata de operaciones entre microempresas, no deben poder acogerse a las excepciones previstas para los componentes de IA libres y de código abierto. La disponibilidad de un componente de IA a través de repositorios abiertos no debe constituir, de por sí, una monetización.
(103)
Vapaat ja avoimen lähdekoodin tekoälykomponentit kattavat ohjelmistot ja datan, mukaan lukien tekoälyjärjestelmän mallit ja yleiskäyttöiset tekoälymallit, välineet, palvelut tai prosessit. Vapaita ja avoimen lähdekoodin tekoälykomponentteja voidaan tarjota eri kanavien kautta, mukaan lukien niiden kehittäminen avoimissa julkaisuarkistoissa. Tätä asetusta sovellettaessa tekoälykomponenttien, joita tarjotaan maksua vastaan tai muilla tavoin vastikkeellisina, muun muassa tarjoamalla tekoälykomponenttiin liittyvää teknistä tukea tai muita palveluja, myös ohjelmistoalustan kautta, tai käyttämällä henkilötietoja muista kuin yksinomaan ohjelmiston turvallisuuden, yhteensopivuuden tai yhteentoimivuuden parantamiseen liittyvistä syistä, lukuun ottamatta mikroyritysten välisiä kaupallisia toimia, ei pitäisi hyötyä vapaille ja avoimen lähdekoodin tekoälykomponenteille säädetyistä poikkeuksista. Sen, että tekoälykomponentit asetetaan saataville avoimien julkaisuarkistojen kautta, ei sinänsä pitäisi merkitä vastikkeellisuutta.
(104)
Los proveedores de modelos de IA de uso general divulgados con arreglo a una licencia libre y de código abierto cuyos parámetros, incluidos los pesos, la información sobre la arquitectura del modelo y la información sobre el uso del modelo, se ponen a disposición del público deben estar sujetos a excepciones por lo que respecta a los requisitos de transparencia que se imponen a los modelos de IA de uso general, a menos que pueda considerarse que presentan un riesgo sistémico, en cuyo caso la circunstancia de que el modelo sea transparente y vaya acompañado de una licencia de código abierto no debe considerarse una razón suficiente para que quede exento del cumplimiento de las obligaciones establecidas en el presente Reglamento. En cualquier caso, dado que la divulgación de modelos de IA de uso general con arreglo a una licencia libre y de código abierto no necesariamente revela información sustancial sobre el conjunto de datos utilizado para entrenar el modelo o realizar ajustes en relación con este ni sobre la manera en que se garantizó el cumplimiento del Derecho en materia de derechos de autor, la excepción prevista para los modelos de IA de uso general en relación con el cumplimiento de los requisitos de transparencia no debe eximir de la obligación de presentar un resumen del contenido utilizado para el entrenamiento del modelo ni de la obligación de adoptar directrices para el cumplimiento del Derecho de la Unión en materia de derechos de autor, en particular para identificar y respetar la reserva de derechos prevista en el artículo 4, apartado 3, de la Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo (40).
(104)
Tarjoajiin, jotka tarjoavat vapaalla ja avoimen lähdekoodin lisenssillä yleiskäyttöisiä tekoälymalleja, joiden parametrit, mukaan lukien painokertoimet sekä malliarkkitehtuuria ja mallin käyttöä koskevat tiedot, asetetaan julkisesti saataville, olisi sovellettava poikkeuksia, jotka koskevat yleiskäyttöisille tekoälymalleille asetettuja avoimuusvaatimuksia, paitsi jos niiden voidaan katsoa aiheuttavan systeemisen riskin, jolloin sitä, että malli on avoin ja siihen liittyy avoimen lähdekoodin lisenssi, ei pitäisi katsoa riittäväksi syyksi olla noudattamatta tämän asetuksen mukaisia velvoitteita. Koska yleiskäyttöisten tekoälymallien käyttöönotto vapaan ja avoimen lähdekoodin lisenssin nojalla ei välttämättä paljasta olennaisia tietoja mallin kouluttamiseen tai hienosäätöön käytetystä datajoukosta ja siitä, miten tekijänoikeuslainsäädännön noudattaminen on varmistettu, yleiskäyttöisiä tekoälymalleja koskeva poikkeus avoimuusvaatimusten noudattamisesta ei saisi missään tapauksessa koskea velvoitetta laatia tiivistelmä mallikoulutuksessa käytetystä sisällöstä ja velvoitetta ottaa käyttöön toimintaperiaatteet unionin tekijänoikeuslainsäädännön noudattamiseksi ja erityisesti oikeuksien pidättämisen tunnistamiseksi ja noudattamiseksi Euroopan parlamentin ja neuvoston direktiivin (EU) 2019/790 (40) 4 artiklan 3 kohdan mukaisesti.
(105)
Los modelos de IA de uso general, en particular los grandes modelos de IA generativos, capaces de generar texto, imágenes y otros contenidos, presentan unas oportunidades de innovación únicas, pero también representan un desafío para los artistas, autores y demás creadores y para la manera en que se crea, distribuye, utiliza y consume su contenido creativo. El desarrollo y el entrenamiento de estos modelos requiere acceder a grandes cantidades de texto, imágenes, vídeos y otros datos. Las técnicas de prospección de textos y datos pueden utilizarse ampliamente en este contexto para la recuperación y el análisis de tales contenidos, que pueden estar protegidos por derechos de autor y derechos afines. Todo uso de contenidos protegidos por derechos de autor requiere la autorización del titular de los derechos de que se trate, salvo que se apliquen las excepciones y limitaciones pertinentes en materia de derechos de autor. La Directiva (UE) 2019/790 introdujo excepciones y limitaciones que permiten reproducciones y extracciones de obras y otras prestaciones con fines de prospección de textos y datos en determinadas circunstancias. Con arreglo a estas normas, los titulares de derechos pueden optar por reservarse sus derechos en relación con sus obras u otras prestaciones para evitar la prospección de textos y datos, salvo que su finalidad sea la investigación científica. Cuando el titular del derecho se haya reservado de manera adecuada el derecho de exclusión, los proveedores de modelos de IA de uso general deben obtener su autorización para llevar a cabo una prospección de textos y datos con dichas obras.
(105)
Yleiskäyttöiset tekoälymallit, erityisesti suuret generatiiviset tekoälymallit, jotka pystyvät tuottamaan tekstiä, kuvia ja muuta sisältöä, tarjoavat ainutlaatuisia innovointimahdollisuuksia mutta myös haasteita taiteilijoille, kirjailijoille ja muille luovan sisällön tekijöille sekä sille, miten heidän luovaa sisältöään luodaan, levitetään, käytetään ja kulutetaan. Tällaisten mallien kehittäminen ja kouluttaminen edellyttää valtavia määriä tekstiä, kuvia, videoita ja muuta dataa. Tekstin- ja tiedonlouhintatekniikoita voidaan tässä yhteydessä käyttää laajasti tällaisen tekijänoikeudella ja lähioikeuksilla suojatun sisällön hakemiseen ja analysointiin. Tekijänoikeudella suojatun sisällön käyttö edellyttää asianomaisen oikeudenhaltijan lupaa, paitsi jos sovelletaan asiaankuuluvia tekijänoikeutta koskevia poikkeuksia ja -rajoituksia. Direktiivillä (EU) 2019/790 otettiin käyttöön poikkeuksia ja rajoituksia, jotka sallivat tietyin edellytyksin kappaleenvalmistamisen ja otteiden ottamisen teoksista tai muusta aineistosta tekstin- ja tiedonlouhintaa varten. Näiden sääntöjen mukaan oikeudenhaltijat voivat päättää varata itselleen oikeudet teoksiinsa tai muuhun aineistoonsa tekstin- ja tiedonlouhinnan estämiseksi, ellei tätä tehdä tieteellistä tutkimusta varten. Jos nämä oikeudet on nimenomaisesti ja asianmukaisesti varattu, yleiskäyttöisten tekoälymallien tarjoajien on saatava oikeudenhaltijoilta lupa, jos ne haluavat toteuttaa tällaisia teoksia koskevan tekstin- ja tiedonlouhinnan.
(106)
Los proveedores que introduzcan modelos de IA de uso general en el mercado de la Unión deben garantizar el cumplimiento de las obligaciones pertinentes establecidas en el presente Reglamento. A tal fin, los proveedores de modelos de IA de uso general deben adoptar directrices para el cumplimiento del Derecho de la Unión en materia de derechos de autor y derechos afines, en particular para detectar y cumplir la reserva de derechos expresada por los titulares de derechos con arreglo al artículo 4, apartado 3, de la Directiva (UE) 2019/790. Todo proveedor que introduzca un modelo de IA de uso general en el mercado de la Unión debe cumplir esta obligación, independientemente de la jurisdicción en la que tengan lugar los actos pertinentes en materia de derechos de autor que sustentan el entrenamiento de dichos modelos de IA de uso general. Esta medida es necesaria para garantizar unas condiciones de competencia equitativas entre los proveedores de modelos de IA de uso general que impidan que un proveedor obtenga una ventaja competitiva en el mercado de la Unión aplicando normas en materia de derechos de autor menos estrictas que las establecidas en la Unión.
(106)
Tarjoajien, jotka saattavat yleiskäyttöisiä tekoälymalleja unionin markkinoille, olisi varmistettava tässä asetuksessa säädettyjen asiaankuuluvien velvoitteiden noudattaminen. Tätä varten yleiskäyttöisten tekoälymallien tarjoajien olisi otettava käyttöön toimintaperiaatteet, joilla noudatetaan tekijänoikeutta ja lähioikeuksia koskevaa unionin oikeutta ja erityisesti tunnistetaan ja noudatetaan oikeudenhaltijoiden direktiivin (EU) 2019/790 4 artiklan 3 kohdan mukaisesti ilmaisemaa oikeuksien pidättämistä. Kaikkien tarjoajien, jotka saattavat unionin markkinoille yleiskäyttöisen tekoälymallin, olisi noudatettava tätä velvoitetta riippumatta siitä, millä lainkäyttöalueella kyseisten yleiskäyttöisten tekoälymallien koulutuksen perustana olevat tekijänoikeuden kannalta merkitykselliset toimet toteutetaan. Tämä on tarpeen, jotta yleiskäyttöisten tekoälymallien tarjoajille voidaan varmistaa tasapuoliset toimintaedellytykset, joissa yksikään tarjoaja ei saisi unionin markkinoilla kilpailuetua soveltamalla alhaisempia tekijänoikeusstandardeja kuin unionissa.
(107)
Con el fin de aumentar la transparencia en relación con los datos utilizados en el entrenamiento previo y el entrenamiento de los modelos de IA de uso general, incluidos los textos y los datos protegidos por el Derecho en materia de derechos de autor, procede que los proveedores de dichos modelos elaboren y pongan a disposición del público un resumen suficientemente detallado de los contenidos utilizados para el entrenamiento del modelo de IA de uso general. Este resumen debe tener debidamente en cuenta la necesidad de proteger los secretos comerciales y la información empresarial confidencial y, al mismo tiempo, debe ser exhaustivo en general en su alcance en vez de técnicamente detallado, a fin de facilitar que las partes con intereses legítimos, incluidos los titulares de derechos de autor, ejerzan y hagan cumplir sus derechos en virtud del Derecho de la Unión, por ejemplo, enumerando los principales conjuntos o recopilaciones de datos que hayan servido para entrenar al modelo, como los grandes archivos de datos o bases de datos privados o públicos, y proporcionando una explicación descriptiva sobre otras fuentes de datos utilizadas. Conviene que la Oficina de IA proporcione un modelo para el resumen, que debe ser sencillo y eficaz y permitir que el proveedor proporcione el resumen requerido en forma descriptiva.
(107)
Jotta voidaan lisätä sellaisen datan avoimuutta, jota käytetään yleiskäyttöisten tekoälymallien esikoulutuksessa ja koulutuksessa, mukaan lukien tekijänoikeuslainsäädännöllä suojattu teksti ja data, on asianmukaista, että tällaisten mallien tarjoajat laativat ja asettavat julkisesti saataville riittävän yksityiskohtaisen tiivistelmän yleiskäyttöisen tekoälymallin koulutuksessa käytetystä sisällöstä. Samalla kun otetaan asianmukaisesti huomioon tarve suojella liikesalaisuuksia ja luottamuksellisia liiketoimintaa koskevia tietoja, tämän tiivistelmän olisi oltava sisällöltään yleisesti kattava sen sijaan, että se olisi teknisesti yksityiskohtainen, jotta osapuolia, joilla on oikeutettuja etuja, mukaan lukien tekijänoikeuden haltijat, voidaan auttaa käyttämään ja panemaan täytäntöön unionin oikeuden mukaisia oikeuksiaan, ja esimerkiksi luetella tärkeimmät mallin koulutukseen käytetyt tietolähteet tai datajoukot, kuten suuret yksityiset tai julkiset tietokannat tai -arkistot, ja antaa selostus muista käytetyistä tietolähteistä. Olisi asianmukaista, että tekoälytoimisto antaa tiivistelmälle mallin, jonka olisi oltava yksinkertainen ja tehokas ja jonka avulla tarjoaja voi toimittaa vaaditun tiivistelmän selostuksen muodossa.
(108)
Por lo que se refiere a las obligaciones impuestas a los proveedores de modelos de IA de uso general de adoptar directrices para el cumplimiento del Derecho de la Unión en materia de derechos de autor y de poner a disposición del público un resumen de los contenidos utilizados para el entrenamiento, la Oficina de IA debe supervisar si el proveedor ha cumplido dichas obligaciones sin verificar ni proceder a una evaluación obra por obra de los datos de entrenamiento en cuanto al respeto de los derechos de autor. El presente Reglamento no afecta al cumplimiento de las normas en materia de derechos de autor previstas en el Derecho de la Unión.
(108)
Yleiskäyttöisten tekoälymallien tarjoajille asetettujen velvoitteiden, jotka koskevat toimintaperiaatteiden käyttöönottoa unionin tekijänoikeuslainsäädännön noudattamiseksi ja koulutuksessa käytettyä sisältöä koskevan tiivistelmän julkisesti saataville asettamista, tekoälytoimiston olisi seurattava, onko tarjoaja täyttänyt kyseiset velvoitteet tarkistamatta tai arvioimatta koulutusdataa teoskohtaisesti tekijänoikeuksien noudattamisen osalta. Tämä asetus ei vaikuta unionin oikeudessa säädettyjen tekijänoikeussääntöjen täytäntöönpanoon.
(109)
El cumplimiento de las obligaciones aplicables a los proveedores de modelos de IA de uso general debe ser proporcionado y adecuado al tipo de proveedor de modelos. Debe eximirse de la obligación de cumplimiento a las personas que desarrollan o utilizan modelos con fines no profesionales o de investigación científica. No obstante, debe animarse a estas personas a cumplir voluntariamente estos requisitos. Sin perjuicio del Derecho de la Unión en materia de derechos de autor, el cumplimiento de esas obligaciones debe tener debidamente en cuenta el tamaño del proveedor y permitir formas simplificadas de cumplimiento para las pymes, incluidas las empresas emergentes, que no deben suponer un coste excesivo ni desincentivar el uso de dichos modelos. En caso de que se modifique o ajuste un modelo, las obligaciones de los proveedores de modelos de IA de uso general deben limitarse a esa modificación o esos ajustes, por ejemplo, complementando la documentación técnica ya existente con información sobre las modificaciones, incluidas las nuevas fuentes de datos de entrenamiento, para cumplir las obligaciones relacionadas con la cadena de valor establecidas en el presente Reglamento.
(109)
Yleiskäyttöisten tekoälymallien tarjoajiin sovellettavien velvoitteiden noudattamisen olisi oltava oikeasuhtaista mallin tarjoajan tyyppiin nähden, pois lukien ei-ammatillisiin tai tieteellisiin tutkimustarkoituksiin malleja kehittävät tai käyttävät henkilöt, joiden ei tarvitse noudattaa velvoitteita, mutta joita olisi kuitenkin kannustettava noudattamaan niitä vapaaehtoisesti. Kyseisten velvoitteiden noudattamisessa olisi otettava asianmukaisesti huomioon tarjoajan koko ja mahdollistettava pk-yrityksille, myös startup-yrityksille, velvoitteiden noudattamiseksi yksinkertaistetut menettelyt, jotka eivät saisi aiheuttaa kohtuuttomia kustannuksia eivätkä estää tällaisten mallien käyttöä, sanotun kuitenkaan rajoittamatta unionin tekijänoikeuslainsäädännön soveltamista. Jos mallia muutetaan tai hienosäädetään, yleiskäyttöisten tekoälymallien tarjoajien velvoitteet olisi rajattava kyseiseen muutokseen tai hienosäätöön esimerkiksi täydentämällä jo olemassa olevia teknisiä asiakirjoja muutoksia koskevilla tiedoilla, mukaan lukien koulutukseen käytetyt uudet tietolähteet, keinona noudattaa tässä asetuksessa säädettyjä arvoketjuun liittyviä velvoitteita.
(110)
Los modelos de IA de uso general pueden plantear riesgos sistémicos, por ejemplo, cualquier efecto negativo real o razonablemente previsible en relación con accidentes graves, perturbaciones de sectores críticos y consecuencias graves para la salud y la seguridad públicas, cualquier efecto negativo real o razonablemente previsible sobre los procesos democráticos y la seguridad pública y económica o la difusión de contenidos ilícitos, falsos o discriminatorios. Debe entenderse que los riesgos sistémicos aumentan con las capacidades y el alcance de los modelos, pueden surgir durante todo el ciclo de vida del modelo y se ven influidos por las condiciones de uso indebido, la fiabilidad del modelo, la equidad y la seguridad del modelo, el nivel de autonomía del modelo, su acceso a herramientas, modalidades novedosas o combinadas, las estrategias de divulgación y distribución, la posibilidad de eliminar las salvaguardias y otros factores. En particular, los enfoques internacionales han establecido hasta la fecha la necesidad de prestar atención a los riesgos derivados de posibles usos indebidos intencionados o de problemas en materia de control relacionados con la armonización con la intención humana no deseados, a los riesgos químicos, biológicos, radiológicos y nucleares, como las maneras en que las barreras a la entrada pueden reducirse, también para el desarrollo, el diseño, la adquisición o el uso de armas, a las cibercapacidades ofensivas, como las maneras en que pueden propiciarse el descubrimiento, la explotación o el uso operativo de vulnerabilidades, a los efectos de la interacción y el uso de herramientas, incluida, por ejemplo, la capacidad de controlar sistemas físicos e interferir en el funcionamiento de infraestructuras críticas, a los riesgos derivados del hecho que los modelos hagan copias de sí mismos o se «autorrepliquen» o entrenen a otros modelos, a las maneras en que los modelos pueden dar lugar a sesgos dañinos y discriminación que entrañan riesgos para las personas, las comunidades o las sociedades, a la facilitación de la desinformación o el menoscabo de la intimidad, que suponen una amenaza para los valores democráticos y los derechos humanos, al riesgo de que un acontecimiento concreto dé lugar a una reacción en cadena con efectos negativos considerables que podrían afectar incluso a una ciudad entera, un ámbito de actividad entero o una comunidad entera.
(110)
Yleiskäyttöiset tekoälymallit voivat aiheuttaa systeemisiä riskejä, joihin kuuluvat muun muassa suuronnettomuuksiin liittyvät tosiasialliset tai kohtuudella ennakoitavissa olevat kielteiset vaikutukset, kriittisten alojen häiriöt ja vakavat seuraukset kansanterveydelle ja turvallisuudelle; mahdolliset tosiasialliset tai kohtuudella ennakoitavissa olevat kielteiset vaikutukset demokraattisiin prosesseihin sekä yleiseen ja taloudelliseen turvallisuuteen; laittoman, väärän tai syrjivän sisällön levittäminen. Systeemisten riskien olisi katsottava lisääntyvän yhdessä mallien valmiuksien ja kattavuuden kanssa, niitä voi esiintyä mallin koko elinkaaren ajan ja niihin vaikuttavat väärinkäytön olosuhteet, mallin luotettavuus, mallin oikeudenmukaisuus ja turvallisuus, mallin itsenäisyyden aste, sen saatavilla olevat välineet, uudet tai yhdistetyt yksityiskohtaiset säännöt, käyttöönotto- ja jakelustrategiat sekä mahdollisuus poistaa suojatoimet ja muut tekijät. Erityisesti kansainvälisissä lähestymistavoissa on tähän mennessä todettu tarve kiinnittää huomiota riskeihin, joita aiheuttavat mahdolliset tahalliset väärinkäytöt tai tahattomat valvontaa koskevat ongelmat, jotka liittyvät yhteensovittamiseen inhimillisen tarkoituksen kanssa; kemialliset, biologiset, säteily- ja ydinriskit, kuten tavat, joilla markkinoille pääsyn esteitä voidaan vähentää, myös aseiden kehittämisen, suunnitteluhankintojen tai käytön osalta; kyberhyökkäysvalmiuksien, kuten haavoittuvuuksien havaitsemisen, hyödyntämisen tai operatiivisen käytön, mahdollistaminen; vuorovaikutuksen ja välineiden käytön vaikutukset, mukaan lukien esimerkiksi kyky valvoa fyysisiä järjestelmiä ja häiritä kriittistä infrastruktuuria; mallien itsensä kopioimiseen tai ”itsejäljentämiseen” tai muiden mallien kouluttamiseen liittyvät riskit; tavat, joilla mallit voivat aiheuttaa haitallisia vinoutumia ja syrjintää, joihin liittyy riskejä yksilöille, yhteisöille tai yhteiskunnille; disinformaation helpottaminen tai yksityisyyden vahingoittaminen demokraattisiin arvoihin ja ihmisoikeuksiin kohdistuvilla uhkilla; sekä riski siitä, että tietty tapahtuma voi johtaa ketjureaktioon, jolla on huomattavia kielteisiä vaikutuksia, jotka voivat vaikuttaa kokonaiseen kaupunkiin, kokonaiseen kohdealueeseen tai kokonaiseen yhteisöön.
(111)
Conviene establecer una metodología para la clasificación de los modelos de IA de uso general como modelos de IA de uso general con riesgos sistémicos. Dado que los riesgos sistémicos se derivan de capacidades especialmente elevadas, debe considerarse que un modelo de IA de uso general presenta riesgos sistémicos si tiene capacidades de gran impacto —evaluadas mediante herramientas y metodologías técnicas adecuadas— o unas repercusiones considerables en el mercado interior debido a su alcance. Las capacidades de gran impacto en modelos de IA de uso general son capacidades que igualan o superan las capacidades mostradas por los modelos de IA de uso general más avanzados. La introducción en el mercado de un modelo o las interacciones de los responsables del despliegue con él permiten comprender mejor el conjunto de sus capacidades. Según el estado de la técnica en el momento de la entrada en vigor del presente Reglamento, la cantidad acumulada de cálculo utilizado para el entrenamiento del modelo de IA de uso general, medida en operaciones de coma flotante, es una de las aproximaciones pertinentes para las capacidades del modelo. La cantidad acumulada de cálculo utilizado para el entrenamiento incluye los cálculos utilizados en las distintas actividades y métodos destinados a mejorar las capacidades del modelo antes del despliegue, como el entrenamiento previo, la generación de datos sintéticos y la realización de ajustes. Por lo tanto, debe establecerse un umbral inicial de operaciones de coma flotante que, de ser alcanzado por un modelo de IA de uso general, dé lugar a la presunción de que el modelo es un modelo de IA de uso general con riesgos sistémicos. Este umbral deberá irse ajustando para reflejar los cambios tecnológicos e industriales, como las mejoras algorítmicas o el aumento de la eficiencia del hardware, y debe complementarse con parámetros de referencia e indicadores de la capacidad de los modelos. Para fundamentar esto, la Oficina de IA debe colaborar con la comunidad científica, la industria, la sociedad civil y otros expertos. Los umbrales, así como las herramientas y los parámetros de referencia para la evaluación de las capacidades de gran impacto, deben servir para predecir con fiabilidad la generalidad, las capacidades y el riesgo sistémico asociado de los modelos de IA de uso general, y podrían tener en cuenta la manera en que el modelo se introducirá en el mercado o el número de usuarios a los que podría afectar. Para complementar este sistema, la Comisión debe poder adoptar decisiones individuales por las que se designe un modelo de IA de uso general como modelo de IA de uso general con riesgo sistémico si se determina que dicho modelo tiene capacidades o repercusiones equivalentes a las reflejadas por el umbral establecido. Dicha decisión debe adoptarse atendiendo a una evaluación global de los criterios para la designación de modelos de IA de uso general con riesgo sistémico establecidos en un anexo del presente Reglamento, como la calidad o el tamaño del conjunto de datos de entrenamiento, el número de usuarios profesionales y finales, sus modalidades de entrada y de salida, su nivel de autonomía y escalabilidad o las herramientas a las que tiene acceso. Previa solicitud motivada de un proveedor cuyo modelo haya sido designado como modelo de IA de uso general con riesgo sistémico, la Comisión debe tener en cuenta la solicitud y podrá decidir reevaluar si puede seguir considerándose que el modelo de IA de uso general presenta riesgos sistémicos.
(111)
On aiheellista vahvistaa menetelmä, jolla yleiskäyttöiset tekoälymallit voidaan luokitella yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeemisiä riskejä. Koska systeemiset riskit johtuvat erityisen suurista valmiuksista, yleiskäyttöisen tekoälymallin olisi katsottava aiheuttavan systeemisiä riskejä, jos sillä on vaikutuksiltaan merkittävä suorituskyky, jota arvioidaan asianmukaisten teknisten välineiden ja menetelmien perusteella, tai sen kattavuus vaikuttaa merkittävästi sisämarkkinoihin. Yleiskäyttöisissä tekoälymalleissa vaikutuksiltaan merkittävällä suorituskyvyllä tarkoitetaan suorituskykyä, joka vastaa tai ylittää kehittyneimpiin yleiskäyttöisiin tekoälymalleihin kirjatut valmiudet. Mallin kaikki valmiudet voitaisiin tuntea paremmin sen jälkeen, kun se on saatettu markkinoille tai kun käyttöönottajat ovat vuorovaikutuksessa mallin kanssa. Tämän asetuksen voimaantuloajankohtana viimeisimmän kehityksen mukainen yleiskäyttöisen tekoälymallin kouluttamiseen käytetyn laskentatehon kumulatiivinen määrä liukulukuoperaationa mitattuna on yksi asiaankuuluvista mallin suorituskyvyn approksimaatioista. Koulutukseen käytetyn laskentatehon kumulatiivinen määrä sisältää kaikissa toimissa ja menetelmissä, joiden tarkoituksena on parantaa mallin suorituskykyä ennen käyttöönottoa, kuten esikoulutus, synteettinen datan tuottaminen ja hienosäätö, käytettyä laskentatehoa. Sen vuoksi liukulukuoperaatiolle olisi asetettava alustava kynnysarvo, ja jos yleiskäyttöinen tekoälymalli ylittää sen, voidaan olettaa, että malli on yleiskäyttöinen tekoälymalli, johon liittyy systeemisiä riskejä. Tätä kynnysarvoa olisi mukautettava ajan mittaan teknologisten ja teollisten muutosten, kuten algoritmisten parannusten tai laitteiston tehokkuuden parantamisen, huomioon ottamiseksi, ja sitä olisi täydennettävä mallin suorituskykyä koskevilla vertailuarvoilla ja indikaattoreilla. Tätä varten tekoälytoimiston olisi tehtävä yhteistyötä tiedeyhteisön, teollisuuden, kansalaisyhteiskunnan ja muiden asiantuntijoiden kanssa. Kynnysarvojen sekä vaikutuksiltaan merkittävän suorituskyvyn arvioinnissa käytettävien välineiden ja vertailuarvojen olisi indikoitava vahvasti yleiskäyttöisten tekoälymallien yleisyyttä, niiden suorituskykyä ja niihin liittyvää systeemistä riskiä, ja niissä voitaisiin ottaa huomioon tapa, jolla malli saatetaan markkinoille tai niiden käyttäjien lukumäärä, joihin se voi vaikuttaa. Järjestelmän täydentämiseksi komission olisi voitava tehdä yksittäisiä päätöksiä, joilla tietty yleiskäyttöinen tekoälymalli määritetään yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeeminen riski, jos todetaan, että mallin suorituskyky tai vaikutus on sama kuin asetetun kynnysarvon ylittävillä malleilla. Tämä päätös olisi tehtävä tämän asetuksen liitteessä vahvistettujen perusteiden, joiden mukaisesti nimetään yleiskäyttöinen tekoälymalli, johon liittyy systeeminen riski, yleisen arvioinnin perusteella. Näitä perusteita ovat koulutusdatajoukon laatu ja koko, yritys- ja loppukäyttäjien lukumäärä, mallin syöttötietojen ja tuotosten modaalisuus, sen itsenäisyyden ja skaalattavuuden aste ja sen käytettävissä olevat välineet. Komission olisi otettava huomioon sellaisen tarjoajan perusteltu pyyntö, jonka malli on nimetty yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeeminen riski, ja se voi päättää arvioida uudelleen, voidaanko yleiskäyttöiseen tekoälymalliin katsoa edelleen liittyvän systeemisiä riskejä.
(112)
También es necesario aclarar un procedimiento para la clasificación de un modelo de IA de uso general con riesgos sistémicos. Debe presumirse que un modelo de IA de uso general que alcanza el umbral aplicable para las capacidades de gran impacto es un modelo de IA de uso general con riesgo sistémico. El proveedor debe enviar una notificación a la Oficina de IA a más tardar dos semanas después de que se cumplan los requisitos o de que se sepa que un modelo de IA de uso general cumplirá los requisitos que conducen a la presunción. Esto es especialmente pertinente en relación con el umbral de operaciones de coma flotante, ya que el entrenamiento de los modelos de IA de uso general requiere una planificación considerable que incluye la asignación previa de recursos computacionales y, por tanto, los proveedores de modelos de IA de uso general pueden saber si su modelo alcanzará el umbral antes del fin del entrenamiento. En el contexto de dicha notificación, el proveedor debe poder demostrar que, debido a sus características específicas, un modelo de IA de uso general no presenta excepcionalmente riesgos sistémicos y que, por tanto, no debe clasificarse como modelo de IA de uso general con riesgos sistémicos. Esa información es valiosa para que la Oficina de IA anticipe la introducción en el mercado de modelos de IA de uso general con riesgos sistémicos y para que los proveedores pueden empezar a colaborar con la Oficina de IA en una fase temprana. Dicha información es especialmente importante cuando esté previsto divulgar un modelo de IA de uso general como modelo de código abierto, dado que, tras la divulgación de modelos de código abierto, puede resultar más difícil aplicar las medidas necesarias para garantizar el cumplimiento de las obligaciones establecidas en el presente Reglamento.
(112)
Lisäksi on aiheellista selventää menettelyä, jonka mukaisesti luokitellaan yleiskäyttöiset tekoälymallit, joihin liittyy systeeminen riski. Yleiskäyttöisen tekoälymallin, joka ylittää vaikutuksiltaan merkittävää suorituskykyä koskevan sovellettavan kynnysarvon, olisi katsottava olevan yleiskäyttöinen tekoälymalli, johon liittyy systeeminen riski. Tarjoajan olisi ilmoitettava tekoälytoimistolle, että yleiskäyttöinen tekoälymalli täyttää tähän olettamaan johtavat edellytykset, viimeistään kahden viikon kuluttua siitä, kun edellytykset täyttyvät tai kun todetaan, että ne tulevat täyttymään. Tämä koskee erityisesti liukulaskutoimitusten kynnysarvoa, sillä yleiskäyttöisten tekoälymallien koulutus on suunniteltava tarkkaan siten, että laskentaresurssit jaetaan etukäteen. Tästä syystä yleiskäyttöisten tekoälymallien tarjoajat tietävät jo ennen koulutuksen päättymistä, ylittääkö niiden tekoälymalli kynnysarvon. Ilmoituksessaan tarjoajan olisi voitava osoittaa, että yleiskäyttöiseen tekoälymalliin ei sen erityispiirteiden vuoksi poikkeuksellisesti liity systeemisiä riskejä ja että sitä ei näin ollen olisi luokiteltava systeemisen riskin yleiskäyttöiseksi tekoälymalliksi. Tämä tieto on arvokasta tekoälytoimistolle, jotta se voi ennakoida sellaisten yleiskäyttöisten tekoälymallien markkinoille saattamista, joihin liittyy systeemisiä riskejä, ja tällä tavoin tarjoajat voivat aloittaa yhteistyön tekoälytoimiston kanssa jo varhaisessa vaiheessa. Tieto on erityisen arvokasta niiden yleiskäyttöisten tekoälymallien osalta, jotka on tarkoitus julkaista avoimen lähdekoodin malleina, koska tämän asetuksen mukaisten velvoitteiden noudattamisen varmistamiseksi tarvittavat toimet voi olla vaikeampi toteuttaa avoimen lähdekoodin mallin julkaisemisen jälkeen.
(113)
Si la Comisión descubre que un modelo de IA de uso general del que no tenía conocimiento o que el proveedor pertinente no le había notificado cumple los requisitos para ser clasificado como modelo de IA de uso general con riesgo sistémico, la Comisión debe estar facultada para designarlo. Además de las actividades de supervisión de la Oficina de IA, un sistema de alertas cualificadas debe garantizar que la Oficina de IA sea informada por el grupo de expertos científicos de la existencia de modelos de IA de uso general que podrían ser clasificados como modelos de IA de uso general con riesgo sistémico.
(113)
Jos komissio saa tietoonsa, että yleiskäyttöinen tekoälymalli täyttää edellytykset, jotta se voidaan luokitella systeemisen riskin yleiskäyttöiseksi tekoälymalliksi, ja edellytysten täyttyminen ei joko ole ollut aiemmin tiedossa tai asianomainen tarjoaja ei ole ilmoittanut siitä komissiolle, komissiolle olisi annettava valtuudet nimetä malli vastaavasti. Tekoälytoimiston suorittamaa seurantaa olisi täydennettävä perusteltujen varoitusten järjestelmällä, jolla varmistetaan, että tiedelautakunta ilmoittaa tekoälytoimistolle niistä yleiskäyttöisistä tekoälymalleista, jotka olisi mahdollisesti luokiteltava yleiskäyttöisiksi tekoälymalleiksi, joihin liittyy systeeminen riski.
(114)
Los proveedores de modelos de IA de uso general que presenten riesgos sistémicos deben estar sujetos, además de a las obligaciones impuestas a los proveedores de modelos de IA de uso general, a obligaciones encaminadas a detectar y atenuar dichos riesgos y a garantizar un nivel adecuado de protección en materia de ciberseguridad, independientemente de si dichos modelos se ofrecen como modelos independientes o están integrados en sistemas de IA o en productos. Para alcanzar esos objetivos, el presente Reglamento debe exigir a los proveedores que lleven a cabo las evaluaciones de los modelos necesarias, en particular antes de la primera introducción en el mercado, y que, por ejemplo, lleven a cabo y documenten pruebas de simulación de adversarios, también, según proceda, mediante pruebas externas independientes o pruebas internas. Además, los proveedores de modelos de IA de uso general con riesgos sistémicos deben evaluar y mitigar continuamente los riesgos sistémicos, por ejemplo, mediante el establecimiento de políticas de gestión de riesgos, como procesos de rendición de cuentas y gobernanza, la puesta en práctica de la vigilancia poscomercialización, la adopción de medidas adecuadas durante todo el ciclo de vida del modelo y la cooperación con los agentes pertinentes a lo largo de la cadena de valor de la IA.
(114)
Niiden yleiskäyttöisten tekoälymallien tarjoajiin, joihin liittyy systeemisiä riskejä, olisi sovellettava yleiskäyttöisten tekoälymallien tarjoajiin sovellettavien velvoitteiden lisäksi velvoitteita, joiden tarkoituksena on määrittää ja lieventää kyseisiä riskejä ja varmistaa kyberturvallisuussuojan riittävä taso riippumatta siitä, tarjotaanko tekoälymalli erillisenä mallina vai sulautettuna tekoälyjärjestelmään tai tuotteeseen. Kyseisten tavoitteiden saavuttamiseksi tässä asetuksessa olisi edellytettävä, että tarjoajat suorittavat tarvittavat mallin arvioinnit erityisesti ennen niiden ensimmäistä markkinoille saattamista, mukaan lukien mallien adversariaalisen testauksen suorittaminen ja dokumentointi tarvittaessa myös sisäisessä tai riippumattomassa ulkoisessa testauksessa. Niiden yleiskäyttöisten tekoälymallien tarjoajien, joihin liittyy systeemisiä riskejä, olisi lisäksi arvioitava ja lievennettävä systeemisiä riskejä jatkuvasti, esimerkiksi ottamalla käyttöön riskinhallintaa koskevat toimintatavat, kuten vastuuvelvollisuus- ja hallintoprosesseja, suorittamalla markkinoille saattamisen jälkeistä seurantaa, toteuttamalla asianmukaisia toimenpiteitä mallin koko elinkaaren ajan ja tekemällä yhteistyötä tekoälyn arvoketjun asiaankuuluvien toimijoiden kanssa.
(115)
Los proveedores de modelos de IA de uso general con riesgos sistémicos deben evaluar y mitigar los posibles riesgos sistémicos. Si, a pesar de los esfuerzos por detectar y prevenir los riesgos relacionados con un modelo de IA de uso general que pueda presentar riesgos sistémicos, el desarrollo o el uso del modelo provoca un incidente grave, el proveedor del modelo de IA de uso general debe, sin demora indebida, hacer un seguimiento del incidente y comunicar toda la información pertinente y las posibles medidas correctoras a la Comisión y a las autoridades nacionales competentes. Además, los proveedores deben garantizar que el modelo y su infraestructura física, si procede, tengan un nivel adecuado de protección en materia de ciberseguridad durante todo el ciclo de vida del modelo. La protección en materia de ciberseguridad relacionada con los riesgos sistémicos asociados al uso malintencionado o a los ataques debe tener debidamente en cuenta las fugas accidentales de modelos, las divulgaciones no autorizadas, la elusión de las medidas de seguridad y la defensa contra los ciberataques, el acceso no autorizado o el robo de modelos. Esa protección podría facilitarse asegurando los pesos, los algoritmos, los servidores y los conjuntos de datos del modelo, por ejemplo, mediante medidas de seguridad operativa para la seguridad de la información, medidas específicas en materia de ciberseguridad, soluciones técnicas adecuadas y establecidas y controles de acceso cibernéticos y físicos, en función de las circunstancias pertinentes y los riesgos existentes.
(115)
Niiden yleiskäyttöisten tekoälymallien tarjoajien, joihin liittyy systeemisiä riskejä, olisi arvioitava ja lievennettävä mahdollisia systeemisiä riskejä. Jos yleiskäyttöisen tekoälymallin, johon voi liittyä systeemisiä riskejä, kehittäminen tai käyttö aiheuttaa vakavan vaaratilanteen huolimatta pyrkimyksistä tunnistaa ja ehkäistä malliin liittyviä riskejä, yleiskäyttöisen tekoälymallin tarjoajan olisi ilman aiheetonta viivytystä seurattava vaaratilannetta ja raportoitava merkityksellisistä tiedoista ja mahdollisista korjaavista toimenpiteistä komissiolle ja kansallisille toimivaltaisille viranomaisille. Tarjoajien olisi lisäksi varmistettava mallin ja tarvittaessa sen fyysisen infrastruktuurin kyberturvallisuussuojan riittävä taso mallin koko elinkaaren ajan. Kyberturvallisuussuojassa, jolla torjutaan vihamieliseen käyttöön tai hyökkäyksiin liittyviä systeemisiä riskejä, olisi otettava asianmukaisesti huomioon tahaton mallivuoto, luvattomat julkaisut, turvallisuustoimenpiteiden kiertäminen sekä suojautuminen kyberhyökkäyksiltä, luvattomalta pääsyltä tai mallivarkauksilta. Suojaamista voitaisiin helpottaa turvaamalla mallipainokertoimet, algoritmit, palvelimet ja tietokokonaisuudet esimerkiksi tietoturvaa koskevilla operatiivisilla turvallisuustoimenpiteillä, erityisillä kyberturvallisuusperiaatteilla, asianmukaisilla teknisillä ja vakiintuneilla ratkaisuilla sekä kyberkäytön ja fyysisen pääsyn valvonnalla asiaankuuluvista olosuhteista ja riskeistä riippuen.
(116)
La Oficina de IA debe fomentar y facilitar la elaboración, revisión y adaptación de códigos de buenas prácticas, teniendo en cuenta los enfoques internacionales. Podría invitarse a participar a todos los proveedores de modelos de IA de uso general. Para garantizar que los códigos de buenas prácticas reflejen el estado actual de la técnica y tengan debidamente en cuenta perspectivas distintas, la Oficina de IA debe colaborar con las autoridades nacionales competentes pertinentes y, cuando proceda, podrá consultar a organizaciones de la sociedad civil y a otras partes interesadas y expertos pertinentes, incluido el Grupo de Expertos Científicos, por lo que respecta a la elaboración de dichos códigos. Los códigos de buenas prácticas deben comprender las obligaciones de los proveedores de modelos de IA de uso general y de modelos de IA de uso general que presenten riesgos sistémicos. Además, en lo que respecta a los riesgos sistémicos, los códigos de buenas prácticas deben ayudar a establecer una taxonomía de riesgos en la que figuren el tipo y la naturaleza de los riesgos sistémicos a escala de la Unión, incluidas sus fuentes. Asimismo, los códigos de buenas prácticas deben centrarse en medidas específicas de evaluación y reducción de riesgos.
(116)
Tekoälytoimiston olisi edistettävä ja helpotettava käytännesääntöjen laatimista, tarkistamista ja mukauttamista ottaen huomioon kansainväliset toimintatavat. Kaikki yleiskäyttöisten tekoälymallien tarjoajat voitaisiin kutsua mukaan tähän toimintaan. Jotta voidaan varmistaa, että käytännesäännöt vastaavat alan viimeisintä kehitystä ja että niissä otetaan asianmukaisesti huomioon eri näkökulmat, tekoälytoimiston olisi käytännesääntöjä laatiessaan tehtävä yhteistyötä asiaankuuluvien kansallisten toimivaltaisten viranomaisten kanssa ja se voisi tarvittaessa kuulla kansalaisjärjestöjä ja muita asiaankuuluvia sidosryhmiä ja asiantuntijoita, myös tiedelautakuntaa. Käytännesääntöjen olisi katettava sekä yleiskäyttöisten tekoälymallien että yleiskäyttöisten tekoälymallien, joihin liittyy systeemisiä riskejä, tarjoajien velvollisuudet. Systeemisten riskien osalta käytännesäännöillä olisi tuettava riskiluokituksen laatimista unionin tason systeemisten riskien, myös niiden lähteiden, tyypistä ja luonteesta. Käytännesäännöissä olisi keskityttävä myös erityisiin riskinarviointi- ja lieventämistoimenpiteisiin.
(117)
Los códigos de buenas prácticas deben constituir una herramienta fundamental para el cumplimiento adecuado de las obligaciones previstas en el presente Reglamento para los proveedores de modelos de IA de uso general. Los proveedores deben poder basarse en códigos de buenas prácticas para demostrar el cumplimiento de las obligaciones. Mediante actos de ejecución, la Comisión podrá decidir aprobar un código de buenas prácticas y conferirle una validez general dentro de la Unión o, alternativamente, establecer normas comunes para la puesta en práctica de las obligaciones pertinentes si, para el momento en que el presente Reglamento sea aplicable, no ha podido finalizarse un código de buenas prácticas o la Oficina de IA no lo considera adecuado. Una vez que se haya publicado una norma armonizada y que la Oficina de IA la considere adecuada para cubrir las obligaciones pertinentes, el cumplimiento de una norma armonizada europea debe dar a los proveedores la presunción de conformidad. Además, los proveedores de modelos de IA de uso general deben poder demostrar el cumplimiento utilizando medios alternativos adecuados si no se dispone de códigos de buenas prácticas o de normas armonizadas, o si deciden no basarse en ellos.
(117)
Käytännesäännöt on tarkoitettu keskeiseksi välineeksi, jolla varmistetaan, että yleiskäyttöisten tekoälymallien tarjoajat noudattavat asianmukaisesti tässä asetuksessa säädettyjä velvoitteita. Tarjoajien olisi pystyttävä osoittamaan velvoitteiden noudattaminen käytännesääntöjen avulla. Komissio voi täytäntöönpanosäädöksillä päättää hyväksyä käytännesäännöt ja todeta ne yleisesti päteviksi unionissa tai vaihtoehtoisesti vahvistaa yhteiset säännöt asiaankuuluvien velvoitteiden täyttämiselle, jos käytännesääntöjä ei saada valmiiksi siihen mennessä, kun tämän asetuksen soveltaminen alkaa, tai jos tekoälytoimisto ei pidä niitä riittävinä. Kun tekoälytoimisto on julkaissut yhdenmukaistetun standardin ja arvioinut sen soveltuvan kattamaan asiaankuuluvat velvoitteet, tarjoajien olisi oletettava täyttävän vaatimukset sen perusteella, että ne noudattavat eurooppalaista yhdenmukaistettua standardia. Yleiskäyttöisten tekoälymallien tarjoajien olisi lisäksi voitava osoittaa vaatimustenmukaisuus asianmukaisilla vaihtoehtoisilla keinoilla, jos käytännesääntöjä tai yhdenmukaistettuja standardeja ei ole saatavilla tai tarjoajat päättävät olla käyttämättä niitä.
(118)
El presente Reglamento regula los sistemas de IA y modelos de IA imponiendo determinados requisitos y obligaciones a los agentes pertinentes del mercado que los introduzcan en el mercado, los pongan en servicio o los utilicen en la Unión, complementando así las obligaciones de los prestadores de servicios intermediarios que integren dichos sistemas o modelos en sus servicios, regulados por el Reglamento (UE) 2022/2065. En la medida en que dichos sistemas o modelos estén integrados en plataformas en línea de muy gran tamaño o en motores de búsqueda en línea de muy gran tamaño que hayan sido designados, están sujetos al marco de gestión de riesgos establecido en el Reglamento (UE) 2022/2065. Por consiguiente, debe presumirse que se han cumplido las obligaciones correspondientes del presente Reglamento a menos que surjan riesgos sistémicos significativos no cubiertos por el Reglamento (UE) 2022/2065 y se detecten en dichos modelos. En este marco, los prestadores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño están obligados a evaluar los posibles riesgos sistémicos derivados del diseño, el funcionamiento y el uso de sus servicios, incluido el modo en que el diseño de los sistemas algorítmicos utilizados en el servicio puede contribuir a dichos riesgos, así como los riesgos sistémicos derivados de posibles usos indebidos. Dichos prestadores también están obligados a adoptar las medidas de reducción de riesgos adecuadas respetando los derechos fundamentales.
(118)
Tällä asetuksella säännellään tekoälyjärjestelmiä ja tekoälymalleja asettamalla tiettyjä vaatimuksia ja velvoitteita niille markkinatoimijoille, jotka saattavat näitä järjestelmiä ja malleja markkinoille tai ottavat niitä käyttöön tai käyttävät niitä unionissa, ja näin täydennetään sellaisten välityspalvelujen tarjoajien velvoitteita, jotka sulauttavat tekoälyjärjestelmiä ja -malleja palveluihinsa, joita säännellään (EU) 2022/2065. Siltä osin kuin tällaiset järjestelmät tai mallit on sulautettu nimettyihin erittäin suuriin verkkoalustoihin tai erittäin suuriin verkossa toimiviin hakukoneisiin, niihin sovelletaan asetuksessa (EU) 2022/2065 säädettyä riskinhallintakehystä. Näin ollen olisi oletettava, että tämän asetuksen vastaavat velvoitteet täyttyvät, jollei tällaisissa malleissa ilmene ja havaita sellaisia merkittäviä systeemisiä riskejä, jotka eivät kuulu asetuksen (EU) 2022/2065 soveltamisalaan. Tässä yhteydessä erittäin suurten verkkoalustojen ja erittäin suurten verkossa toimivien hakukoneiden tarjoajat ovat velvollisia arvioimaan palvelujensa suunnittelusta, toiminnasta ja käytöstä aiheutuvia mahdollisia systeemisiä riskejä, mukaan lukien sitä, miten palvelussa käytettävien algoritmisten järjestelmien suunnittelu voi lisätä tällaisia riskejä, sekä mahdollisesta väärinkäytöstä aiheutuvia systeemisiä riskejä. Kyseiset tarjoajat ovat myös velvollisia toteuttamaan asianmukaisia lieventäviä toimenpiteitä perusoikeuksia noudattaen.
(119)
Tomando en consideración el rápido ritmo de innovación y la evolución tecnológica de los servicios digitales incluidos en el ámbito de aplicación de diferentes instrumentos del Derecho de la Unión, en particular teniendo en cuenta el uso y la percepción de sus destinatarios, los sistemas de IA sujetos al presente Reglamento pueden prestarse como servicios intermediarios, o partes de estos, en el sentido del Reglamento (UE) 2022/2065, que debe interpretarse de manera tecnológicamente neutra. Por ejemplo, los sistemas de IA pueden utilizarse para ofrecer motores de búsqueda en línea, en particular en la medida en que un sistema de IA, como un chatbot en línea, efectúe búsquedas, en principio, en todos los sitios web, incorpore a continuación los resultados a sus conocimientos existentes y utilice los conocimientos actualizados para generar una única información de salida que combine diferentes fuentes de información.
(119)
Kun otetaan huomioon unionin oikeuden eri välineiden soveltamisalaan kuuluvien digitaalisten palvelujen nopeatahtinen innovointi ja teknologinen kehitys erityisesti niiden vastaanottajien käytön ja mieltymysten näkökulmasta, tämän asetuksen soveltamisalaan kuuluvia tekoälyjärjestelmiä voidaan tarjota asetuksessa (EU) 2022/2065 tarkoitettuina välityspalveluina tai niiden osina teknologianeutraalisti tulkittuna. Tekoälyjärjestelmiä voidaan käyttää esimerkiksi verkossa toimivien hakukoneiden tarjoamiseen erityisesti siltä osin kuin tekoälyjärjestelmä, kuten verkossa toimiva asiointibotti, suorittaa hakuja periaatteessa kaikilta verkkosivustoilta, sisällyttää haun tulokset olemassa oleviin tietoihinsa ja käyttää päivitettyjä tietoja luodakseen yksittäisen tuotoksen, jossa yhdistyvät eri tietolähteet.
(120)
Además, las obligaciones impuestas a los proveedores y a los responsables del despliegue de determinados sistemas de IA en el presente Reglamento destinadas a permitir que se detecte y divulgue que los resultados de salida de dichos sistemas han sido generados o manipulados de manera artificial resultan especialmente pertinentes para facilitar la aplicación efectiva del Reglamento (UE) 2022/2065. Esto se aplica en particular a las obligaciones de los prestadores de plataformas en línea de muy gran tamaño o de motores de búsqueda en línea de muy gran tamaño de detectar y mitigar los riesgos sistémicos que pueden surgir de la divulgación de contenidos que hayan sido generados o manipulados de manera artificial, en particular el riesgo de los efectos negativos reales o previsibles sobre los procesos democráticos, el discurso cívico y los procesos electorales, también a través de la desinformación.
(120)
Tässä asetuksessa tiettyjen tekoälyjärjestelmien tarjoajille ja käyttöönottajille asetetut velvoitteet, joiden tarkoituksena on mahdollistaa sen havaitseminen, että näiden järjestelmien tuotokset ovat keinotekoisesti tuotettuja tai käsiteltyjä, ja julkistaa tämä tieto, ovat erityisen merkityksellisiä asetuksen (EU) 2022/2065 tehokkaan täytäntöönpanon helpottamisen kannalta. Tämä koskee erityisesti erittäin suurten verkkoalustojen tai erittäin suurten verkossa toimivien hakukoneiden tarjoajien velvoitteita tunnistaa ja lieventää systeemisiä riskejä, joita voi aiheutua keinotekoisesti tuotetun tai käsitellyn sisällön levittämisestä, erityisesti myös disinformaatiosta johtuva demokraattisiin prosesseihin, kansalaiskeskusteluun ja vaaliprosesseihin kohdistuvien tosiasiallisten tai ennakoitavien kielteisten vaikutusten riski.
(121)
La normalización debe desempeñar un papel fundamental para proporcionar soluciones técnicas a los proveedores para garantizar el cumplimiento del presente Reglamento, en consonancia con el estado actual de la técnica, para promover la innovación, así como la competitividad y el crecimiento en el mercado único. El cumplimiento de las normas armonizadas definidas en el artículo 2, punto 1, letra c), del Reglamento (UE) n.o 1025/2012 del Parlamento Europeo y del Consejo (41), que generalmente se espera que reflejen el estado actual de la técnica, debe ser un medio para que los proveedores demuestren la conformidad con los requisitos previstos en el presente Reglamento. Por consiguiente, debe fomentarse una representación equilibrada de los intereses de todas las partes interesadas pertinentes —en particular las pymes, las organizaciones de consumidores y las partes interesadas de los ámbitos social y medioambiental— en la elaboración de normas, de conformidad con los artículos 5 y 6 del Reglamento (UE) n.o 1025/2012. A fin de facilitar el cumplimiento, la Comisión debe emitir las peticiones de normalización sin demora indebida. Al preparar la petición de normalización, la Comisión debe consultar al foro consultivo y al Consejo de IA para recabar los conocimientos especializados pertinentes. No obstante, a falta de referencias pertinentes a las normas armonizadas, la Comisión debe poder establecer, mediante actos de ejecución y previa consulta al foro consultivo, especificaciones comunes para determinados requisitos previstos en el presente Reglamento. Las especificaciones comunes deben ser una solución alternativa excepcional para facilitar la obligación del proveedor de cumplir los requisitos del presente Reglamento cuando ninguna de las organizaciones europeas de normalización haya aceptado la petición de normalización, cuando las normas armonizadas pertinentes respondan de forma insuficiente a las preocupaciones en materia de derechos fundamentales, cuando las normas armonizadas no cumplan la petición o cuando se produzcan retrasos en la adopción de una norma armonizada adecuada. Cuando dichos retrasos en la adopción de una norma armonizada se deban a la complejidad técnica de dicha norma, la Comisión debe tenerlo en cuenta antes de considerar la posibilidad de establecer especificaciones comunes. Se anima a la Comisión a que, a la hora de elaborar especificaciones comunes, coopere con los socios internacionales y los organismos internacionales de normalización.
(121)
Standardoinnilla olisi oltava keskeinen rooli, jotta tarjoajien käyttöön saadaan teknisiä ratkaisuja, joilla voidaan varmistaa tämän asetuksen noudattaminen tekniikan viimeisimmän kehityksen mukaisesti, ja jotta voidaan edistää innovointia, kilpailukykyä ja kasvua sisämarkkinoilla. Tarjoajien olisi voitava osoittaa noudattavansa tämän asetuksen vaatimuksia noudattamalla Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 1025/2012 (41) 2 artiklan 1 kohdan c alakohdassa määriteltyjä yhdenmukaistettuja standardeja, joiden katsotaan yleensä olevan tekniikan viimeisimmän kehityksen mukaisia. Tästä syystä olisi edistettävä etujen tasapainoista edustusta ottamalla standardien laatimiseen mukaan kaikki asiaankuuluvat sidosryhmät, erityisesti pk-yritykset, kuluttajajärjestöt sekä ympäristöalan ja yhteiskunnan sidosryhmät asetuksen (EU) N:o 1025/2012 5 ja 6 artiklan mukaisesti. Vaatimusten noudattamisen helpottamiseksi komission olisi esitettävä standardointipyynnöt ilman aiheetonta viivytystä. Standardointipyyntöä valmistellessaan komission olisi kuultava neuvoa-antavaa foorumia ja tekoälyneuvostoa asiaankuuluvan asiantuntemuksen varmistamiseksi. Jos yhdenmukaistettuihin standardeihin ei kuitenkaan ole tehty asiaankuuluvia viittauksia, komission olisi voitava vahvistaa täytäntöönpanosäädöksillä neuvoa-antavaa foorumia kuultuaan tietyille tämän asetuksen mukaisille vaatimuksille yhteiset eritelmät. Yhteisten eritelmien olisi oltava poikkeuksellinen vararatkaisu, jolla helpotetaan tarjoajan velvoitetta noudattaa tämän asetuksen vaatimuksia, jos mikään eurooppalainen standardointiorganisaatio ei ole hyväksynyt standardointipyyntöä, jos asiaankuuluvat yhdenmukaistetut standardit eivät vastaa riittävällä tavalla perusoikeuksiin liittyviin huolenaiheisiin, jos yhdenmukaistetut standardit eivät ole pyynnön mukaisia tai jos asianmukaisen yhdenmukaistetun standardin hyväksymisessä on viiveitä. Jos tällainen viive yhdenmukaistetun standardin hyväksymisessä johtuu kyseisen standardin teknisestä monimutkaisuudesta, komission olisi otettava tämä huomioon ennen kuin se harkitsee yhteisten eritelmien vahvistamista. Yhteisiä eritelmiä laatiessaan komissiota kannustetaan tekemään yhteistyötä kansainvälisten kumppanien ja kansainvälisten standardointielinten kanssa.
(122)
Conviene que, sin perjuicio del uso de normas armonizadas y especificaciones comunes, se presuma que los proveedores de un sistema de IA de alto riesgo que haya sido entrenado y probado con datos que reflejan el entorno geográfico, conductual, contextual o funcional específico en el que esté previsto que se utilice el sistema de IA cumplen la medida pertinente prevista en el requisito en materia de gobernanza de datos establecido en el presente Reglamento. Sin perjuicio de los requisitos relacionados con la solidez y la precisión establecidos en el presente Reglamento, de conformidad con el artículo 54, apartado 3, del Reglamento (UE) 2019/881, debe presumirse que los sistemas de IA de alto riesgo que cuenten con una certificación o una declaración de conformidad en virtud de un esquema de certificación de la ciberseguridad con arreglo a dicho Reglamento y cuyas referencias se hayan publicado en el Diario Oficial de la Unión Europea cumplen el requisito de ciberseguridad del presente Reglamento en la medida en que el certificado de ciberseguridad o la declaración de conformidad, o partes de estos, contemplen dicho requisito. Esto se entiende sin perjuicio del carácter voluntario de dicho esquema de ciberseguridad.
(122)
On aiheellista olettaa, että sellaisen suuririskisen tekoälyjärjestelmän, joka on koulutettu ja testattu datalla, joka ilmentää erityistä maantieteellistä, käyttäytymiseen liittyvää, viitekehyksenä olevaa tai toiminnallista ympäristöä, jossa tekoälyjärjestelmää on tarkoitus käyttää, tarjoajat noudattavat tässä asetuksessa vahvistetussa datanhallintaa koskevassa vaatimuksessa säädettyä asiaankuuluvaa toimenpidettä, sanotun kuitenkaan rajoittamatta yhdenmukaistettujen standardien ja yhteisten eritelmien käyttöä. Asetuksen (EU) 2019/881 54 artiklan 3 kohdan mukaisesti niiden suuririskisten tekoälyjärjestelmien, jotka on sertifioitu tai joista on annettu vaatimustenmukaisuusilmoitus kyseisen asetuksen mukaisessa kyberturvallisuusjärjestelmässä ja joiden viitetiedot on julkaistu Euroopan unionin virallisessa lehdessä, olisi oletettava täyttävän tämän asetuksen kyberturvallisuusvaatimus siltä osin kuin kyberturvallisuussertifikaatti tai vaatimustenmukaisuusilmoitus tai niiden osat kattavat kyseisen kyberturvallisuusvaatimuksen, sanotun kuitenkaan rajoittamatta tässä asetuksessa vahvistettujen vakautta ja tarkkuutta koskevien vaatimusten soveltamista. Tällä ei rajoiteta kyseisen kyberturvallisuusjärjestelmän vapaaehtoista luonnetta.
(123)
A fin de garantizar que los sistemas de IA de alto riesgo sean altamente fiables, debe someterse a dichos sistemas a una evaluación de la conformidad antes de su introducción en el mercado o puesta en servicio.
(123)
Jotta voidaan varmistaa suuririskisten tekoälyjärjestelmien korkea luotettavuus, kyseisille järjestelmille olisi tehtävä vaatimustenmukaisuuden arviointi ennen kuin ne saatetaan markkinoille tai otetaan käyttöön.
(124)
Para reducir al mínimo la carga que deben soportar los operadores y evitar posibles duplicidades, conviene, en el caso de los sistemas de IA de alto riesgo asociados a productos regulados por la legislación de armonización de la Unión vigente basada en el nuevo marco legislativo, que la conformidad de dichos sistemas de IA con los requisitos establecidos en el presente Reglamento se evalúe en el marco de la evaluación de la conformidad ya prevista en dicha legislación. Por lo tanto, la aplicabilidad de los requisitos del presente Reglamento no debe afectar a la lógica, la metodología o la estructura general específicas de la evaluación de la conformidad prevista en los actos legislativos de armonización pertinentes de la Unión.
(124)
Jotta voidaan minimoida toimijoille aiheutuva rasite ja välttää mahdolliset päällekkäisyydet, tämän asetuksen vaatimusten mukaisuutta on asianmukaista arvioida sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka kuuluvat uuteen lainsäädäntökehykseen perustuvan, voimassa olevan unionin yhdenmukaistamislainsäädännön soveltamisalaan, osana kyseisessä lainsäädännössä jo säädettyä vaatimustenmukaisuuden arviointia. Tämän asetuksen vaatimusten sovellettavuus ei näin ollen saisi vaikuttaa asiaa koskevassa unionin yhdenmukaistamislainsäädännössä säädetyn vaatimustenmukaisuuden arvioinnin erityiseen logiikkaan, menetelmiin tai yleiseen rakenteeseen.
(125)
Dada la complejidad de los sistemas de IA de alto riesgo y los riesgos asociados a ellos, es importante desarrollar un procedimiento adecuado de evaluación de la conformidad de los sistemas de IA de alto riesgo en el que participen organismos notificados, denominado «evaluación de la conformidad de terceros». No obstante, habida cuenta de la experiencia actual de los profesionales que realizan la certificación previa a la comercialización en el campo de la seguridad de los productos y de la distinta naturaleza de los riesgos implicados, procede limitar, al menos en la fase inicial de aplicación del presente Reglamento, el alcance de las evaluaciones externas de la conformidad a los sistemas de IA de alto riesgo que no están asociados a productos. En consecuencia, el proveedor es quien, por norma general, debe llevar a cabo la evaluación de la conformidad de dichos sistemas bajo su propia responsabilidad, con la única excepción de los sistemas de IA que están destinados a utilizarse para la biometría.
(125)
Kun otetaan huomioon suuririskisten tekoälyjärjestelmien monimutkaisuus ja niihin liittyvät riskit, on tärkeää kehittää riittävä suuririskisten tekoälyjärjestelmien vaatimustenmukaisuuden arviointimenetelmä, johon ilmoitetut laitokset osallistuvat, eli ns. kolmannen osapuolen suorittama vaatimustenmukaisuuden arviointi. Kun otetaan huomioon markkinoille saattamista edeltävässä vaiheessa toimivien ammattimaisten sertifioijien tämänhetkinen kokemus tuoteturvallisuuden alalla, ja koska asiaan liittyvät riskit ovat luonteeltaan erilaisia, ainakin tämän asetuksen soveltamisen alkuvaiheessa on kuitenkin asianmukaista rajoittaa kolmannen osapuolen suorittaman vaatimustenmukaisuuden arvioinnin soveltamisalaa muiden kuin tuotteisiin liittyvien suuririskisten tekoälyjärjestelmien osalta. Sen vuoksi tarjoajan olisi pääsääntöisesti suoritettava tällaisten järjestelmien vaatimustenmukaisuuden arviointi omalla vastuullaan, lukuun ottamatta ainoastaan tekoälyjärjestelmiä, joita on tarkoitus käyttää biometriikkaan.
(126)
Para poder realizar las evaluaciones de la conformidad de terceros cuando así se les exija, las autoridades nacionales competentes deben notificar, en virtud del presente Reglamento, a los organismos notificados, siempre que cumplan una serie de requisitos, en particular en lo que respecta a su independencia, sus competencias y la ausencia de conflictos de intereses, así como requisitos adecuados de ciberseguridad. Las autoridades nacionales competentes deben enviar la notificación de dichos organismos a la Comisión y a los demás Estados miembros a través del sistema de notificación electrónica desarrollado y gestionado por la Comisión con arreglo a lo dispuesto en el artículo R23 del anexo I de la Decisión n.o 768/2008/CE.
(126)
Jotta kolmannen osapuolen suorittamat vaatimustenmukaisuuden arvioinnit voidaan tarvittaessa toteuttaa, kansallisten toimivaltaisten viranomaisten olisi ilmoitettava tämän asetuksen nojalla ilmoitetut laitokset edellyttäen, että ne täyttävät tietyt vaatimukset, jotka koskevat erityisesti riippumattomuutta, pätevyyttä ja eturistiriitojen puuttumista sekä asiaankuuluvia kyberturvallisuusvaatimuksia. Kansallisten toimivaltaisten viranomaisten olisi lähetettävä ilmoitus näistä laitoksista komissiolle ja muille jäsenvaltioille käyttäen sähköistä ilmoitusvälinettä, jonka komissio kehittää ja jota se hallinnoi päätöksen N:o 768/2008/EY liitteessä I olevan R23 artiklan nojalla.
(127)
En consonancia con los compromisos contraídos por la Unión en virtud del Acuerdo sobre Obstáculos Técnicos al Comercio, de la Organización Mundial del Comercio, es adecuado facilitar el reconocimiento mutuo de los resultados de las evaluaciones de la conformidad realizadas por organismos de evaluación de la conformidad competentes, con independencia del territorio en el que estén establecidos, siempre que dichos organismos de evaluación de la conformidad establecidos con arreglo al Derecho de un tercer país cumplan los requisitos aplicables del presente Reglamento y la Unión haya celebrado un acuerdo en ese sentido. En este contexto, la Comisión debe estudiar activamente posibles instrumentos internacionales a tal efecto y, en particular, procurar celebrar acuerdos de reconocimiento mutuo con terceros países.
(127)
Kaupan teknisistä esteistä tehtyyn Maailman kauppajärjestön sopimukseen perustuvien unionin sitoumusten mukaisesti on asianmukaista helpottaa toimivaltaisten vaatimustenmukaisuuden arviointilaitosten tuottamien vaatimustenmukaisuuden arvioinnin tulosten vastavuoroista tunnustamista riippumatta siitä, mille alueelle nämä laitokset ovat sijoittautuneet, edellyttäen että kolmannen maan lainsäädännön mukaisesti perustetut vaatimustenmukaisuuden arviointilaitokset täyttävät tämän asetuksen sovellettavat vaatimukset ja että unioni on tehnyt asiaa koskevan sopimuksen. Tässä yhteydessä komission olisi aktiivisesti tarkasteltava tätä tarkoitusta varten mahdollisia kansainvälisiä välineitä ja erityisesti pyrittävä tekemään vastavuoroista tunnustamista koskevia sopimuksia kolmansien maiden kanssa.
(128)
En consonancia con el concepto comúnmente establecido de «modificación sustancial» de los productos regulados por los actos legislativos de armonización de la Unión, conviene que, cada vez que se produzca un cambio que pueda afectar al cumplimiento del presente Reglamento por parte de un sistema de IA de alto riesgo (por ejemplo, un cambio de sistema operativo o de arquitectura de software) o cuando cambie la finalidad prevista del sistema, dicho sistema de IA se considere un sistema de IA nuevo que debe someterse a una nueva evaluación de la conformidad. Sin embargo, los cambios que se produzcan en el algoritmo y en el funcionamiento de los sistemas de IA que sigan «aprendiendo» después de su introducción en el mercado o su puesta en servicio, a saber, adaptando automáticamente el modo en que desempeñan sus funciones, no deben constituir una modificación sustancial, siempre que dichos cambios hayan sido predeterminados por el proveedor y se hayan evaluado en el momento de la evaluación de la conformidad.
(128)
Unionin yhdenmukaistamislainsäädännössä säänneltyjä tuotteita koskevan yleisesti vahvistetun merkittävän muutoksen käsitteen mukaisesti on aiheellista, että aina kun tapahtuu muutos, joka voi vaikuttaa siihen, onko suuririskinen tekoälyjärjestelmä tämän asetuksen mukainen (esimerkiksi käyttöjärjestelmän tai ohjelmistoarkkitehtuurin muutos), tai kun järjestelmän käyttötarkoitus muuttuu, kyseinen tekoälyjärjestelmä olisi katsottava uudeksi tekoälyjärjestelmäksi, jolle olisi tehtävä uusi vaatimustenmukaisuuden arviointi. Sellaisten tekoälyjärjestelmien algoritmiin ja suorituskykyyn tehtävien muutosten, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen eli mukauttavat automaattisesti tapaa, jolla toiminnot toteutetaan, ei kuitenkaan pitäisi katsoa muodostavan merkittävää muutosta edellyttäen, että tarjoaja on määritellyt kyseiset muutokset ennalta ja että ne on arvioitu vaatimustenmukaisuuden arvioinnin yhteydessä.
(129)
Los sistemas de IA de alto riesgo deben llevar el marcado CE para acreditar su conformidad con el presente Reglamento y así poder circular libremente por el mercado interior. En el caso de los sistemas de IA de alto riesgo integrados en un producto, se debe colocar un marcado CE físico, que puede complementarse con un marcado CE digital. En el caso de los sistemas de IA de alto riesgo que solo se proporcionen digitalmente, debe utilizarse un marcado CE digital. Los Estados miembros no deben crear obstáculos injustificados a la introducción en el mercado o la puesta en servicio de sistemas de IA de alto riesgo que cumplan los requisitos establecidos en el presente Reglamento y lleven el marcado CE.
(129)
Suuririskisissä tekoälyjärjestelmissä olisi oltava CE-merkintä, joka osoittaa niiden olevan tämän asetuksen mukaisia, jotta ne voivat liikkua vapaasti sisämarkkinoilla. Tuotteeseen sulautettuihin suuririskisiin tekoälyjärjestelmiin olisi kiinnitettävä fyysinen CE-merkintä, jota voidaan täydentää digitaalisella CE-merkinnällä. Digitaalisessa muodossa tarjottavissa suuririskisissä tekoälyjärjestelmissä olisi käytettävä digitaalista CE-merkintää. Jäsenvaltiot eivät saisi estää perusteettomasti sellaisten suuririskisten tekoälyjärjestelmien markkinoille saattamista tai käyttöön ottamista, jotka ovat tässä asetuksessa vahvistettujen vaatimusten mukaisia ja joissa on CE-merkintä.
(130)
En determinadas condiciones, la rápida disponibilidad de tecnologías innovadoras puede ser crucial para la salud y la seguridad de las personas, la protección del medio ambiente y la mitigación del cambio climático, y para la sociedad en su conjunto. Por consiguiente, resulta oportuno que las autoridades de vigilancia del mercado puedan autorizar, por motivos excepcionales de seguridad pública o con vistas a proteger la vida y la salud de personas físicas, el medio ambiente y activos fundamentales de la industria y de las infraestructuras, la introducción en el mercado o la puesta en servicio de sistemas de IA que no hayan sido sometidos a una evaluación de la conformidad. En situaciones debidamente justificadas previstas en el presente Reglamento, las autoridades garantes del cumplimiento del Derecho o las autoridades de protección civil podrán poner en servicio un sistema de IA de alto riesgo específico sin la autorización de la autoridad de vigilancia del mercado, siempre que se solicite la autorización durante el uso o después de este sin demora indebida.
(130)
Tietyissä olosuhteissa innovatiivisten teknologioiden nopea saatavuus voi olla ratkaisevan tärkeää ihmisten terveyden ja turvallisuuden, ympäristönsuojelun, ilmastonmuutoksen torjunnan sekä koko yhteiskunnan kannalta. Siksi on asianmukaista, että yleiseen turvallisuuteen tai luonnollisten henkilöiden elämän ja terveyden suojeluun, ympäristönsuojeluun sekä keskeisten teollisten resurssien ja infrastruktuurien suojaamiseen liittyvistä poikkeuksellisista syistä markkinavalvontaviranomaiset voisivat sallia sellaisten tekoälyjärjestelmien markkinoille saattamisen tai käyttöönoton, joille ei ole tehty vaatimustenmukaisuuden arviointia. Tässä asetuksessa säädetyissä asianmukaisesti perustelluissa tilanteissa lainvalvontaviranomaiset tai pelastuspalveluviranomaiset voivat ottaa käyttöön tietyn suuririskisen tekoälyjärjestelmän ilman markkinavalvontaviranomaisen lupaa edellyttäen, että tällainen lupa pyydetään ilman aiheetonta viivytystä tekoälyjärjestelmän käytön aikana tai sen jälkeen.
(131)
Con el objetivo de facilitar la labor de la Comisión y de los Estados miembros en el ámbito de la IA, así como de incrementar la transparencia de cara al público, debe exigirse a los proveedores de sistemas de IA de alto riesgo que no estén asociados a productos que entren dentro del ámbito de aplicación de los actos legislativos de armonización de la Unión que sean pertinentes y estén en vigor, y a los proveedores que consideren que alguno de los sistemas de IA enumerados en los casos de uso de alto riesgo en un anexo del presente Reglamento no es de alto riesgo sobre la base de una excepción que se registren y que registren información sobre sus sistemas de IA en una base de datos de la UE, de cuya creación y gestión se encargará la Comisión. Antes de utilizar tal sistema de IA enumerado en los casos de uso de alto riesgo en un anexo del presente Reglamento, los responsables del despliegue de sistemas de IA de alto riesgo que sean autoridades, órganos u organismos públicos deben registrarse en dicha base de datos y seleccionar el sistema que tengan previsto utilizar. Los demás responsables del despliegue deben poder efectuar dicho registro con carácter voluntario. Esta sección de la base de datos de la UE debe ser de acceso público y gratuito, debe ser fácil navegar por la información, y esta ha de ser comprensible y legible por máquina. La base de datos de la UE también debe ser fácil de utilizar, por ejemplo, proporcionando funcionalidades de búsqueda, también a través de palabras clave, que permitan al público en general encontrar la información que debe presentarse para el registro de los sistemas de IA de alto riesgo y relativa a los casos de uso de sistemas de IA de alto riesgo contemplados en un anexo del presente Reglamento, a la que corresponden los sistemas de IA de alto riesgo. También debe registrarse en la base de datos de la UE toda modificación sustancial de sistemas de IA de alto riesgo. En el caso de los sistemas de IA de alto riesgo en el ámbito de la garantía del cumplimiento del Derecho y de la gestión de la migración, el asilo y el control fronterizo, las obligaciones de registro deben cumplirse en una sección segura no pública de la base de datos de la UE. El acceso a esa sección debe limitarse estrictamente a la Comisión y a las autoridades de vigilancia del mercado en lo que respecta a su sección nacional de dicha base de datos. Los sistemas de IA de alto riesgo en el ámbito de las infraestructuras críticas solo deben registrarse a nivel nacional. La Comisión debe ser la responsable del tratamiento de la base de datos de la UE, de conformidad con el Reglamento (UE) 2018/1725. Con vistas a garantizar la funcionalidad plena de la base de datos de la UE una vez que esté en funcionamiento, el procedimiento para su creación debe comprender el desarrollo de especificaciones funcionales por parte de la Comisión y la redacción de un informe de auditoría independiente. Al ejercer sus funciones como responsable del tratamiento de la base de datos de la UE, la Comisión debe tener en cuenta los riesgos de ciberseguridad. Con el fin de maximizar la disponibilidad y el uso de la base de datos de la UE por parte del público, la base de datos de la UE y la información facilitada a través de ella deben cumplir los requisitos establecidos en la Directiva (UE) 2019/882.
(131)
Jotta helpotettaisiin komission ja jäsenvaltioiden työtä tekoälyn alalla ja lisättäisiin avoimuutta yleisöön nähden, muiden kuin asiaa koskevan unionin voimassa olevan yhdenmukaistamislainsäädännön soveltamisalaan kuuluviin tuotteisiin liittyvien suuririskisten tekoälyjärjestelmien tarjoajia sekä tarjoajia, jotka katsovat, että tämän asetuksen liitteessä esitetyissä suuririskisen käytön tapauksissa lueteltu suuririskinen tekoälyjärjestelmä ei ole suuririskinen poikkeuksen perusteella, olisi vaadittava rekisteröimään itsensä ja tiedot tekoälyjärjestelmästään EU:n tietokantaan, jonka komissio perustaa ja jota se hallinnoi. Ennen tämän asetuksen liitteessä esitetyissä suuririskisen käytön tapauksissa luetellun tekoälyjärjestelmän käyttöä suuririskisten tekoälyjärjestelmien käyttöönottajien, jotka ovat viranomaisia, virastoja tai elimiä, olisi rekisteröidyttävä vastaavaan tietokantaan ja valittava järjestelmä, jota ne aikovat käyttää. Muilla käyttöönottajilla olisi oltava oikeus rekisteröityä vapaaehtoisesti. EU:n tietokannan tämän osion olisi oltava julkisesti ja maksutta saatavilla, ja tietojen olisi oltava helposti selattavia, ymmärrettäviä ja koneellisesti luettavia. EU:n tietokannan olisi myös oltava käyttäjäystävällinen, ja siinä olisi esimerkiksi oltava muun muassa avainsanoihin perustuva hakutoiminto, jonka avulla yleisö voi löytää asiaankuuluvia tietoja, jotka on toimitettava suuririskisten tekoälyjärjestelmien rekisteröinnin yhteydessä, ja niiden suuririskisten tekoälyjärjestelmien käytön tapauksia koskevia tietoja, jotka sisältyvät tämän asetuksen suuririskisiä tekoälyjärjestelmiä koskevaan liitteeseen. Myös kaikki suuririskisiin tekoälyjärjestelmiin tehtävät merkittävät muutokset olisi rekisteröitävä EU:n tietokantaan. Lainvalvonnan, muuttoliikkeen hallinnan, turvapaikka-asioiden ja rajavalvonnan alan suuririskisiä tekoälyjärjestelmiä koskevat rekisteröintivelvoitteet olisi täytettävä EU:n tietokannan suojatussa ei-julkisessa osiossa. Pääsy suojattuun ei-julkiseen osioon olisi rajattava tiukasti niin, että se annetaan vain komissiolle sekä markkinavalvontaviranomaisille tietokannan kansallisen osion osalta. Kriittisen infrastruktuurin alan suuririskiset tekoälyjärjestelmät olisi rekisteröitävä ainoastaan kansallisella tasolla. Komission olisi oltava EU:n tietokannan rekisterinpitäjä asetuksen (EU) 2018/1725 mukaisesti. Jotta EU:n tietokanta olisi täysin toimintavalmis, kun se otetaan käyttöön, sen perustamismenettelyyn olisi sisällyttävä komission laatimat toiminnalliset eritelmät ja riippumaton auditointiraportti. Komission olisi otettava huomioon kyberturvallisuusriskit suorittaessaan tehtäviään EU:n tietokannan rekisterinpitäjänä. Jotta voitaisiin maksimoida EU:n tietokannan saatavuus ja käyttö yleisön keskuudessa, EU:n tietokannan ja sen kautta saataville asetettujen tietojen olisi oltava direktiivin (EU) 2019/882 vaatimusten mukaisia.
(132)
Determinados sistemas de IA destinados a interactuar con personas físicas o a generar contenidos pueden plantear riesgos específicos de suplantación o engaño, con independencia de si cumplen las condiciones para ser considerados como de alto riesgo o no. Por consiguiente, el uso de estos sistemas debe estar sujeto, en determinadas circunstancias, a obligaciones de transparencia específicas, sin perjuicio de los requisitos y las obligaciones aplicables a los sistemas de IA de alto riesgo y a excepciones específicas a fin de tener en cuenta las necesidades especiales de la garantía del cumplimiento del Derecho. En particular, es preciso comunicar a las personas físicas que están interactuando con un sistema de IA, excepto cuando resulte evidente desde el punto de vista de una persona física normalmente informada y razonablemente atenta y perspicaz, teniendo en cuenta las circunstancias y el contexto de utilización. Al aplicar dicha obligación, deben tenerse en cuenta las características de las personas físicas pertenecientes a colectivos vulnerables debido a su edad o discapacidad en la medida en que el sistema de IA esté destinado a interactuar también con dichos colectivos. Además, es preciso notificar a las personas físicas cuando estén expuestas a sistemas de IA que, mediante el tratamiento de sus datos biométricos, puedan determinar o inferir sus emociones o intenciones o incluirlas en categorías específicas. Estas categorías específicas pueden referirse a aspectos como el sexo, la edad, el color del pelo, el color de ojos, los tatuajes, los rasgos personales, el origen étnico o las preferencias e intereses personales. Esta información y estas notificaciones deben facilitarse en formatos accesibles a las personas con discapacidad.
(132)
Tietyt tekoälyjärjestelmät, jotka on tarkoitettu toimimaan vuorovaikutuksessa luonnollisten henkilöiden kanssa tai tuottamaan sisältöä, voivat aiheuttaa erityisiä toisena henkilönä esiintymiseen tai harhaanjohtamiseen liittyviä riskejä riippumatta siitä, luokitellaanko ne suuririskisiksi vai ei. Siksi näiden järjestelmien käyttöön olisi tietyissä olosuhteissa sovellettava erityisiä avoimuusvelvoitteita, sanotun kuitenkaan rajoittamatta suuririskisiä tekoälyjärjestelmiä koskevien vaatimusten ja velvoitteiden soveltamista ja lukuun ottamatta kohdennettuja poikkeuksia lainvalvonnan erityistarpeiden huomioon ottamiseksi. Luonnollisille henkilöille olisi erityisesti ilmoitettava, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ellei tämä ole ilmeistä sellaisen luonnollisen henkilön näkökulmasta, joka on suhteellisen valistunut, tarkkaavainen ja huolellinen ottaen huomioon käytön olosuhteet ja asiayhteys. Kyseistä velvoitetta täytäntöön pantaessa olisi otettava huomioon ikänsä tai vammaisuutensa vuoksi haavoittuvassa asemassa oleviin ryhmiin kuuluvien luonnollisten henkilöiden ominaisuuspiirteet siltä osin kuin tekoälyjärjestelmä on tarkoitettu vuorovaikutukseen myös kyseisten ryhmien kanssa. Lisäksi luonnollisille henkilöille olisi ilmoitettava, jos he altistuvat tekoälyjärjestelmille, jotka pystyvät tunnistamaan tai päättelemään näiden henkilöiden tunteet tai aikomukset taikka luokittelemaan heidät tiettyihin ryhmiin, kun ne käsittelevät heidän biometrisiä tietojaan. Tällaiset ryhmät voivat määräytyä esimerkiksi sukupuolen, iän, hiustenvärin, silmien värin, tatuointien, persoonallisuuspiirteiden, etnisen alkuperän, henkilökohtaisten mieltymysten ja kiinnostuksen kohteiden perusteella. Kyseiset tiedot ja ilmoitukset olisi annettava vammaisille henkilöille soveltuvassa muodossa.
(133)
Una diversidad de sistemas de IA puede generar grandes cantidades de contenidos sintéticos que para las personas cada vez es más difícil distinguir del contenido auténtico generado por seres humanos. La amplia disponibilidad y las crecientes capacidades de dichos sistemas tienen importantes repercusiones en la integridad del ecosistema de la información y en la confianza en este, haciendo surgir nuevos riesgos de desinformación y manipulación a escala, fraude, suplantación de identidad y engaño a los consumidores. En vista de estos efectos, el rápido desarrollo tecnológico y la necesidad de nuevos métodos y técnicas para asegurar la trazabilidad del origen de la información, procede exigir a los proveedores de tales sistemas que integren soluciones técnicas que permitan marcar, en un formato legible por máquina, y detectar que el resultado de salida ha sido generado o manipulado por un sistema de IA y no por un ser humano. Dichas técnicas y métodos deben ser lo suficientemente fiables, interoperables, eficaces y sólidos, en la medida en que sea técnicamente viable, teniendo en cuenta las técnicas disponibles o una combinación de dichas técnicas, como marcas de agua, identificación de metadatos, métodos criptográficos para demostrar la procedencia y la autenticidad del contenido, métodos de registro, impresiones dactilares u otras técnicas, según proceda. A la hora de aplicar esta obligación, los proveedores también deben tener en cuenta las especificidades y las limitaciones de los diferentes tipos de contenidos y los avances tecnológicos y del mercado pertinentes en ese ámbito, tal como se refleja en el estado de la técnica generalmente reconocido. Dichas técnicas y métodos pueden implantarse a nivel de sistema de IA o a nivel de modelo de IA, incluidos modelos de IA de uso general que generan contenidos, facilitando así el cumplimiento de esta obligación por parte del proveedor posterior del sistema de IA. Para garantizar la proporcionalidad, conviene prever que esta obligación de marcado no se aplique a los sistemas de IA que desempeñen una función de apoyo a la edición estándar o no alteren sustancialmente los datos de entrada facilitados por el responsable del despliegue o su semántica.
(133)
Useat eri tekoälyjärjestelmät voivat tuottaa suuria määriä synteettistä sisältöä, jota on yhä vaikeampi erottaa ihmisen tuottamasta aidosta sisällöstä. Näiden järjestelmien laaja saatavuus ja suorituskyvyn jatkuva kehittyminen vaikuttavat merkittävästi tietoekosysteemin eheyteen ja luotettavuuteen ja synnyttävät uusia riskejä, jotka liittyvät laajamittaiseen väärän tiedon levittämiseen ja tiedonmanipulointiin, petoksiin, toisena henkilönä esiintymiseen ja kuluttajien harhaanjohtamiseen. Kun otetaan huomioon nämä vaikutukset, teknologian nopea kehitys ja tarve kehittää uusia menetelmiä ja tekniikoita tiedon alkuperän jäljittämiseksi, on aiheellista edellyttää, että näiden järjestelmien tarjoajat sulauttavat niihin ratkaisuja, joilla tuotokset voidaan merkitä koneellisesti luettavassa muodossa ja joilla ne voidaan tunnistaa ihmisen sijasta tekoälyn tuottamiksi tai käsittelemiksi. Tällaisten tekniikoiden ja menetelmien olisi oltava riittävän luotettavia, yhteentoimivia, tehokkaita ja luotettavia siinä määrin kuin se on teknisesti mahdollista ottaen huomioon käytettävissä olevat tekniikat ja niiden yhdistelmät, kuten tarpeen mukaan vesileimat, metatietojen tunnistaminen, salausmenetelmät sisällön alkuperän ja aitouden osoittamiseksi, lokikirjausmenetelmät, sormenjäljet tai muut tekniikat. Tätä velvoitetta täyttäessään tarjoajien olisi lisäksi otettava huomioon eri sisältötyyppien ominaispiirteet ja rajoitukset sekä alan teknologian ja markkinoiden merkityksellinen kehitys, jota ilmentää yleisesti tunnustettu alan viimeisin kehitystaso. Nämä tekniikat ja menetelmät voidaan panna täytäntöön tekoälyjärjestelmä- tai tekoälymallitasolla, mukaan lukien sisältöä tuottavat yleiskäyttöiset tekoälymallit, mikä auttaa tekoälyjärjestelmän ketjun loppupään tarjoajia täyttämään tämän velvoitteen. Oikeasuhteisuuden säilyttämiseksi on aiheellista säätää, ettei tämän merkintävelvoitteen pitäisi kattaa tekoälyjärjestelmiä, jotka ensisijaisesti avustavat vakiomuokkaamista tai eivät olennaisesti muuta käyttöönottajan toimittamaa syöttödataa tai sen semantiikkaa.
(134)
Además de las soluciones técnicas utilizadas por los proveedores del sistema de IA, los responsables del despliegue que utilicen un sistema de IA para generar o manipular un contenido de imagen, audio o vídeo generado o manipulado por una IA que se asemeje notablemente a personas, objetos, lugares, entidades o sucesos reales y que puede inducir a una persona a pensar erróneamente que son auténticos o verídicos (ultrasuplantaciones) deben también hacer público, de manera clara y distinguible, que este contenido ha sido creado o manipulado de manera artificial etiquetando los resultados de salida generados por la IA en consecuencia e indicando su origen artificial. El cumplimiento de esta obligación de transparencia no debe interpretarse como un indicador de que la utilización del sistema de IA o de sus resultados de salida obstaculiza el derecho a la libertad de expresión y el derecho a la libertad de las artes y de las ciencias, garantizados por la Carta, en particular cuando el contenido forme parte de una obra o programa manifiestamente creativos, satíricos, artísticos, de ficción o análogos, con sujeción a unas garantías adecuadas para los derechos y libertades de terceros. En tales casos, la obligación de transparencia en relación con las ultrasuplantaciones establecida en el presente Reglamento se limita a revelar la existencia de tales contenidos generados o manipulados de una manera adecuada que no obstaculice la presentación y el disfrute de la obra, también su explotación y uso normales, al tiempo que se conservan la utilidad y la calidad de la obra. Además, también conviene prever una obligación de divulgación similar en relación con el texto generado o manipulado por una IA en la medida en que se publique con el fin de informar al público sobre asuntos de interés público, a menos que el contenido generado por la IA haya sido sometido a un proceso de revisión humana o de control editorial y que una persona física o jurídica ejerza la responsabilidad editorial de la publicación del contenido.
(134)
Tekoälyjärjestelmän tarjoajien käyttämien teknisten ratkaisujen lisäksi sellaisen tekoälyjärjestelmän käyttöönottajien, joka tuottaa tai käsittelee kuva-, ääni- tai videosisältöä, joka selvästi muistuttaa olemassa olevia henkilöitä, esineitä, paikkoja, toimijoita tai tapahtumia ja joka voi ihmisestä vaikuttaa virheellisesti aidolta tai totuudenmukaiselta (syväväärennökset), olisi ilmoitettava selkeästi ja erikseen, että kyseinen sisältö on tuotettu tai käsitelty keinotekoisesti, merkitsemällä tekoälyn tuotos vastaavasti ja ilmoittamalla sen keinotekoinen alkuperä. Tämän avoimuusvelvoitteen noudattamisen ei pitäisi myöskään tulkita merkitsevän sitä, että tekoälyjärjestelmän tai sen tuotoksen käyttö heikentää perusoikeuskirjassa taattuja oikeutta sananvapauteen ja oikeutta taiteen ja tutkimuksen vapauteen, erityisesti jos sisältö on osa selvästi luovaa, satiirista, taiteellista, fiktiivistä tai vastaavaa teosta tai ohjelmaa, edellyttäen että kolmansien osapuolten oikeudet ja vapaudet turvataan asianmukaisesti. Näissä tapauksissa tässä asetuksessa vahvistettu syväväärennöksiä koskeva avoimuusvelvoite rajoittuu tällaisesta tuotetusta tai käsitellystä sisällöstä ilmoittamiseen asianmukaisesti tavalla, joka ei haittaa teoksen esittämistä tai sen käyttöä, mukaan lukien sen tavanomainen hyödyntäminen ja käyttö, säilyttäen samalla teoksen hyödyllisyys ja laatu. Lisäksi on aiheellista harkita vastaavan ilmoitusvelvollisuuden käyttöönottoa tekoälyn tuottaman tai käsittelemän tekstin osalta siltä osin kuin sen julkaisemisen tarkoituksena on tiedottaa yleisölle yleistä etua koskevista asioista, paitsi jos tekoälyn tuottama sisältö on läpikäynyt ihmisen suorittaman arviointiprosessin tai toimituksellisen valvonnan ja luonnollisella henkilöllä tai oikeushenkilöllä on toimituksellinen vastuu sisällön julkaisemisesta.
(135)
Sin perjuicio del carácter obligatorio y de la plena aplicabilidad de las obligaciones de transparencia, la Comisión podrá también fomentar y facilitar la elaboración de códigos de buenas prácticas a escala de la Unión, a fin de facilitar la aplicación eficaz de las obligaciones en materia de detección y etiquetado de contenidos generados o manipulados de manera artificial, también para apoyar disposiciones prácticas para que, según proceda, los mecanismos de detección sean accesibles y facilitar la cooperación con otros agentes de la cadena de valor, difundiendo los contenidos o comprobando su autenticidad y procedencia, a fin de que el público pueda distinguir efectivamente los contenidos generados por IA.
(135)
Komissio voi myös kannustaa ja helpottaa käytännesääntöjen laatimista unionin tasolla, jotta voidaan edistää keinotekoisesti tuotetun tai käsitellyn sisällön havaitsemista ja merkitsemistä koskevien velvoitteiden tehokasta täytäntöönpanoa, myös tukea käytännön järjestelyjä, joilla tapauksen mukaan tuodaan havaitsemismekanismit saataville ja helpotetaan yhteistyötä muiden arvoketjun toimijoiden kanssa, levitetään sisältöä tai tarkistetaan sen aitous ja alkuperä, jotta yleisö voi tehokkaasti erottaa tekoälyn tuottaman sisällön muusta sisällöstä, sanotun kuitenkaan vaikuttamatta avoimuusvelvoitteiden pakolliseen luonteeseen ja täyteen sovellettavuuteen.
(136)
Las obligaciones impuestas a los proveedores y a los responsables del despliegue de determinados sistemas de IA en el presente Reglamento destinadas a permitir que se detecte y divulgue que los resultados de salida de dichos sistemas han sido generados o manipulados de manera artificial resultan especialmente pertinentes para facilitar la aplicación efectiva del Reglamento (UE) 2022/2065. Esto se aplica en particular en lo referente a las obligaciones de los prestadores de plataformas en línea de muy gran tamaño o de motores de búsqueda en línea de muy gran tamaño para detectar y mitigar los riesgos sistémicos que pueden surgir de la divulgación de contenidos que hayan sido generados o manipulados de manera artificial, en particular el riesgo de los efectos negativos reales o previsibles sobre los procesos democráticos, el discurso cívico y los procesos electorales, como a través de la desinformación. La exigencia de etiquetar los contenidos generados por sistemas de IA con arreglo al presente Reglamento se entiende sin perjuicio de la obligación prevista en el artículo 16, apartado 6, del Reglamento (UE) 2022/2065 para los prestadores de servicios de alojamiento de datos de tratar las notificaciones que reciban sobre contenidos ilícitos en virtud del artículo 16, apartado 1, de dicho Reglamento, y no debe influir en la evaluación y la decisión sobre el carácter ilícito del contenido de que se trate. Dicha evaluación debe realizarse únicamente con referencia a las normas que rigen la legalidad del contenido.
(136)
Tässä asetuksessa asetetaan tiettyjen tekoälyjärjestelmien tarjoajille ja käyttöönottajille velvoitteita, joiden tarkoituksena on havaita, että näiden järjestelmien tuotokset ovat keinotekoisesti tuotettuja tai käsiteltyjä, ja julkistaa tämä tieto. Nämä velvoitteet ovat erityisen merkityksellisiä asetuksen (EU) 2022/2065 tehokkaan täytäntöönpanon helpottamisen kannalta. Tämä koskee erityisesti erittäin suurten verkkoalustojen tai erittäin suurten verkossa toimivien hakukoneiden tarjoajien velvoitteita tunnistaa ja lieventää systeemisiä riskejä, joita voi aiheutua keinotekoisesti tuotetun tai käsitellyn sisällön levittämisestä, erityisesti myös disinformaatiosta johtuva demokraattisiin prosesseihin, kansalaiskeskusteluun ja vaaliprosesseihin kohdistuvien tosiasiallisten tai ennakoitavien kielteisten vaikutusten riski. Tämän asetuksen mukainen vaatimus merkitä tekoälyjärjestelmien tuottama sisältö ei rajoita asetuksen (EU) 2022/2065 16 artiklan 6 kohdassa säädettyä säilytyspalvelujen tarjoajien velvoitetta käsitellä kyseisen asetuksen 16 artiklan 1 kohdan mukaisesti saamansa ilmoituksia laittomasta sisällöstä, eikä sen pitäisi vaikuttaa tietyn sisällön laittomuudesta tehtävään arviointiin tai päätökseen. Kyseinen arviointi olisi tehtävä yksinomaan sisällön laillisuutta koskevien sääntöjen perusteella.
(137)
El cumplimiento de las obligaciones de transparencia aplicables a los sistemas de IA que entran en el ámbito de aplicación del presente Reglamento no debe interpretarse como un indicador de que la utilización del sistema de IA o de sus resultados de salida es lícito en virtud del presente Reglamento o de otras disposiciones del Derecho de la Unión y de los Estados miembros, y debe entenderse sin perjuicio de otras obligaciones de transparencia aplicables a los responsables del despliegue de sistemas de IA establecidas en el Derecho de la Unión o nacional.
(137)
Tämän asetuksen kattamien tekoälyjärjestelmien avoimuusvelvoitteiden noudattamisen ei saisi tulkita merkitsevän sitä, että tekoälyjärjestelmän tai sen tuotoksen käyttö on lainmukaista tämän asetuksen tai muun unionin ja jäsenvaltioiden lainsäädännön nojalla, eikä se saisi rajoittaa muiden unionin tai jäsenvaltioiden lainsäädännössä säädettyjen tekoälyjärjestelmien käyttöönottajia koskevien avoimuusvelvoitteiden soveltamista.
(138)
La IA es una familia de tecnologías de rápida evolución que requiere vigilancia regulatoria y un espacio seguro y controlado para la experimentación, así como que se garantice la innovación responsable y la integración de salvaguardias éticas y medidas de reducción de riesgos adecuadas. Para conseguir un marco jurídico que promueva la innovación, resista el paso del tiempo y sea resiliente a las perturbaciones, los Estados miembros deben velar por que sus autoridades nacionales competentes establezcan al menos un espacio controlado de pruebas para la IA a escala nacional que facilite el desarrollo y la prueba de sistemas de IA innovadores bajo una estricta vigilancia regulatoria antes de su introducción en el mercado o puesta en servicio. Los Estados miembros también podrían cumplir esta obligación participando en los espacios controlados de pruebas ya existentes o estableciendo un espacio de pruebas conjuntamente con las autoridades competentes de uno o varios Estados miembros, en la medida en que dicha participación proporcione un nivel de cobertura nacional equivalente para los Estados miembros participantes. Los espacios controlados de pruebas para la IA podrían establecerse de forma física, digital o híbrida y podrán albergar productos tanto físicos como digitales. Las autoridades que los creen deben también garantizar que los espacios controlados de pruebas para la IA dispongan de recursos adecuados para su funcionamiento, incluidos recursos financieros y humanos.
(138)
Tekoäly on nopeasti kehittyvä teknologiakokonaisuus, joka edellyttää viranomaisvalvontaa sekä turvallista ja valvottua tilaa kokeiluille samalla kun varmistetaan vastuullinen innovointi ja asianmukaisten takeiden ja riskinvähentämistoimenpiteiden integrointi. Jotta voidaan varmistaa innovointia edistävä, tulevaisuuden vaatimukset huomioon ottava ja häiriönsietokykyinen oikeudellinen kehys, jäsenvaltioiden olisi varmistettava, että niiden toimivaltaiset kansalliset viranomaiset perustavat ainakin yhden tekoälyn sääntelyn kansallisen tason testiympäristön, jolla helpotetaan innovatiivisten tekoälyjärjestelmien kehittämistä ja testausta tiukassa viranomaisvalvonnassa, ennen kuin nämä järjestelmät saatetaan markkinoille tai otetaan muulla tavoin käyttöön. Jäsenvaltiot voisivat täyttää tämän velvoitteen myös osallistumalla jo olemassa oleviin sääntelyn testiympäristöihin tai perustamalla testiympäristön yhdessä yhden tai useamman jäsenvaltion toimivaltaisten viranomaisten kanssa, jos osallistuminen tarjoaa osallistuville jäsenvaltioille vastaavan kansallisen kattavuuden. Tekoälyn sääntelyn testiympäristöjä voitaisiin perustaa fyysisessä, digitaalisessa tai hybridimuodossa, ja niissä voitaisiin testata sekä fyysisiä että digitaalisia tuotteita. Perustajaviranomaisten olisi myös varmistettava, että tekoälyn sääntelyn testiympäristöillä on toimintansa edellyttämät riittävät resurssit, mukaan lukien taloudelliset ja henkilöresurssit.
(139)
Los espacios controlados de pruebas para la IA deben tener los objetivos de impulsar la innovación en el ámbito de la IA estableciendo un entorno de experimentación y prueba controlado en la fase de desarrollo y previa a la comercialización, con vistas a garantizar que los sistemas de IA innovadores cumplan lo dispuesto en el presente Reglamento y en otras disposiciones pertinentes del Derecho de la Unión y nacional. Además, los espacios controlados de pruebas para la IA deben tener por objeto mejorar la seguridad jurídica de que gozan los innovadores y favorecer la vigilancia de las autoridades competentes y su entendimiento de las oportunidades, los riesgos emergentes y las consecuencias del uso de la IA, de facilitar el aprendizaje normativo de las autoridades y empresas, también con vistas a futuras adaptaciones del marco jurídico, de apoyar la cooperación y el intercambio de mejores prácticas con las autoridades que intervienen en el espacio controlado de pruebas y de acelerar el acceso a los mercados, también eliminando los obstáculos para las pequeñas y medianas empresas, incluidas las empresas emergentes. Los espacios controlados de pruebas para la IA deben estar ampliamente disponibles en toda la Unión y debe prestarse especial atención a que sean accesibles para las pymes, incluidas las empresas emergentes. La participación en el espacio controlado de pruebas para la IA debe centrarse en cuestiones que generen inseguridad jurídica y que, por lo tanto, dificulten que los proveedores y los proveedores potenciales innoven y experimenten con la IA en la Unión y contribuir a un aprendizaje normativo basado en datos contrastados. Por consiguiente, la supervisión de los sistemas de IA en el espacio controlado de pruebas para la IA debe comprender su desarrollo, entrenamiento, prueba y validación antes de su introducción en el mercado o puesta en servicio, así como el concepto de «modificación sustancial» y su materialización, que puede hacer necesario un nuevo procedimiento de evaluación de la conformidad. Cualquier riesgo significativo detectado durante el proceso de desarrollo y prueba de estos sistemas de IA debe dar lugar a la adopción de medidas de reducción adecuadas y, en su defecto, a la suspensión del proceso de desarrollo y prueba. Cuando proceda, las autoridades nacionales competentes que establezcan espacios controlados de pruebas para la IA deben cooperar con otras autoridades pertinentes, incluidas las que supervisan la protección de los derechos fundamentales, y pueden dar cabida a otros agentes del ecosistema de la IA, como organizaciones de normalización nacionales o europeas, organismos notificados, instalaciones de ensayo y experimentación, laboratorios de investigación y experimentación, centros europeos de innovación digital y organizaciones de partes interesadas y de la sociedad civil pertinentes. Para garantizar una aplicación uniforme en toda la Unión y conseguir economías de escala, resulta oportuno establecer normas comunes para la creación de espacios controlados de pruebas para la IA, así como un marco para la cooperación entre las autoridades pertinentes implicadas en la supervisión de dichos espacios. Los espacios controlados de pruebas para la IA establecidos en virtud del presente Reglamento deben entenderse sin perjuicio de otros actos legislativos que permitan el establecimiento de otros espacios controlados de pruebas encaminados a garantizar el cumplimiento de actos legislativos distintos del presente Reglamento. Cuando proceda, las autoridades competentes pertinentes encargadas de esos otros espacios controlados de pruebas deben ponderar las ventajas de utilizarlos también con el fin de garantizar el cumplimiento del presente Reglamento por parte de los sistemas de IA. Previo acuerdo entre las autoridades nacionales competentes y los participantes en el espacio controlado de pruebas para la IA, las pruebas en condiciones reales también podrán gestionarse y supervisarse en el marco del espacio controlado de pruebas para la IA.
(139)
Tekoälyn sääntelyn testiympäristöjen tavoitteena olisi oltava edistää tekoälyyn liittyvää innovointia luomalla hallittu kokeilu- ja testausympäristö kehitysvaiheessa ja markkinoille saattamista edeltävässä vaiheessa, jotta voidaan varmistaa, että innovatiiviset tekoälyjärjestelmät ovat tämän asetuksen ja muun asiaankuuluvan unionin ja jäsenvaltioiden lainsäädännön mukaisia. Lisäksi tekoälyn sääntelyn testiympäristöillä olisi pyrittävä parantamaan innovoijien oikeusvarmuutta ja toimivaltaisten viranomaisten valvontaa sekä ymmärrystä tekoälyn käytön mahdollisuuksista, kehittyvistä riskeistä ja vaikutuksista, helpotettava viranomaisten ja yritysten sääntelyyn liittyvää oppimista, myös oikeudellisen kehyksen tulevia mukautuksia silmällä pitäen, tuettava yhteistyötä ja parhaiden käytäntöjen jakamista tekoälyn sääntelyn testiympäristöön osallistuvien viranomaisten kanssa sekä nopeutettava markkinoille pääsyä muun muassa poistamalla esteitä pk-yrityksiltä, myös startup-yrityksiltä. Tekoälyn sääntelyn testiympäristöjä olisi oltava laajalti käytettävissä kaikkialla unionissa, ja erityistä huomiota olisi kiinnitettävä siihen, että ne ovat pk-yritysten, myös startup-yritysten, saatavilla. Tekoälyn sääntelyn testiympäristöön osallistumisessa olisi painotettava kysymyksiä, jotka aiheuttavat tarjoajille ja mahdollisille tarjoajille oikeudellista epävarmuutta, joka liittyy innovointiin, tekoälyn kokeiluun unionissa ja näyttöön perustuvan sääntelyyn liittyvän oppimisen edistämiseen. Tekoälyjärjestelmien valvonnan tekoälyn sääntelyn testiympäristössä olisi näin ollen katettava järjestelmien kehittäminen, koulutus, testaus ja validointi ennen kuin ne saatetaan markkinoille tai otetaan käyttöön sekä sellaisen merkittävän muutoksen käsite ja esiintyminen, joka saattaa edellyttää uutta vaatimustenmukaisuuden arviointia. Tällaisten tekoälyjärjestelmien kehittämisen ja testauksen aikana havaittuja merkittäviä riskejä olisi vähennettävä asianmukaisesti, ja jos se ei ole mahdollista, kehittämis- ja testausprosessi olisi keskeytettävä. Tekoälyn sääntelyn testiympäristöjä perustavien kansallisten toimivaltaisten viranomaisten olisi tarvittaessa tehtävä yhteistyötä muiden asiaankuuluvien viranomaisten kanssa, mukaan lukien perusoikeuksien suojelua valvovat viranomaiset, ja ne voisivat sallia myös muiden toimijoiden, joita voisivat olla kansalliset ja eurooppalaiset standardointijärjestöt, ilmoitetut laitokset, testaus- ja kokeilulaitokset, tutkimus- ja kokeilulaboratoriot, eurooppalaiset digitaali-innovointikeskittymät ja asiaankuuluvat sidosryhmien ja kansalaisyhteiskunnan organisaatiot, osallistumisen tekoälyekosysteemiin. Yhdenmukaisen täytäntöönpanon varmistamiseksi koko unionissa ja mittakaavaetujen saavuttamiseksi on aiheellista vahvistaa yhteiset säännöt tekoälyn sääntelyn testiympäristöjen toteuttamiselle ja puitteet testiympäristöjen valvontaan osallistuvien asiaankuuluvien viranomaisten väliselle yhteistyölle. Tämän asetuksen nojalla perustetuilla tekoälyn sääntelyn testiympäristöillä ei saisi rajoittaa muun sellaisen lainsäädännön soveltamista, jonka nojalla voidaan perustaa testiympäristöjä, joiden tavoitteena on varmistaa muun lainsäädännön kuin tämän asetuksen noudattaminen. Kyseisistä muista sääntelyn testiympäristöistä vastaavien asiaankuuluvien toimivaltaisten viranomaisten olisi tarvittaessa otettava huomioon hyödyt, joita saadaan myös näiden testiympäristöjen käyttämisestä sen varmistamiseen, että tekoälyjärjestelmät ovat tämän asetuksen mukaisia. Kansallisten toimivaltaisten viranomaisten ja tekoälyn sääntelyn testiympäristöön osallistujien niin sopiessa tosielämän olosuhteissa tapahtuvaa testausta voidaan toteuttaa ja valvoa myös tekoälyn sääntelyn testiympäristön kehyksessä.
(140)
El presente Reglamento debe proporcionar la base jurídica para que los proveedores y los proveedores potenciales en el espacio controlado de pruebas para la IA utilicen datos personales recabados para otros fines para desarrollar determinados sistemas de IA en favor del interés público en el espacio controlado de pruebas para la IA, únicamente en determinadas condiciones, de conformidad con el artículo 6, apartado 4, y el artículo 9, apartado 2, letra g), del Reglamento (UE) 2016/679 y los artículos 5, 6 y 10 del Reglamento (UE) 2018/1725, y sin perjuicio de lo dispuesto en el artículo 4, apartado 2, y el artículo 10 de la Directiva (UE) 2016/680. Siguen siendo aplicables las demás obligaciones de los responsables del tratamiento y los derechos de los interesados en virtud del Reglamento (UE) 2016/679, el Reglamento (UE) 2018/1725 y la Directiva (UE) 2016/680. En particular, el presente Reglamento no debe ofrecer una base jurídica en el sentido del artículo 22, apartado 2, letra b), del Reglamento (UE) 2016/679 y del artículo 24, apartado 2, letra b), del Reglamento (UE) 2018/1725. Los proveedores y los proveedores potenciales en el espacio controlado de pruebas para la IA deben proporcionar las garantías adecuadas y cooperar con las autoridades competentes, también siguiendo sus indicaciones y actuando con rapidez y de buena fe para mitigar adecuadamente cualquier riesgo considerable para la seguridad, la salud y los derechos fundamentales que se detecte y pueda surgir durante el desarrollo, las pruebas y la experimentación en dicho espacio.
(140)
Tämän asetuksen olisi muodostettava oikeusperusta tekoälyn sääntelyn testiympäristöön osallistuvia tarjoajia ja mahdollisia tarjoajia varten, jotta ne voivat käyttää muihin tarkoituksiin kerättyjä henkilötietoja tiettyjen yleisen edun mukaisten tekoälyjärjestelmien kehittämiseen tekoälyn sääntelyn testiympäristössä ainoastaan tietyin edellytyksin, asetuksen (EU) 2016/679 6 artiklan 4 kohdan ja 9 artiklan 2 kohdan g alakohdan ja asetuksen (EU) 2018/1725 5, 6 ja 10 artiklan mukaisesti ja rajoittamatta direktiivin (EU) 2016/680 4 artiklan 2 kohdan ja 10 artiklan soveltamista. Kaikkia muita asetusten (EU) 2016/679 ja (EU) 2018/1725 ja direktiivin (EU) 2016/680 mukaisia rekisterinpitäjien velvoitteita ja rekisteröityjen oikeuksia sovelletaan edelleen. Erityisesti on huomattava, ettei tämän asetuksen ole tarkoitus muodostaa asetuksen (EU) 2016/679 22 artiklan 2 kohdan b alakohdassa ja asetuksen (EU) 2018/1725 24 artiklan 2 kohdan b alakohdassa tarkoitettua oikeusperustaa. Tekoälyn sääntelyn testiympäristöön osallistuvien tarjoajien ja mahdollisten tarjoajien olisi varmistettava asianmukaiset takeet ja tehtävä yhteistyötä toimivaltaisten viranomaisten kanssa muun muassa noudattamalla niiden ohjeita ja toimimalla nopeasti ja vilpittömästi lieventääkseen asianmukaisesti mahdollisia havaittuja turvallisuuteen, terveyteen ja perusoikeuksiin kohdistuvia merkittäviä riskejä, joita voi syntyä kyseisessä testiympäristössä tapahtuvan kehittämisen, testauksen ja kokeilun aikana.
(141)
A fin de acelerar el proceso de desarrollo e introducción en el mercado de los sistemas de IA de alto riesgo enumerados en un anexo del presente Reglamento, es importante que los proveedores o proveedores potenciales de dichos sistemas también puedan beneficiarse de un régimen específico para probar dichos sistemas en condiciones reales, sin participar en un espacio controlado de pruebas para la IA. No obstante, en tales casos, teniendo en cuenta las posibles consecuencias de dichas pruebas para las personas físicas, debe garantizarse que el Reglamento establezca garantías y condiciones adecuadas y suficientes para los proveedores o proveedores potenciales. Estas garantías deben incluir, entre otras cosas, la solicitud del consentimiento informado de las personas físicas para participar en pruebas en condiciones reales, salvo en lo que respecta a la garantía del cumplimiento del Derecho cuando intentar obtener el consentimiento informado impediría que se probara el sistema de IA. El consentimiento de los sujetos para participar en tales pruebas en virtud del presente Reglamento es distinto del consentimiento de los interesados para el tratamiento de sus datos personales con arreglo al Derecho pertinente en materia de protección de datos y se entiende sin perjuicio de este. También es importante reducir al mínimo los riesgos y permitir la supervisión por parte de las autoridades competentes y, por tanto, exigir a los proveedores potenciales que presenten a la autoridad de vigilancia del mercado competente un plan de la prueba en condiciones reales, registren la prueba en las secciones específicas de la base de datos de la UE, sin perjuicio de algunas excepciones limitadas, establezcan limitaciones sobre el período durante el que puede llevarse a cabo la prueba y exijan garantías adicionales para las personas pertenecientes a determinados colectivos vulnerables, así como un acuerdo por escrito que defina las funciones y responsabilidades de los proveedores potenciales y de los responsables del despliegue y una supervisión eficaz por parte de personal competente que intervenga en la prueba en condiciones reales. Además, conviene prever garantías adicionales para asegurarse de que sea posible revertir efectivamente y descartar las predicciones, recomendaciones o decisiones del sistema de IA y de que los datos personales se protejan y se supriman cuando los sujetos retiren su consentimiento a participar en la prueba, sin perjuicio de sus derechos como interesados en virtud del Derecho de la Unión en materia de protección de datos. Por lo que respecta a la transferencia de datos, conviene también prever que los datos recopilados y tratados a efectos de las pruebas en condiciones reales solo deben transferirse a terceros países cuando existan garantías adecuadas y aplicables con arreglo al Derecho de la Unión, en particular, de conformidad con las bases para la transferencia de datos personales previstas en el Derecho de la Unión en materia de protección de datos y, en lo referente a los datos no personales, existan garantías adecuadas con arreglo al Derecho de la Unión, como los Reglamentos (UE) 2022/868 (42) y (UE) 2023/2854 (43) del Parlamento Europeo y del Consejo.
(141)
Jotta voidaan nopeuttaa tämän asetuksen liitteessä lueteltujen suuririskisten tekoälyjärjestelmien kehittämis- ja markkinoille saattamisprosessia, on tärkeää, että tällaisten järjestelmien tarjoajat tai mahdolliset tarjoajat voivat hyötyä myös erityisestä järjestelystä, jossa ne voivat testata näitä järjestelmiä todellisissa olosuhteissa osallistumatta tekoälyn sääntelyn testiympäristöön. Tällaisissa tapauksissa, ottaen huomioon tällaisen testauksen mahdolliset vaikutukset henkilöihin, olisi kuitenkin varmistettava, että tällä asetuksella otetaan käyttöön tarjoajia tai mahdollisia tarjoajia koskevat asianmukaiset ja riittävät takeet ja edellytykset. Näihin takeisiin olisi sisällyttävä muun muassa tietoon perustuvan suostumuksen pyytäminen luonnollisilta henkilöiltä tosielämän olosuhteissa tapahtuvaan testaukseen osallistumiseksi, lukuun ottamatta lainvalvontaa, jossa tietoon perustuvan suostumuksen pyytäminen estäisi tekoälyjärjestelmän testaamisen. Osallistujien antama suostumus tällaiseen testaukseen osallistumisesta tämän asetuksen nojalla on eri kuin rekisteröityjen antama suostumus henkilötietojensa käsittelyyn asiaankuuluvan tietosuojalain nojalla eikä se vaikuta viimeksi mainittuun suostumukseen. Lisäksi on tärkeää minimoida riskit ja mahdollistaa toimivaltaisten viranomaisten suorittama valvonta. Tästä syystä on vaadittava, että mahdolliset tarjoajat toimittavat toimivaltaiselle markkinavalvontaviranomaiselle suunnitelman todellisissa olosuhteissa toteutettavasta testauksesta, rekisteröivät testauksen EU:n tietokannan asiaankuuluviin osioihin joitakin rajoitettuja poikkeuksia lukuun ottamatta, rajaavat ajanjakson, jonka kuluessa testaus voidaan suorittaa, ja edellyttävät lisätakeita sellaisten henkilöiden osalta, jotka kuuluvat tiettyyn haavoittuvassa asemassa olevaan ryhmään, ja kirjallisen sopimuksen, jossa määritellään mahdollisten tarjoajien ja käyttöönottajien tehtävät ja vastuut ja todellisissa olosuhteissa toteutettavaan testaukseen osallistuvan pätevän henkilöstön suorittama valvonta. Lisäksi on aiheellista säätää lisätakeista sen varmistamiseksi, että tekoälyjärjestelmän ennusteet, suositukset ja päätökset voidaan tosiasiallisesti peruuttaa ja jättää huomiotta ja että henkilötiedot suojataan ja että ne poistetaan, kun osallistujat ovat peruuttaneet suostumuksensa testaukseen osallistumisesta, sanotun kuitenkaan rajoittamatta heille unionin tietosuojalainsäädännön mukaisesti rekisteröityinä kuuluvia oikeuksia. Tiedonsiirron osalta on aiheellista säätää, että todellisissa olosuhteissa tapahtuvaa testausta varten kerättyjä ja käsiteltyjä tietoja olisi siirrettävä kolmansiin maihin vain, jos siirrossa noudatetaan unionin oikeuden mukaisesti sovellettavia asianmukaisia takeita, erityisesti unionin tietosuojalainsäädännön mukaisten henkilötietojen siirtoa koskevien perustojen mukaisesti, kun taas muiden kuin henkilötietojen osalta on otettava käyttöön asianmukaiset takeet unionin oikeuden, kuten Euroopan parlamentin ja neuvoston asetusten (EU) 2022/868 (42) ja (EU) 2023/2854 (43), mukaisesti.
(142)
A fin de garantizar que la IA conduzca a resultados positivos desde el punto de vista social y medioambiental, se anima a los Estados miembros a que respalden y promuevan la investigación y el desarrollo de soluciones de IA en apoyo a tales resultados, como soluciones basadas en la IA para aumentar la accesibilidad para las personas con discapacidad, atajar desigualdades socioeconómicas o cumplir los objetivos en materia de medio ambiente, asignando recursos suficientes, incluidos fondos públicos y de la Unión, y, cuando proceda y siempre que se cumplan los criterios de admisibilidad y selección, teniendo en consideración especialmente proyectos que persigan tales objetivos. Dichos proyectos deben basarse en el principio de cooperación interdisciplinaria entre desarrolladores de IA, expertos en desigualdad y no discriminación, en accesibilidad y en derechos del consumidor, medioambientales y digitales, así como representantes del mundo académico.
(142)
Jotta voidaan varmistaa, että tekoälyn käyttö johtaa yhteiskunnan ja ympäristön kannalta suotuisiin tuloksiin, jäsenvaltioita kannustetaan tukemaan ja edistämään sellaisten tekoälyratkaisujen tutkimusta ja kehittämistä, joilla tuetaan yhteiskunnan ja ympäristön kannalta suotuisia tuloksia, kuten tekoälypohjaisia ratkaisuja, joilla parannetaan esteettömyyttä vammaisten henkilöiden kannalta, vähennetään sosiaalis-taloudellista eriarvoisuutta tai saavutetaan ympäristötavoitteita, osoittamalla siihen riittävästi resursseja, myös julkista ja unionin rahoitusta, ja ottamalla tässä yhteydessä huomioon erityisesti tällaisiin tavoitteisiin pyrkivät hankkeet, jos se on asianmukaista ja edellyttäen, että ne täyttävät kelpoisuusvaatimukset ja valintaperusteet. Tällaisten hankkeiden olisi perustuttava tekoälyn kehittäjien ja eriarvoisuuteen, syrjimättömyyteen, saavutettavuuteen, kuluttaja-asioihin, ympäristöön ja digitaalisiin oikeuksiin perehtyneiden asiantuntijoiden sekä tiedeyhteisön välisen poikkitieteellisen yhteistyön periaatteeseen.
(143)
Para promover y proteger la innovación, es importante tener en particular consideración los intereses de las pymes, incluidas las empresas emergentes, que sean proveedores o responsables del despliegue de sistemas de IA. A tal fin, los Estados miembros deben desarrollar iniciativas en materia de concienciación y comunicación de información, entre otros aspectos, dirigidas a dichos operadores. Los Estados miembros deben proporcionar a las pymes, incluidas las empresas emergentes, que tengan un domicilio social o una sucursal en la Unión, un acceso prioritario a los espacios controlados de pruebas para la IA, siempre que cumplan las condiciones de admisibilidad y los criterios de selección y sin impedir que otros proveedores y proveedores potenciales accedan a los espacios controlados de pruebas, siempre que se cumplan las mismas condiciones y criterios. Los Estados miembros deben utilizar los canales existentes y establecer, cuando proceda, nuevos canales de comunicación específicos con las pymes, incluidos las empresas emergentes, los responsables del despliegue, otros innovadores y, cuando proceda, las autoridades públicas locales, para apoyar a las pymes durante toda su trayectoria de desarrollo ofreciendo orientaciones y respondiendo a las preguntas sobre la aplicación del presente Reglamento. Cuando proceda, estos canales deben trabajar juntos para crear sinergias y garantizar la homogeneidad de sus orientaciones para las pymes, incluidas las empresas emergentes, y los responsables del despliegue. Además, los Estados miembros deben fomentar la participación de las pymes y otras partes interesadas pertinentes en los procesos de desarrollo de la normalización. Asimismo, los organismos notificados deben tener en cuenta las necesidades y los intereses específicos de los proveedores que sean pymes, incluidas las empresas emergentes, cuando establezcan las tasas aplicables a las evaluaciones de la conformidad. La Comisión debe evaluar periódicamente los costes de la certificación y el cumplimiento para las pymes, incluidas las empresas emergentes, a través de consultas transparentes, y debe trabajar con los Estados miembros para reducir dichos costes. Por ejemplo, los costes de traducción ligados a la documentación obligatoria y a la comunicación con las autoridades pueden ser considerables para los proveedores y otros operadores, en particular para los de menor tamaño. En la medida de lo posible, los Estados miembros deben velar por que una de las lenguas en las que acepten que los proveedores presenten la documentación pertinente y que pueda usarse para la comunicación con los operadores sea ampliamente conocida por el mayor número posible de responsables del despliegue transfronterizos. A fin de abordar las necesidades específicas de las pymes, incluidas las empresas emergentes, la Comisión debe proporcionar modelos normalizados para los ámbitos regulados por el presente Reglamento, previa solicitud del Consejo de IA. Además, la Comisión debe complementar los esfuerzos de los Estados miembros proporcionando una plataforma única de información con información fácil de utilizar sobre el presente Reglamento para todos los proveedores y responsables del despliegue, organizando campañas de comunicación adecuadas para sensibilizar sobre las obligaciones derivadas del presente Reglamento y evaluando y fomentando la convergencia de las mejores prácticas en los procedimientos de contratación pública en relación con los sistemas de IA. Las medianas empresas que hace poco se consideraban pequeñas empresas en el sentido del anexo de la Recomendación 2003/361/CE de la Comisión (44) deben tener acceso a esas medidas de apoyo, ya que dichas nuevas medianas empresas a veces pueden carecer de los recursos jurídicos y la formación necesarios para garantizar la comprensión y el cumplimiento adecuados del presente Reglamento.
(143)
Innovoinnin edistämiseksi ja suojaamiseksi on tärkeää ottaa erityisesti huomioon pk-yritysten, myös startup-yritysten, intressit tekoälyjärjestelmien tarjoajina ja käyttöönottajina. Tätä varten jäsenvaltioiden olisi kehitettävä kyseisille toimijoille suunnattuja aloitteita, jotka koskevat muun muassa tietämyksen lisäämistä ja tiedotusta. Jäsenvaltioiden olisi annettava niille pk-yrityksille, myös startup-yrityksille, joilla on sääntömääräinen kotipaikka tai sivutoimipiste unionissa, ensisijainen pääsy tekoälyn sääntelyn testiympäristöihin, edellyttäen että ne täyttävät kelpoisuusvaatimukset ja valintaperusteet, mutta jäsenvaltiot eivät saa estää muilta tarjoajilta ja mahdollisilta tarjoajilta pääsyä testiympäristöihin, jos nämä täyttävät samat vaatimukset ja perusteet. Jäsenvaltioiden olisi käytettävä olemassa olevia kanavia ja perustettava tarvittaessa uusia kanavia viestintään pk-yritysten, mukaan lukien startup-yritykset, käyttöönottajat, muut innovoijat ja tarvittaessa paikallisviranomaiset, kanssa, jotta voidaan tukea pk-yrityksiä koko niiden kehityksen ajan antamalla ohjeistusta ja vastaamalla kysymyksiin tämän asetuksen täytäntöönpanosta. Näiden kanavien olisi toimittava tarvittaessa yhteistyössä keskenään synergioiden luomiseksi ja sen varmistamiseksi, että niiden pk-yrityksille, myös startup-yrityksille, ja käyttöönottajille antamat ohjeet ovat yhdenmukaisia. Lisäksi jäsenvaltioiden olisi helpotettava pk-yritysten ja muiden asiaankuuluvien sidosryhmien osallistumista standardien laatimisprosesseihin. Tarjoajina toimivien pk-yritysten, myös startup-yritysten, erityisintressit ja -tarpeet olisi otettava huomioon, kun ilmoitetut laitokset vahvistavat vaatimustenmukaisuuden arvioinnista perittäviä maksuja. Komission olisi arvioitava säännöllisesti sertifioinnista ja vaatimusten noudattamisesta pk-yrityksille, myös startup-yrityksille, aiheutuvia kustannuksia avointen kuulemisten avulla, ja sen olisi pyrittävä alentamaan näitä kustannuksia yhdessä jäsenvaltioiden kanssa. Esimerkiksi pakollisen dokumentaation ja viranomaisviestinnän kääntämisestä voi aiheutua merkittäviä kustannuksia tarjoajille ja muille, etenkin pienemmille toimijoille. Jäsenvaltioiden olisi mahdollisesti varmistettava, että yksi kielistä, jotka ne ovat määrittäneet ja hyväksyneet käytettäväksi asiaankuuluvien tarjoajien dokumentaatiossa ja viestinnässä toimijoiden kanssa, on kieli, jota mahdollisimman monet rajatylittävät käyttöönottajat ymmärtävät. Jotta voidaan vastata pk-yritysten, myös startup-yritysten, erityistarpeisiin, komission olisi tekoälyneuvoston pyynnöstä esitettävä standardoidut mallit tämän asetuksen soveltamisalaan kuuluvia aloja varten. Lisäksi komission olisi täydennettävä jäsenvaltioiden toimia tarjoamalla yhtenäinen tietoalusta, jossa esitetään tätä asetusta koskevia helppokäyttöisiä tietoja kaikille tarjoajille ja käyttöönottajille, järjestämällä asianmukaisia tiedotuskampanjoita tietämyksen lisäämiseksi tästä asetuksesta johtuvista velvoitteista ja arvioimalla ja edistämällä tekoälyjärjestelmiä koskevien julkisten hankintamenettelyjen parhaiden käytäntöjen lähentämistä. Näiden tukitoimien olisi oltava sellaisten keskisuurten yritysten saatavilla, jotka katsottiin viime aikoihin asti komission suosituksen 2003/361/EY (44) liitteessä tarkoitetuiksi pieniksi yrityksiksi, koska tällaisilla uusilla keskisuurilla yrityksillä ei välttämättä aina ole tarvittavia oikeudellisia resursseja ja koulutusta asetuksen asianmukaisen ymmärtämisen ja noudattamisen varmistamiseksi.
(144)
Con el fin de promover y proteger la innovación, la plataforma de IA a la carta y todos los programas y proyectos de financiación de la Unión pertinentes, como el programa Europa Digital u Horizonte Europa, ejecutados por la Comisión y los Estados miembros a escala nacional o de la Unión deben, cuando proceda, contribuir a la consecución de los objetivos del presente Reglamento.
(144)
Jotta voidaan edistää ja suojella innovointia, tekoälyyn keskittyvän tilauspohjaisen alustan ja kaikkien asiaankuuluvien unionin rahoitusohjelmien ja -hankkeiden, kuten Digitaalinen Eurooppa -ohjelman ja Horisontti Eurooppa -ohjelman, jotka komissio ja jäsenvaltiot panevat täytäntöön unionin tai kansallisella tasolla, olisi tarvittaessa edistettävä tämän asetuksen tavoitteiden saavuttamista.
(145)
A fin de reducir al mínimo los riesgos para la aplicación derivados de la falta de conocimientos y experiencia en el mercado, y con el objetivo de facilitar que los proveedores, en particular las pymes, incluidas las empresas emergentes, y los organismos notificados cumplan las obligaciones que les impone el presente Reglamento, la plataforma de IA a la carta, los centros europeos de innovación digital y las instalaciones de ensayo y experimentación establecidos por la Comisión y los Estados miembros a escala nacional o de la Unión deben contribuir a la aplicación de este Reglamento. En concreto, la plataforma de IA a la carta, los centros europeos de innovación digital y las instalaciones de ensayo y experimentación son capaces de proporcionar a los proveedores y organismos notificados asistencia técnica y científica dentro de sus respectivas misiones y esferas de competencia.
(145)
Jotta voidaan minimoida markkinoilla olevan tiedon ja asiantuntemuksen puutteesta aiheutuvat riskit täytäntöönpanolle ja tukea tarjoajia, erityisesti pk-yrityksiä, myös startup-yrityksiä, ja ilmoitettuja laitoksia tämän asetuksen mukaisten velvoitteiden noudattamisessa, tekoälyyn keskittyvän tilauspohjaisen alustan, eurooppalaisten digitaali-innovointikeskittymien sekä komission ja jäsenvaltioiden unionin tai kansallisella tasolla perustamien testaus- ja kokeilulaitosten olisi edistettävä tämän asetuksen täytäntöönpanoa. Tekoälyyn keskittyvä tilauspohjainen alusta, eurooppalaiset digitaali-innovointikeskittymät sekä testaus- ja kokeilulaitokset voivat tehtäviensä ja toimivaltuuksiensa puitteissa antaa erityisesti teknistä ja tieteellistä tukea tarjoajille ja ilmoitetuille laitoksille.
(146)
Además, a la luz del tamaño muy pequeño de algunos operadores y con el fin de garantizar la proporcionalidad en relación con los costes de innovación, conviene permitir que las microempresas cumplan una de las obligaciones más costosas, a saber, la de establecer un sistema de gestión de la calidad, de manera simplificada, lo que reduciría la carga administrativa y los costes para dichas empresas sin afectar al nivel de protección ni a la necesidad de cumplir los requisitos aplicables a los sistemas de IA de alto riesgo. La Comisión debe elaborar directrices para especificar los elementos del sistema de gestión de la calidad que las microempresas deben cumplir de esta manera simplificada.
(146)
Jotta voidaan lisäksi ottaa huomioon joidenkin toimijoiden erittäin pieni koko ja varmistaa innovointikustannusten oikeasuhteisuus, on asianmukaista sallia mikroyritysten täyttää yksi eniten kustannuksia aiheuttavista velvoitteista – eli laadunhallintajärjestelmän perustaminen – yksinkertaistetusti, jotta voidaan vähentää niille aiheutuvaa hallinnollista rasitetta ja kustannuksia vaikuttamatta suojelun tasoon ja tarpeeseen noudattaa suuririskisiä tekoälyjärjestelmiä koskevia vaatimuksia. Komission olisi laadittava suuntaviivat, joissa täsmennetään ne laadunhallintajärjestelmän osiot, jotka mikroyritykset voivat täyttää yksinkertaistetusti.
(147)
Resulta adecuado que la Comisión facilite, en la medida de lo posible, el acceso a las instalaciones de ensayo y experimentación a organismos, grupos o laboratorios establecidos o acreditados con arreglo a la legislación de armonización de la Unión pertinente y que realicen tareas en el marco de la evaluación de la conformidad de productos o dispositivos regulados por dicha legislación. Tal es el caso, en particular, en lo que respecta a los paneles de expertos, los laboratorios especializados y los laboratorios de referencia en el ámbito de los productos sanitarios, de conformidad con los Reglamentos (UE) 2017/745 y (UE) 2017/746.
(147)
On aiheellista, että komissio helpottaa mahdollisuuksien mukaan sellaisten elinten, ryhmien ja laboratorioiden mahdollisuuksia käyttää testaus- ja kokeilulaitoksia, jotka on perustettu tai akkreditoitu asiaa koskevan unionin yhdenmukaistamislainsäädännön nojalla ja jotka suorittavat kyseisen unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluvien tuotteiden tai laitteiden vaatimustenmukaisuuden arviointiin liittyviä tehtäviä. Tämä koskee erityisesti asetusten (EU) 2017/745 ja (EU) 2017/746 mukaisia lääkinnällisiä laitteita käsitteleviä asiantuntijapaneeleja, asiantuntijalaboratorioita ja vertailulaboratorioita.
(148)
El presente Reglamento debe establecer un marco de gobernanza que permita tanto coordinar y apoyar su aplicación a escala nacional, como desarrollar capacidades a escala de la Unión e integrar a las partes interesadas en el ámbito de la IA. La aplicación y el cumplimiento efectivos del presente Reglamento requieren un marco de gobernanza que permita coordinar y adquirir conocimientos especializados centrales a escala de la Unión. La Oficina de IA se creó mediante Decisión de la Comisión (45) y tiene como misión desarrollar conocimientos especializados y capacidades de la Unión en el ámbito de la IA y contribuir a la aplicación del Derecho de la Unión en materia de IA. Los Estados miembros deben facilitar las tareas de la Oficina de IA con vistas a apoyar el desarrollo de conocimientos especializados y capacidades a escala de la Unión y a fortalecer el funcionamiento del mercado único digital. Además, debe crearse un Consejo de IA compuesto por representantes de los Estados miembros, un grupo de expertos científicos para integrar a la comunidad científica y un foro consultivo para facilitar las aportaciones de las partes interesadas a la aplicación del presente Reglamento, a escala de la Unión y nacional. El desarrollo de conocimientos especializados y capacidades de la Unión también debe incluir la utilización de los recursos y conocimientos especializados existentes, en particular a través de sinergias con estructuras creadas en el contexto de la aplicación a escala de la Unión de otros actos legislativos y de sinergias con iniciativas conexas a escala de la Unión, como la Empresa Común EuroHPC y las instalaciones de ensayo y experimentación de IA en el marco del programa Europa Digital.
(148)
Tällä asetuksella olisi vahvistettava hallintokehys, jonka avulla voidaan koordinoida ja tukea tämän asetuksen soveltamista kansallisella tasolla sekä vahvistaa valmiuksia unionin tasolla ja ottaa sidosryhmät mukaan tekoälyn alan toimintaan. Tämän asetuksen tehokas täytäntöönpano ja noudattamisen valvonta edellyttävät hallintokehystä, jonka avulla voidaan koordinoida ja kehittää unionin tason keskitettyä asiantuntemusta. Tekoälytoimisto perustettiin komission päätöksellä (45), ja sen tehtävänä on kehittää unionin asiantuntemusta ja valmiuksia tekoälyn alalla ja edistää tekoälyä koskevan unionin oikeuden täytäntöönpanoa. Jäsenvaltioiden olisi helpotettava tekoälytoimiston työtä, jotta voidaan tukea unionin asiantuntemuksen ja unionin tason valmiuksien kehittämistä ja vahvistaa digitaalisten sisämarkkinoiden toimintaa. Lisäksi olisi perustettava jäsenvaltioiden edustajista koostuva tekoälyneuvosto, tiedeyhteisön yhteen tuova tiedelautakunta ja neuvoa-antava foorumi, jonka kautta sidosryhmät voivat antaa panoksensa tämän asetuksen täytäntöönpanoon unionin ja kansallisella tasolla. Unionin asiantuntemuksen ja valmiuksien kehittämisen olisi sisällettävä myös olemassa olevien resurssien ja asiantuntemuksen käyttö erityisesti synergiassa unionin tasolla tapahtuvan muun lainsäädännön täytäntöönpanon yhteydessä perustettujen rakenteiden ja asiaan liittyvien unionin tason aloitteiden kanssa. Näitä ovat Euroopan suurteholaskennan yhteisyritys ja Digitaalinen Eurooppa -ohjelman mukaiset tekoälyn testaus- ja kokeilulaitokset.
(149)
Debe establecerse un Consejo de IA que facilite la aplicación fluida, efectiva y armonizada del presente Reglamento. El Consejo de IA debe reflejar los diversos intereses del ecosistema de la IA y estar formado por representantes de los Estados miembros. El Consejo de IA debe encargarse de diversas tareas de asesoramiento. Entre otras cosas, debe emitir dictámenes, recomendaciones e informes de asesoramiento o contribuir a orientaciones sobre asuntos relacionados con la aplicación de este Reglamento, también en lo que respecta la ejecución, las especificaciones técnicas o las normas existentes en relación con los requisitos previstos en el presente Reglamento, y asesorar a la Comisión y a los Estados miembros, así como a sus autoridades nacionales competentes, en cuestiones específicas vinculadas a la IA. Con el fin de dar cierta flexibilidad a los Estados miembros en la designación de sus representantes en el Consejo de IA, cualquier persona perteneciente a una entidad pública que tenga las competencias y facultades pertinentes para facilitar la coordinación a escala nacional y contribuir al cumplimiento de las funciones del Consejo de IA podrá ser designada representante. El Consejo de IA debe establecer dos subgrupos permanentes a fin de proporcionar una plataforma de cooperación e intercambio entre las autoridades de vigilancia del mercado y las autoridades notificantes sobre cuestiones relacionadas, respectivamente, con la vigilancia del mercado y los organismos notificados. El subgrupo permanente de vigilancia del mercado debe actuar como grupo de cooperación administrativa (ADCO) para el presente Reglamento en el sentido del artículo 30 del Reglamento (UE) 2019/1020. De conformidad con el artículo 33 de dicho Reglamento, la Comisión debe apoyar las actividades del subgrupo permanente de vigilancia del mercado mediante la realización de evaluaciones o estudios de mercado, en particular con vistas a determinar los aspectos del presente Reglamento que requieran una coordinación específica y urgente entre las autoridades de vigilancia del mercado. El Consejo de IA puede establecer otros subgrupos de carácter permanente o temporal, según proceda, para examinar asuntos específicos. El Consejo de IA también debe cooperar, según proceda, con los organismos, grupos de expertos y redes pertinentes de la Unión activos en el contexto del Derecho de la Unión pertinente, incluidos, en particular, los activos en virtud del Derecho de la Unión pertinente en materia de datos y productos y servicios digitales.
(149)
Tämän asetuksen sujuvan, tehokkaan ja yhdenmukaisen täytäntöönpanon helpottamiseksi olisi perustettava tekoälyneuvosto. Tekoälyneuvoston olisi edustettava tekoälyekosysteemin eri intressejä ja koostuttava jäsenvaltioiden edustajista. Sen olisi vastattava useista neuvoa-antavista tehtävistä, kuten lausuntojen, suositusten ja neuvojen antamisesta ja ohjeiden edistämisestä tämän asetuksen täytäntöönpanoon liittyvissä asioissa, joita ovat täytäntöönpanon valvonta sekä tässä asetuksessa vahvistettuja vaatimuksia koskevat tekniset eritelmät ja voimassa olevat standardit, ja neuvojen antamisesta komissiolle ja jäsenvaltioille ja niiden kansallisille toimivaltaisille viranomaisille tekoälyyn liittyvissä erityiskysymyksissä. Joustavuuden varmistamiseksi jäsenvaltiot voisivat nimittää tekoälyneuvostoon edustajakseen esimerkiksi julkisyhteisöihin kuuluvia henkilöitä, joilla olisi oltava asiaankuuluva pätevyys ja toimivalta, jotta he voivat helpottaa koordinointia kansallisella tasolla ja osallistua tekoälyneuvoston tehtävien suorittamiseen. Tekoälyneuvoston olisi perustettava kaksi pysyvää alaryhmää, jotka tarjoavat alustan yhteistyölle ja viestinnälle markkinavalvontaviranomaisten kesken kysymyksissä, jotka liittyvät markkinavalvontaan, ja ilmoittamisesta vastaavien viranomaisten kesken kysymyksissä, jotka liittyvät ilmoitettuihin laitoksiin. Markkinavalvonnan pysyvän alaryhmän on tarkoitus toimia asetuksen (EU) 2019/1020 30 artiklassa tarkoitettuna hallinnollisen yhteistyön ryhmänä tämän asetuksen osalta. Kyseisen asetuksen 33 artiklan mukaisesti komission olisi tuettava markkinavalvonnan pysyvän alaryhmän toimia toteuttamalla markkina-arviointeja tai -tutkimuksia erityisesti tämän asetuksen sellaisten näkökohtien määrittämiseksi, jotka edellyttävät erityistä ja kiireellistä koordinointia markkinavalvontaviranomaisten kesken. Tekoälyneuvosto voi tarvittaessa perustaa muita pysyviä tai väliaikaisia alaryhmiä tiettyjen kysymysten tarkastelua varten. Tekoälyneuvoston olisi myös tehtävä tarvittaessa yhteistyötä unionin oikeuden puitteissa aktiivisten unionin elinten, asiantuntijaryhmien ja verkostojen kanssa, mukaan lukien erityisesti ne, joiden toiminta liittyy dataa, digitaalisia tuotteita ja palveluja koskevaan unionin oikeuteen.
(150)
Con vistas a garantizar la participación de las partes interesadas en la ejecución y aplicación del presente Reglamento, debe crearse un foro consultivo para asesorar al Consejo de IA y a la Comisión y proporcionarles conocimientos técnicos. A fin de garantizar una representación variada y equilibrada de las partes interesadas que tenga en cuenta los intereses comerciales y no comerciales y, dentro de la categoría de los intereses comerciales, por lo que se refiere a las pymes y otras empresas, el foro consultivo debe incluir, entre otros, a la industria, las empresas emergentes, las pymes, el mundo académico, la sociedad civil, en particular los interlocutores sociales, así como a la Agencia de los Derechos Fundamentales de la Unión Europea, ENISA, el Comité Europeo de Normalización (CEN), el Comité Europeo de Normalización Electrotécnica (Cenelec) y el Instituto Europeo de Normas de Telecomunicaciones (ETSI).
(150)
Jotta voidaan varmistaa sidosryhmien osallistuminen tämän asetuksen täytäntöönpanoon ja soveltamiseen, olisi perustettava neuvoa-antava foorumi, joka neuvoo tekoälyneuvostoa ja komissiota ja antaa niiden käyttöön teknistä asiantuntemusta. Jotta voidaan varmistaa kaupallisia ja ei-kaupallisia intressejä edustavien sidosryhmien monipuolinen ja tasapainoinen edustus ja jotta pk-yritykset ja muut yritykset olisivat monipuolisesti ja tasapuolisesti edustettuina kaupallisten intressien luokassa, neuvoa-antavassa foorumissa olisi oltava jäseniä muun muassa teollisuudesta, startup- ja pk-yrityksistä, tiedeyhteisöstä, kansalaisyhteiskunnasta, johon kuuluvat myös työmarkkinaosapuolet, sekä perusoikeusvirastosta, ENISAsta, Euroopan standardointikomiteasta (CEN), Euroopan sähkötekniikan standardointikomiteasta (Cenelec) ja Euroopan telealan standardointilaitoksesta (ETSI).
(151)
Para apoyar la aplicación y el cumplimiento del presente Reglamento, en particular las actividades de supervisión de la Oficina de IA en lo que respecta a los modelos de IA de uso general, debe crearse un grupo de expertos científicos formado por expertos independientes. Los expertos independientes que constituyan el grupo de expertos científicos deben seleccionarse sobre la base de conocimientos científicos o técnicos actualizados en el ámbito de la IA y deben desempeñar sus funciones con imparcialidad y objetividad y garantizar la confidencialidad de la información y los datos obtenidos en el ejercicio de sus funciones y actividades. A fin de permitir el refuerzo de las capacidades nacionales necesarias para el cumplimiento efectivo del presente Reglamento, los Estados miembros deben poder solicitar el apoyo de los expertos que constituyan el grupo científico para sus actividades de garantía del cumplimiento.
(151)
Olisi perustettava riippumattomista asiantuntijoista koostuva tiedelautakunta, joka tukee tämän asetuksen täytäntöönpanoa ja noudattamisen valvontaa erityisesti tekoälytoimiston suorittaman yleiskäyttöisten tekoälymallien seurannan osalta. Tiedelautakunnan asiantuntijat olisi valittava tekoälyalan ajantasaisen tieteellisen tai teknisen asiantuntemuksen perusteella, ja heidän olisi suoritettava tehtävänsä puolueettomasti ja objektiivisesti sekä varmistettava tehtäviään ja toimiaan suorittaessaan saamiensa tietojen ja datan luottamuksellisuus. Jotta voidaan lujittaa tämän asetuksen tehokkaan täytäntöönpanon edellyttämiä kansallisia valmiuksia, jäsenvaltioiden olisi voitava pyytää noudattamisen valvontaa varten tukea tiedelautakunnan asiantuntijapoolilta.
(152)
A fin de apoyar una ejecución adecuada en lo que respecta a los sistemas de IA y reforzar las capacidades de los Estados miembros, deben crearse y ponerse a disposición de los Estados miembros estructuras de apoyo a los ensayos de IA de la Unión.
(152)
Jotta voidaan tukea asianmukaista noudattamisen valvontaa tekoälyjärjestelmien alalla ja lujittaa jäsenvaltioiden valmiuksia, olisi perustettava unionin tekoälyn testauksen tukirakenteita, jotka annetaan jäsenvaltioiden käyttöön.
(153)
Los Estados miembros desempeñan un papel clave en la aplicación y ejecución del presente Reglamento. En ese sentido, cada Estado miembro debe designar al menos una autoridad notificante y al menos una autoridad de vigilancia del mercado como autoridades nacionales competentes que se encarguen de supervisar su aplicación y ejecución. Los Estados miembros pueden decidir designar cualquier tipo de entidad pública para que desempeñe las tareas de las autoridades nacionales competentes en el sentido del presente Reglamento, de conformidad con sus características y necesidades organizativas nacionales específicas. Con el fin de incrementar la eficiencia organizativa en los Estados miembros y establecer un único punto de contacto oficial con el público y otros homólogos a escala de los Estados miembros y la Unión, cada Estado miembro debe designar una autoridad de vigilancia del mercado que actúe como punto de contacto único.
(153)
Jäsenvaltioilla on keskeinen rooli tämän asetuksen soveltamisessa ja noudattamisen valvonnassa. Tältä osin kunkin jäsenvaltion olisi nimettävä vähintään yksi ilmoittamisesta vastaava viranomainen ja vähintään yksi markkinavalvontaviranomainen kansallisiksi toimivaltaisiksi viranomaisiksi valvomaan tämän asetuksen soveltamista ja täytäntöönpanoa. Jäsenvaltiot voivat päättää nimittää minkä tahansa julkisyhteisön suorittamaan tässä asetuksessa tarkoitettuja kansallisten toimivaltaisten viranomaisten tehtäviä erityisten kansallisten organisatoristen ominaisuuksiensa ja tarpeidensa mukaisesti. Jotta voidaan lisätä organisoinnin tehokkuutta jäsenvaltioissa ja perustaa keskitetty yhteyspiste yleisölle ja muille vastaaville tahoille jäsenvaltioissa ja unionissa, kunkin jäsenvaltion olisi nimettävä markkinavalvontaviranomainen, joka toimii keskitettynä yhteyspisteenä.
(154)
Las autoridades nacionales competentes deben ejercer sus poderes de manera independiente, imparcial y objetiva, a fin de preservar los principios de objetividad de sus actividades y funciones y garantizar la aplicación y ejecución del presente Reglamento. Los miembros de estas autoridades deben abstenerse de todo acto incompatible con el carácter de sus funciones y estar sujetos a las normas de confidencialidad establecidas en el presente Reglamento.
(154)
Kyseisten kansallisten toimivaltaisten viranomaisten olisi käytettävä valtuuksiaan itsenäisesti, puolueettomasti ja ilman ennakkoasenteita, jotta voidaan turvata objektiivisuusperiaatteen noudattaminen niiden toiminnassa ja tehtävien hoitamisessa ja varmistaa tämän asetuksen soveltaminen ja täytäntöönpano. Viranomaisten henkilöstön olisi pidätyttävä kaikesta toiminnasta, joka on ristiriidassa sen tehtävien kanssa, ja siihen olisi sovellettava tämän asetuksen mukaisia luottamuksellisuussääntöjä.
(155)
Todos los proveedores de sistemas de IA de alto riesgo deben contar con un sistema de vigilancia poscomercialización, con vistas a garantizar que puedan tener en cuenta la experiencia con el uso de esos sistemas de cara a mejorar los suyos y el proceso de diseño y desarrollo o que puedan adoptar cualquier medida correctora en el momento oportuno. Cuando proceda, la vigilancia poscomercialización debe incluir un análisis de la interacción con otros sistemas de IA, incluidos otros dispositivos y software. La vigilancia poscomercialización no debe comprender los datos operativos sensibles de los responsables del despliegue de sistemas de IA que sean autoridades garantes del cumplimiento del Derecho. Este sistema es también fundamental para garantizar que los posibles riesgos derivados de los sistemas de IA que siguen «aprendiendo» tras su introducción en el mercado o puesta en servicio se aborden de un modo más eficiente y oportuno. En este contexto, procede exigir a los proveedores que también cuenten con un sistema para comunicar a las autoridades pertinentes cualquier incidente grave asociado al uso de sus sistemas de IA, entendido como un incidente o defecto que tenga como consecuencia un fallecimiento o daños graves para la salud, una alteración grave e irreversible de la gestión o el funcionamiento de infraestructuras críticas, el incumplimiento de obligaciones derivadas del Derecho de la Unión destinadas a proteger los derechos fundamentales o daños graves a la propiedad o al medio ambiente.
(155)
Sen varmistamiseksi, että suuririskisten tekoälyjärjestelmien tarjoajat voivat ottaa huomioon suuririskisten tekoälyjärjestelmien käytöstä saadut kokemukset järjestelmiensä ja suunnittelu- ja kehitysprosessiensa parantamiseksi ja toteuttaa ajoissa kaikki mahdolliset korjaavat toimet, kaikilla tarjoajilla olisi oltava käytössä markkinoille saattamisen jälkeinen seurantajärjestelmä. Markkinoille saattamisen jälkeiseen seurantaan olisi tarvittaessa sisällyttävä analyysi vuorovaikutuksesta muiden tekoälyjärjestelmien, myös muiden laitteiden ja ohjelmistojen, kanssa. Markkinoille saattamisen jälkeisen seurannan ei pitäisi kattaa niiden käyttöönottajien arkaluonteisia operatiivisia tietoja, jotka ovat lainvalvontaviranomaisia. Tämä järjestelmä on keskeisessä asemassa myös sen varmistamisessa, että riskeihin, joita voi aiheutua tekoälyjärjestelmistä, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen, voidaan puuttua tehokkaammin ja oikea-aikaisemmin. Tässä yhteydessä olisi myös edellytettävä, että tarjoajilla on käytössä järjestelmä, jolla ne voivat ilmoittaa asiaankuuluville viranomaisille kaikista vakavista vaaratilanteista, jotka ovat seurausta niiden tekoälyjärjestelmien käytöstä, kuten vaaratilanne tai toimintahäiriö, joka johtaa kuolemaan tai vakavaan terveysvahinkoon, vakava tai peruuttamaton häiriö kriittisen infrastruktuurin hallinnassa ja toiminnassa, perusoikeuksien suojaamiseen tarkoitettujen unionin oikeuden mukaisten velvoitteiden rikkominen tai vakava vahinko omaisuudelle tai ympäristölle.
(156)
Con el objetivo de garantizar el cumplimiento adecuado y efectivo de los requisitos y obligaciones previstos en el presente Reglamento, que constituye legislación de armonización de la Unión, debe aplicarse en su totalidad el sistema relativo a la vigilancia del mercado y la conformidad de los productos establecido por el Reglamento (UE) 2019/1020. Las autoridades de vigilancia del mercado designadas con arreglo al presente Reglamento deben disponer de todos los poderes de ejecución establecidos en el presente Reglamento y en el Reglamento (UE) 2019/1020, y deben ejercer sus poderes y desempeñar sus funciones de manera independiente, imparcial y objetiva. Aunque la mayoría de los sistemas de IA no están sujetos a requisitos ni obligaciones específicos en virtud del presente Reglamento, las autoridades de vigilancia del mercado pueden adoptar medidas en relación con todos los sistemas de IA cuando estos presenten un riesgo de conformidad con el presente Reglamento. Debido a la naturaleza específica de las instituciones, órganos y organismos de la Unión que entran en el ámbito de aplicación del presente Reglamento, procede designar al Supervisor Europeo de Protección de Datos como autoridad de vigilancia del mercado competente para ellos. Esto debe entenderse sin perjuicio de la designación de autoridades nacionales competentes por parte de los Estados miembros. Las actividades de vigilancia del mercado no deben afectar a la capacidad de las entidades supervisadas para llevar a cabo sus tareas de manera independiente, cuando el Derecho de la Unión exija dicha independencia.
(156)
Jotta voidaan varmistaa tässä asetuksessa, joka on osa unionin yhdenmukaistamislainsäädäntöä, vahvistettujen vaatimusten ja velvollisuuksien asianmukainen ja tehokas täytäntöönpano, asetuksella (EU) 2019/1020 perustettua markkinavalvontaa ja tuotteiden vaatimustenmukaisuutta koskevaa järjestelmää olisi sovellettava kokonaisuudessaan. Tämän asetuksen mukaisesti nimetyillä markkinavalvontaviranomaisilla olisi oltava kaikki tässä asetuksessa ja asetuksessa (EU) 2019/1020 säädetyt täytäntöönpanovaltuudet, ja niiden olisi käytettävä valtuuksiaan ja suoritettava tehtävänsä itsenäisesti, puolueettomasti ja ilman ennakkokäsityksiä. Vaikka suurimpaan osaan tekoälyjärjestelmiä ei sovelleta tämän asetuksen mukaisia erityisvaatimuksia tai -velvoitteita, markkinavalvontaviranomaiset voivat toteuttaa tekoälyjärjestelmiä koskevia toimenpiteitä, jos järjestelmistä aiheutuu tämän asetuksen mukainen riski. Kun otetaan huomioon tämän asetuksen soveltamisalaan kuuluvien unionin toimielinten, virastojen ja elinten erityisluonne, on aiheellista nimetä niiden toimivaltaiseksi markkinavalvontaviranomaiseksi Euroopan tietosuojavaltuutettu. Tämä ei saisi vaikuttaa jäsenvaltioiden suorittamaan kansallisten toimivaltaisten viranomaisten nimeämiseen. Markkinavalvontatoimet eivät saisi vaikuttaa valvottujen yhteisöjen kykyyn suorittaa tehtävänsä riippumattomasti, kun tällaista riippumattomuutta edellytetään unionin oikeudessa.
(157)
El presente Reglamento se entiende sin perjuicio de las competencias, funciones, poderes e independencia de las autoridades u organismos públicos nacionales pertinentes que supervisan la aplicación del Derecho de la Unión que protege los derechos fundamentales, incluidos los organismos de igualdad y las autoridades de protección de datos. Cuando sea necesario para su mandato, dichas autoridades u organismos públicos nacionales también deben tener acceso a cualquier documentación creada en virtud del presente Reglamento. Debe establecerse un procedimiento de salvaguardia específico para garantizar una ejecución adecuada y oportuna frente a sistemas de IA que presenten un riesgo para la salud, la seguridad o los derechos fundamentales. El procedimiento relativo a dichos sistemas de IA que presentan un riesgo debe aplicarse a los sistemas de IA de alto riesgo que presenten un riesgo, a los sistemas prohibidos que hayan sido introducidos en el mercado, puestos en servicio o utilizados contraviniendo las prácticas prohibidas establecidas en el presente Reglamento y a los sistemas de IA que hayan sido comercializados infringiendo los requisitos de transparencia establecidos en el presente Reglamento y que presenten un riesgo.
(157)
Tämä asetus ei rajoita perusoikeuksien suojelusta annetun unionin oikeuden soveltamista valvovien asiaankuuluvien kansallisten viranomaisten tai elinten, mukaan lukien tasa-arvoelimet ja tietosuojaviranomaiset, toimivaltaa, tehtäviä, valtuuksia ja riippumattomuutta. Näiden kansallisten viranomaisten ja elinten olisi myös voitava saada käyttöönsä kaikki tämän asetuksen nojalla laadittu dokumentaatio, jos se on tarpeen niiden toimeksiannon kannalta. Olisi otettava käyttöön erityinen suojamenettely, jolla varmistetaan riittävä ja oikea-aikainen täytäntöönpano sellaisten tekoälyjärjestelmien osalta, joihin liittyy terveyteen, turvallisuuteen tai perusoikeuksiin kohdistuva riski. Tällaisia riskin aiheuttavia tekoälyjärjestelmiä koskevaa menettelyä olisi sovellettava suuririskisiin tekoälyjärjestelmiin, joihin liittyy riski, kiellettyihin järjestelmiin, jotka on saatettu markkinoille tai otettu käyttöön tai joita käytetään tässä asetuksessa säädettyjen käytäntöjä koskevien kieltojen vastaisesti, ja tekoälyjärjestelmiin, jotka on asetettu saataville tässä asetuksessa säädettyjen avoimuusvaatimusten vastaisesti ja joihin liittyy riski.
(158)
El Derecho de la Unión en materia de servicios financieros contiene normas y requisitos en materia de gobernanza interna y gestión de riesgos que las entidades financieras reguladas deben cumplir durante la prestación de dichos servicios, y también cuando utilicen sistemas de IA. Para garantizar la aplicación y ejecución coherentes de las obligaciones previstas en el presente Reglamento, así como de las normas y los requisitos oportunos de los actos jurídicos de la Unión relativos a los servicios financieros, se ha de designar a las autoridades competentes de supervisar y ejecutar dichos actos jurídicos, en particular las autoridades competentes definidas en el Reglamento (UE) n.o 575/2013 del Parlamento Europeo y del Consejo (46) y las Directivas 2008/48/CE (47), 2009/138/CE (48), 2013/36/UE (49), 2014/17/UE (50) y (UE) 2016/97 (51) del Parlamento Europeo y del Consejo, dentro de sus respectivas competencias, como las autoridades competentes encargadas de supervisar la aplicación del presente Reglamento, también por lo que respecta a las actividades de vigilancia del mercado, en relación con los sistemas de IA proporcionados o utilizados por las entidades financieras reguladas y supervisadas, a menos que los Estados miembros decidan designar a otra autoridad para que desempeñe estas tareas de vigilancia del mercado. Dichas autoridades competentes deben disponer de todos los poderes previstos en el presente Reglamento y en el Reglamento (UE) 2019/1020 para hacer cumplir los requisitos y obligaciones del presente Reglamento, incluidos los poderes para llevar a cabo actividades de vigilancia del mercado ex post que pueden integrarse, en su caso, en sus mecanismos y procedimientos de supervisión existentes en virtud del Derecho pertinente de la Unión en materia de servicios financieros. Conviene prever que, cuando actúen como autoridades de vigilancia del mercado en virtud del presente Reglamento, las autoridades nacionales responsables de la supervisión de las entidades de crédito reguladas por la Directiva 2013/36/UE que participen en el Mecanismo Único de Supervisión establecido por el Reglamento (UE) n.o 1024/2013 del Consejo (52) comuniquen sin demora al Banco Central Europeo toda información obtenida en el transcurso de sus actividades de vigilancia del mercado que pueda ser de interés para las funciones de supervisión prudencial del Banco Central Europeo especificadas en dicho Reglamento. Con vistas a aumentar la coherencia entre el presente Reglamento y las normas aplicables a las entidades de crédito reguladas por la Directiva 2013/36/UE, conviene igualmente integrar algunas de las obligaciones procedimentales de los proveedores relativas a la gestión de riesgos, la vigilancia poscomercialización y la documentación en las obligaciones y los procedimientos vigentes con arreglo a la Directiva 2013/36/UE. Para evitar solapamientos, también se deben contemplar excepciones limitadas en relación con el sistema de gestión de la calidad de los proveedores y la obligación de vigilancia impuesta a los responsables del despliegue de sistemas de IA de alto riesgo, en la medida en que estos se apliquen a las entidades de crédito reguladas por la Directiva 2013/36/UE. El mismo régimen debe aplicarse a las empresas de seguros y reaseguros y a las sociedades de cartera de seguros reguladas por la Directiva 2009/138/CE, a los intermediarios de seguros regulados por la Directiva (UE) 2016/97 y a otros tipos de entidades financieras sujetas a requisitos sobre gobernanza, sistemas o procesos internos establecidos con arreglo al Derecho pertinente de la Unión en materia de servicios financieros a fin de garantizar la coherencia y la igualdad de trato en el sector financiero.
(158)
Rahoituspalveluja koskevaan unionin oikeuteen sisältyy sisäistä hallintoa ja riskinhallintaa koskevia säännöksiä ja vaatimuksia, joita sovelletaan säänneltyihin rahoituslaitoksiin niiden tarjotessa kyseisiä palveluja, myös silloin, kun ne käyttävät tekoälyjärjestelmiä. Jotta voidaan varmistaa tämän asetuksen mukaisten velvoitteiden ja rahoituspalveluja koskevan unionin säädösten asiaa koskevien sääntöjen ja vaatimusten johdonmukainen soveltaminen ja täytäntöönpano, rahoituspalvelulainsäädännön valvonnasta ja täytäntöönpanosta vastaavat toimivaltaiset viranomaiset, sellaisina kuin ne on määritelty Euroopan parlamentin ja neuvoston asetuksessa (EU) N:o 575/2013 (46) ja Euroopan parlamentin ja neuvoston direktiiveissä 2008/48/EY (47), 2009/138/EY (48), 2013/36/EU (49), 2014/17/EU (50) ja (EU) 2016/97 (51), olisi nimettävä toimivaltuuksiensa puitteissa toimivaltaisiksi viranomaisiksi valvomaan tämän asetuksen täytäntöönpanoa, myös markkinavalvontatoimia, säänneltyjen ja valvottujen rahoituslaitosten tarjoamien tai käyttämien tekoälyjärjestelmien osalta, elleivät jäsenvaltiot päätä nimetä muuta viranomaista täyttämään nämä markkinavalvontatehtävät. Näillä toimivaltaisilla viranomaisilla olisi oltava kaikki tämän asetuksen ja asetuksen (EU) 2019/1020 mukaiset valtuudet valvoa tämän asetuksen vaatimusten ja velvoitteiden noudattamista, mukaan lukien valtuudet toteuttaa jälkikäteen markkinavalvontatoimia, jotka voidaan integroida tarvittaessa niiden olemassa oleviin asiaankuuluvan unionin rahoituspalvelulainsäädännön mukaisiin valvontamekanismeihin ja -menettelyihin. On aiheellista säätää, että kun ne toimivat tämän asetuksen mukaisina markkinavalvontaviranomaisina, kansallisten viranomaisten, jotka vastaavat sellaisten direktiivillä 2013/36/EU säänneltyjen luottolaitosten valvonnasta, jotka osallistuvat neuvoston asetuksella (EU) N:o 1024/2013 (52) perustettuun yhteiseen valvontamekanismiin, olisi ilmoitettava viipymättä Euroopan keskuspankille kaikki markkinavalvontatoimiensa yhteydessä määrittämät tiedot, joilla voi olla merkitystä Euroopan keskuspankin vakavaraisuuden valvontatehtäville sellaisina kuin ne määritetään kyseisessä asetuksessa. Jotta voidaan edelleen lisätä johdonmukaisuutta tämän asetuksen ja direktiivillä 2013/36/EU säänneltyihin luottolaitoksiin sovellettavien sääntöjen välillä, direktiivin 2013/36/EU mukaisiin nykyisiin velvoitteisiin ja menettelyihin on aiheellista sisällyttää myös jotkin tarjoajien menettelylliset velvoitteet, jotka liittyvät riskinhallintaan, markkinoille saattamisen jälkeiseen seurantaan ja dokumentaatioon. Päällekkäisyyksien välttämiseksi olisi säädettävä myös rajoitettuja poikkeuksia tarjoajien laadunhallintajärjestelmään ja suuririskisten tekoälyjärjestelmien käyttöönottajille asetettuun seurantavelvoitteeseen siltä osin kuin niitä sovelletaan direktiivillä 2013/36/EU säänneltyihin luottolaitoksiin. Samaa järjestelyä olisi sovellettava direktiivin 2009/138/EY mukaisiin vakuutus- ja jälleenvakuutusyrityksiin ja vakuutushallintayhtiöihin ja direktiivin (EU) 2016/97 mukaisiin vakuutusedustajiin ja muun tyyppisiin rahoituslaitoksiin, joihin sovelletaan asiaankuuluvan unionin rahoituspalvelulainsäädännön mukaisesti vahvistettuja sisäisiä hallintojärjestelyjä tai -prosesseja koskevia vaatimuksia, jotta voidaan varmistaa johdonmukaisuus ja yhdenvertainen kohtelu rahoitusalalla.
(159)
Cada autoridad de vigilancia del mercado para los sistemas de IA de alto riesgo en el ámbito de la biometría enumerados en un anexo del presente Reglamento, en la medida en que dichos sistemas se utilicen con fines de garantía del cumplimiento del Derecho, de migración, asilo y gestión del control fronterizo, o de la administración de justicia y los procesos democráticos, debe disponer de facultades de investigación y correctoras efectivas, incluida al menos la facultad de obtener acceso a todos los datos personales que se estén tratando y a toda la información necesaria para el desempeño de sus funciones. Las autoridades de vigilancia del mercado deben poder ejercer sus poderes actuando con total independencia. Cualquier limitación de su acceso a datos operativos sensibles en virtud del presente Reglamento debe entenderse sin perjuicio de los poderes que les confiere la Directiva (UE) 2016/680. Ninguna exclusión de la divulgación de datos a las autoridades nacionales de protección de datos en virtud del presente Reglamento debe afectar a los poderes actuales o futuros de dichas autoridades que trasciendan el ámbito de aplicación del presente Reglamento.
(159)
Kullakin sellaisten biometriikan alan suuririskisten tekoälyjärjestelmien markkinavalvontaviranomaisella, jotka on lueteltu tämän asetuksen liitteessä, siltä osin kuin kyseisiä järjestelmiä käytetään lainvalvonnan, muuttoliikkeen hallinnan, turvapaikka-asioiden ja rajavalvonnan tarkoituksiin tai oikeudenkäytössä ja demokraattisissa prosesseissa, olisi oltava tehokkaat tutkinta- ja korjaavat valtuudet, mukaan lukien ainakin valtuudet saada pääsy kaikkiin käsiteltäviin henkilötietoihin ja kaikkiin sen tehtävien suorittamisen kannalta tarvittaviin tietoihin. Markkinavalvontaviranomaisten olisi voitava käyttää valtuuksiaan täysin riippumattomasti. Mahdollisten rajoitusten, joita tässä asetuksessa asetetaan markkinaviranomaisten pääsylle arkaluonteisiin operatiivisiin tietoihin, ei pitäisi vaikuttaa niille direktiivillä (EU) 2016/680 annettuihin valtuuksiin. Tässä asetuksessa säädettyjen poikkeusten, jotka koskevat tietojen luovuttamista kansallisille tietosuojaviranomaisille, ei pitäisi vaikuttaa näiden viranomaisten nykyisiin tai tuleviin valtuuksiin tämän asetuksen soveltamisalan ulkopuolella.
(160)
Las autoridades de vigilancia del mercado y la Comisión deben poder proponer actividades conjuntas, incluidas investigaciones conjuntas, que deben llevar a cabo las autoridades de vigilancia del mercado o las autoridades de vigilancia del mercado junto con la Comisión, con el objetivo de fomentar el cumplimiento, detectar incumplimientos, sensibilizar y ofrecer orientaciones en relación con el presente Reglamento con respecto a las categorías específicas de sistemas de IA de alto riesgo que presentan un riesgo grave en dos o más Estados miembros. Tales actividades conjuntas para fomentar el cumplimiento deben llevarse a cabo de conformidad con el artículo 9 del Reglamento (UE) 2019/1020. La Oficina de IA debe prestar apoyo de coordinación a las investigaciones conjuntas.
(160)
Markkinavalvontaviranomaisten ja komission olisi voitava ehdottaa yhteisiä toimia, myös yhteisiä tutkimuksia, jotka markkinavalvontaviranomaiset toteuttavat itse tai yhdessä komission kanssa ja joiden tavoitteena on edistää vaatimusten noudattamista, havaita vaatimusten noudattamatta jättäminen, lisätä tietämystä ja antaa neuvoja tähän asetukseen liittyvistä asioista ja niistä suuririskisten tekoälyjärjestelmien luokista, joihin on todettu liittyvän vakava riski kahdessa tai useammassa jäsenvaltiossa. Vaatimusten noudattamista edistävät toimet olisi toteutettava asetuksen (EU) 2019/1020 9 artiklan mukaisesti. Tekoälytoimiston olisi annettava koordinointitukea yhteisiä tutkimuksia varten.
(161)
Es necesario aclarar las responsabilidades y competencias a escala de la Unión y nacional en lo que respecta a los sistemas de IA que se basan en modelos de IA de uso general. Para evitar el solapamiento de competencias, cuando un sistema de IA se base en un modelo de IA de uso general y el modelo y el sistema sean suministrados por el mismo proveedor, la supervisión debe llevarse a cabo a escala de la Unión a través de la Oficina de IA, que debe tener a estos efectos las facultades de una autoridad de vigilancia del mercado en el sentido de lo dispuesto en el Reglamento (UE) 2019/1020. En todos los demás casos, serán responsables de la supervisión de los sistemas de IA las autoridades nacionales de vigilancia del mercado. No obstante, en el caso de los sistemas de IA de uso general que puedan ser utilizados directamente por los responsables del despliegue con al menos un fin clasificado como de alto riesgo, las autoridades de vigilancia del mercado deben cooperar con la Oficina de IA para llevar a cabo evaluaciones de la conformidad e informar de ello al Consejo de IA y a otras autoridades de vigilancia del mercado. Además, las autoridades de vigilancia del mercado deben poder solicitar la asistencia de la Oficina de IA cuando la autoridad de vigilancia del mercado no pueda concluir una investigación sobre un sistema de IA de alto riesgo debido a su incapacidad para acceder a determinada información relacionada con el modelo de IA de uso general en el que se basa el sistema de IA de alto riesgo. En tales casos, debe aplicarse mutatis mutandis el procedimiento de asistencia mutua transfronteriza previsto en el capítulo VI del Reglamento (UE) 2019/1020.
(161)
On aiheellista selventää unionin ja kansallisen tason vastuut ja toimivalta niiden tekoälyjärjestelmien osalta, jotka perustuvat yleiskäyttöisiin tekoälymalleihin. Kun tekoälyjärjestelmä perustuu yleiskäyttöiseen tekoälymalliin ja kun mallia ja järjestelmää tarjoaa sama tarjoaja, valvonta olisi päällekkäisten toimivaltuuksien välttämiseksi toteutettava unionin tasolla tekoälytoimistossa, jolla olisi tätä tarkoitusta varten oltava asetuksessa (EU) 2019/1020 tarkoitetun markkinavalvontaviranomaisen valtuudet. Kaikissa muissa tapauksissa tekoälyjärjestelmien valvonnasta vastaavat kansalliset markkinavalvontaviranomaiset. Niiden yleiskäyttöisten tekoälymallien osalta, joita käyttöönottajat voivat käyttää suoraan vähintään yhteen suuririskiseksi luokiteltuun tarkoitukseen, markkinavalvontaviranomaisten olisi kuitenkin tehtävä yhteistyötä tekoälytoimiston kanssa vaatimustenmukaisuuden arviointien suorittamisessa ja ilmoitettava arviointien tuloksista tekoälyneuvostolle ja muille markkinavalvontaviranomaisille. Lisäksi markkinavalvontaviranomaisten olisi voitava pyytää apua tekoälytoimistolta, jos ne eivät pysty saattamaan päätökseen suuririskistä tekoälyjärjestelmää koskevaa tutkintaa, koska niillä ei ole pääsyä tiettyihin tietoihin, jotka liittyvät yleiskäyttöiseen tekoälymalliin, jonka pohjalta suuririskinen tekoälyjärjestelmä on rakennettu. Tällaisissa tapauksissa olisi sovellettava soveltuvin osin asetuksen (EU) 2019/1020 VI luvussa säädettyä rajatylittävän keskinäisen avunannon menettelyä.
(162)
Para aprovechar al máximo la centralización de conocimientos especializados y las sinergias que se generan a escala de la Unión, deben atribuirse a la Comisión las competencias de supervisión y de control del cumplimiento de las obligaciones de los proveedores de modelos de IA de uso general. La Oficina de IA debe poder llevar a cabo todas las acciones necesarias para supervisar la aplicación efectiva del presente Reglamento en lo que respecta a los modelos de IA de uso general. Debe poder investigar posibles infracciones de las normas relativas a los proveedores de modelos de IA de uso general, tanto por iniciativa propia, a raíz de los resultados de sus actividades de supervisión, como a petición de las autoridades de vigilancia del mercado, de conformidad con las condiciones establecidas en el presente Reglamento. Para promover la eficacia de la supervisión, la Oficina de IA debe prever la posibilidad de que los proveedores posteriores presenten reclamaciones sobre posibles infracciones de las normas relativas a los proveedores de sistemas y modelos de IA de uso general.
(162)
Jotta unionin tason keskitetystä asiantuntemuksesta ja unionin tason synergioista saataisiin paras hyöty, yleiskäyttöisten tekoälymallien tarjoajien valvonnan ja niiden velvoitteiden noudattamisen valvonnan olisi kuuluttava komission toimivaltaan. Tekoälytoimiston olisi voitava toteuttaa kaikki tarvittavat toimet tämän asetuksen tehokkaan täytäntöönpanon seuraamiseksi yleiskäyttöisten tekoälymallien osalta. Sen olisi voitava tutkia yleiskäyttöisten tekoälymallien tarjoajia koskevien sääntöjen mahdollisia rikkomisia sekä omasta aloitteestaan seurantatoimiensa tulosten perusteella tai markkinavalvontaviranomaisten pyynnöstä tässä asetuksessa säädettyjen edellytysten mukaisesti. Jotta voidaan tukea tekoälytoimiston suorittamaa tehokasta seurantaa, tekoälytoimiston olisi tarjottava ketjun loppupään toimijoille mahdollisuus tehdä valituksia yleiskäyttöisten tekoälymallien ja -järjestelmien tarjoajia koskevien sääntöjen mahdollisista rikkomisista.
(163)
Con el fin de complementar los sistemas de gobernanza de los modelos de IA de uso general, el grupo de expertos científicos debe contribuir a las actividades de supervisión de la Oficina de IA y, en determinados casos, puede proporcionar alertas cualificadas a la Oficina de IA que activen actuaciones consecutivas, como investigaciones. Así debe ocurrir cuando el grupo de expertos científicos tenga motivos para sospechar que un modelo de IA de uso general presenta un riesgo concreto e identificable a escala de la Unión. También debe ser este el caso cuando el grupo de expertos científicos tenga motivos para sospechar que un modelo de IA de uso general cumple los criterios que llevarían a clasificarlo como modelo de IA de uso general con riesgo sistémico. A fin de facilitar al grupo de expertos científicos la información necesaria para el desempeño de esas funciones, debe existir un mecanismo que permita al grupo de expertos científicos pedir a la Comisión que solicite documentación o información a un proveedor.
(163)
Jotta täydennettäisiin yleiskäyttöisten tekoälymallien hallintojärjestelmiä, tiedelautakunnan olisi tuettava tekoälytoimiston seurantatoimia ja se voi tietyissä tapauksissa toimittaa tekoälytoimistolle perusteltuja varoituksia, joilla käynnistetään jatkotoimia, kuten tutkimuksia. Näin olisi oltava silloin, kun tiedelautakunnalla on aihetta epäillä, että yleiskäyttöinen tekoälymalli aiheuttaa konkreettisen ja tunnistettavan riskin unionin tasolla. Näin olisi oltava myös silloin, kun tiedelautakunnalla on aihetta epäillä, että yleiskäyttöinen tekoälymalli täyttää perusteet, joiden mukaisesti se olisi luokiteltava yleiskäyttöiseksi tekoälymalliksi, johon liittyy systeeminen riski. Jotta tiedelautakunta saisi näiden tehtäviensä suorittamiseen tarvittavat tiedot, olisi perustettava mekanismi, jonka avulla tiedelautakunta voi pyytää komissiota vaatimaan tarjoajalta asiakirjoja tai tietoja.
(164)
La Oficina de IA debe poder adoptar las medidas necesarias para supervisar la aplicación efectiva y el cumplimiento de las obligaciones de los proveedores de modelos de IA de uso general establecidas en el presente Reglamento. La Oficina de IA debe poder investigar posibles infracciones de conformidad con las competencias previstas en el presente Reglamento, por ejemplo, solicitando documentación e información, realizando evaluaciones y solicitando la adopción de medidas a los proveedores de modelos de IA de uso general. En la realización de las evaluaciones, para poder contar con conocimientos especializados independientes, la Oficina de IA debe poder recurrir a expertos independientes para que lleven a cabo las evaluaciones en su nombre. Se debe poder exigir el cumplimiento de las obligaciones mediante, entre otras cosas, solicitudes de adopción de medidas adecuadas, entre las que se incluyen medidas de reducción del riesgo en caso de que se detecten riesgos sistémicos, así como la restricción de la comercialización, la retirada o la recuperación del modelo. Como salvaguardia, cuando sea necesario, además de los derechos procedimentales previstos en el presente Reglamento, los proveedores de modelos de IA de uso general deben tener los derechos procedimentales previstos en el artículo 18 del Reglamento (UE) 2019/1020, que deben aplicarse mutatis mutandis, sin perjuicio de los derechos procesales más específicos previstos en el presente Reglamento.
(164)
Tekoälytoimiston olisi voitava toteuttaa tarvittavat toimet seuratakseen tässä asetuksessa säädettyjen yleiskäyttöisten tekoälymallien tarjoajia koskevien velvoitteiden tehokasta täytäntöönpanoa ja noudattamista. Tekoälytoimiston olisi voitava tutkia mahdollisia rikkomisia tässä asetuksessa säädettyjen valtuuksiensa mukaisesti, mukaan lukien pyytämällä asiakirjoja ja tietoja, suorittamalla arviointeja ja pyytämällä yleiskäyttöisten tekoälymallien tarjoajia toteuttamaan toimenpiteitä. Jotta voidaan hyödyntää riippumatonta asiantuntemusta arviointien suorittamisessa, tekoälytoimiston olisi voitava pyytää riippumattomia asiantuntijoita suorittamaan arvioinnit sen puolesta. Velvoitteiden noudattamista olisi voitava valvoa muun muassa asianmukaisten toimenpiteiden toteuttamiseen kehottavilla pyynnöillä, mukaan lukien riskinvähentämistoimenpiteet tunnistettujen systeemisten riskien tapauksessa, ja rajoittamalla mallin asettamista saataville markkinoilla, poistamalla se markkinoilta tai soveltamalla mallin palautusmenettelyä. Tässä asetuksessa säädettyjen menettelyllisten oikeuksien lisäksi voidaan tarvittaessa soveltaa takeita, joiden mukaan yleiskäyttöisten tekoälymallien tarjoajilla olisi oltava asetuksen (EU) 2019/1020 18 artiklassa säädetyt menettelylliset oikeudet, joita olisi sovellettava soveltuvin osin, sanotun kuitenkaan rajoittamatta tässä asetuksessa säädettyjen yksityiskohtaisempien menettelyllisten oikeuksien soveltamista.
(165)
El desarrollo de sistemas de IA que no sean sistemas de IA de alto riesgo conforme a los requisitos establecidos en el presente Reglamento puede dar lugar a la adopción más amplia de una IA ética y fiable en la Unión. Se debe alentar a los proveedores de sistemas de IA que no son de alto riesgo a crear códigos de conducta, entre los que se incluyen los correspondientes mecanismos de gobernanza, destinados a impulsar la aplicación voluntaria de la totalidad o parte de los requisitos aplicables a los sistemas de IA de alto riesgo, adaptados teniendo en cuenta la finalidad prevista de los sistemas y el menor riesgo planteado y teniendo en cuenta las soluciones técnicas disponibles y las mejores prácticas del sector, como las tarjetas de modelo y de datos Asimismo, se debe animar a los proveedores y, en su caso, a los responsables del despliegue de todos los sistemas de IA, ya sean o no de alto riesgo, y de los modelos de IA, a aplicar, con carácter voluntario, requisitos adicionales relativos, por ejemplo, a los elementos de las Directrices éticas de la Unión para una IA fiable, la sostenibilidad medioambiental, medidas de alfabetización en materia de IA, la inclusividad y la diversidad en el diseño y el desarrollo de los sistemas de IA, lo que incluye tener en cuenta a las personas vulnerables y la accesibilidad de las personas con discapacidad, la participación de las partes interesadas, con la participación, según proceda, de las partes interesadas pertinentes, como las organizaciones empresariales y de la sociedad civil, el mundo académico, los organismos de investigación, los sindicatos y las organizaciones de protección de los consumidores, en el diseño y el desarrollo de los sistemas de IA, y la diversidad de los equipos de desarrollo, también por lo que respecta a la paridad de género. Para garantizar la efectividad de los códigos de conducta voluntarios, estos deben basarse en objetivos claros e indicadores clave del rendimiento que permitan medir la consecución de dichos objetivos. También deben desarrollarse de manera inclusiva, según proceda, con la participación de las partes interesadas pertinentes, como las organizaciones empresariales y de la sociedad civil, el mundo académico, los organismos de investigación, los sindicatos y las organizaciones de protección de los consumidores. La Comisión podría formular iniciativas, también de carácter sectorial, encaminadas a facilitar la disminución de los obstáculos técnicos que dificultan el intercambio transfronterizo de datos para el desarrollo de la IA, también en relación con la infraestructura de acceso a los datos y la interoperabilidad semántica y técnica de distintos tipos de datos.
(165)
Muiden tekoälyjärjestelmien kuin suuririskisten tekoälyjärjestelmien kehittäminen tämän asetuksen vaatimusten mukaisesti voi johtaa eettisen ja luotettavan tekoälyn laajempaan käyttöönottoon unionissa. Muiden kuin suuririskisten tekoälyjärjestelmien tarjoajia olisi kannustettava laatimaan käytännesääntöjä, mukaan lukien asiaankuuluvat hallintomekanismit, joilla pyritään edistämään joidenkin tai kaikkien suuririskisiin tekoälyjärjestelmiin sovellettavien pakollisten vaatimusten vapaaehtoista soveltamista ja jotka on mukautettu järjestelmien käyttötarkoituksen ja niihin liittyvän pienemmän riskin perusteella ja joissa otetaan huomioon saatavilla olevat tekniset ratkaisut ja alan parhaat käytännöt, kuten malli- ja datakortit. Kaikenlaisten, sekä suuririskisten että muiden tekoälyjärjestelmien ja tekoälymallien tarjoajia ja tapauksen mukaan käyttöönottajia olisi myös kannustettava soveltamaan vapaaehtoisesti lisävaatimuksia, jotka liittyvät esimerkiksi luotettavaa tekoälyä koskevien unionin eettisten ohjeiden osatekijöihin, ympäristökestävyyteen, tekoälylukutaitoa edistäviin toimenpiteisiin, tekoälyjärjestelmien osallistavaan ja monimuotoiseen suunnitteluun ja kehittämiseen, mukaan lukien haavoittuvassa asemassa olevien henkilöiden huomiointi ja vammaisten henkilöiden esteettömyys, sidosryhmien osallistumiseen, mukaan lukien tarvittaessa asiaankuuluvien sidosryhmien, kuten liike-elämän ja kansalaisyhteiskunnan järjestöjen, tiedeyhteisön ja tutkimusorganisaatioiden, ammattiliittojen ja kuluttajansuojajärjestöjen osallistuminen, tekoälyjärjestelmien suunnitteluun ja kehittämiseen sekä kehitysryhmien moninaisuuteen, mukaan lukien sukupuolten tasapuolinen edustus. Jotta voidaan varmistaa vapaaehtoisten käytännesääntöjen tehokkuus, niiden olisi perustuttava selkeisiin tavoitteisiin ja keskeisiin tulosindikaattoreihin, joilla mitataan näiden tavoitteiden saavuttamista. Niitä olisi myös kehitettävä osallistavalla tavalla ottamalla mukaan tarvittaessa asiaankuuluvia sidosryhmiä, kuten liike-elämän ja kansalaisyhteiskunnan järjestöt, tiedeyhteisö ja tutkimusorganisaatiot, ammattiliitot ja kuluttajansuojajärjestöt. Komissio voi kehittää aloitteita, myös alakohtaisia aloitteita, vähentääkseen tekoälyn kehittämistä varten tapahtuvaa rajat ylittävää datanvaihtoa haittaavia teknisiä esteitä, muun muassa datan käyttöinfrastruktuurin sekä eri datatyyppien semanttisen ja teknisen yhteentoimivuuden aloilla.
(166)
Es importante que los sistemas de IA asociados a productos que el presente Reglamento no considera de alto riesgo y que, por lo tanto, no están obligados a cumplir los requisitos establecidos para los sistemas de IA de alto riesgo sean, no obstante, seguros una vez introducidos en el mercado o puestos en servicio. Para contribuir a este objetivo, se aplicaría, como red de seguridad, el Reglamento (UE) 2023/988 del Parlamento Europeo y del Consejo (53).
(166)
On tärkeää, että tuotteisiin liittyvät tekoälyjärjestelmät, jotka eivät ole tämän asetuksen mukaisesti suuririskisiä ja joiden ei näin ollen tarvitse täyttää suuririskisille tekoälyjärjestelmille vahvistettuja vaatimuksia, ovat kuitenkin turvallisia, kun ne saatetaan markkinoille tai otetaan käyttöön. Tämän tavoitteen saavuttamiseksi Euroopan parlamentin ja neuvoston asetusta (EU) 2023/988 (53) sovellettaisiin turvaverkkona.
(167)
Todas las partes implicadas en la aplicación del presente Reglamento deben respetar la confidencialidad de la información y los datos que obtengan en el ejercicio de sus funciones, de conformidad con el Derecho de la Unión o nacional, con vistas a garantizar una cooperación fiable y constructiva entre las autoridades competentes a escala de la Unión y nacional. Deben desempeñar sus funciones y actividades de manera que se protejan, en particular, los derechos de propiedad intelectual e industrial, la información empresarial confidencial y los secretos comerciales, la aplicación eficaz del presente Reglamento, los intereses de seguridad pública y nacional, la integridad de los procedimientos penales y administrativos y la integridad de la información clasificada.
(167)
Jotta voidaan varmistaa toimivaltaisten viranomaisten luotettava ja rakentava yhteistyö unionin ja kansallisella tasolla, kaikkien tämän asetuksen soveltamiseen osallistuvien osapuolten olisi kunnioitettava tehtäviään suorittaessaan saamiensa tietojen ja datan luottamuksellisuutta unionin tai kansallisen lainsäädännön mukaisesti. Niiden olisi hoidettava tehtävänsä ja toimensa siten, että suojellaan erityisesti teollis- ja tekijänoikeuksia, luottamuksellisia liiketoimintatietoja ja liikesalaisuuksia, tämän asetuksen tehokasta täytäntöönpanoa, yleisiä ja kansallisia turvallisuusetuja, rikosoikeudellisten ja hallinnollisten menettelyjen koskemattomuutta sekä turvallisuusluokiteltujen tietojen eheyttä.
(168)
Se debe poder exigir el cumplimiento del presente Reglamento mediante la imposición de sanciones y otras medidas de ejecución. Los Estados miembros deben tomar todas las medidas necesarias para garantizar que se apliquen las disposiciones del presente Reglamento, también estableciendo sanciones efectivas, proporcionadas y disuasorias para las infracciones, y para respetar el principio de non bis in idem. A fin de reforzar y armonizar las sanciones administrativas por infracción del presente Reglamento, deben establecerse los límites máximos para la imposición de las multas administrativas en el caso de ciertas infracciones concretas. A la hora de determinar la cuantía de las multas, los Estados miembros deben tener en cuenta, en cada caso concreto, todas las circunstancias pertinentes de la situación de que se trate, considerando especialmente la naturaleza, gravedad y duración de la infracción y de sus consecuencias, así como el tamaño del proveedor, en particular si este es una pyme o una empresa emergente. El Supervisor Europeo de Protección de Datos debe estar facultado para imponer multas a las instituciones, los órganos y los organismos de la Unión incluidos en el ámbito de aplicación del presente Reglamento.
(168)
Tämän asetuksen noudattamisen varmistamiseksi olisi voitava määrätä seuraamuksia ja muita täytäntöönpanotoimenpiteitä. Jäsenvaltioiden olisi toteutettava kaikki tarvittavat toimenpiteet sen varmistamiseksi, että tämän asetuksen säännökset pannaan täytäntöön, myös säätämällä niiden rikkomiseen sovellettavista tehokkaista, oikeasuhteisista ja varoittavista seuraamuksista, ja ne bis in idem -periaatteen noudattamiseksi. Jotta voidaan tehostaa ja yhdenmukaistaa tämän asetuksen rikkomisesta määrättäviä hallinnollisia seuraamuksia, tietyistä rikkomisista määrättäville hallinnollisille sakoille olisi vahvistettava enimmäismäärät. Sakkojen määrää arvioidessaan jäsenvaltioiden olisi kussakin yksittäistapauksessa otettava huomioon kaikki kyseisen tilanteen kannalta merkittävät olosuhteet sekä erityisesti rikkomisen ja sen seurausten luonne, vakavuus ja kesto sekä tarjoajan organisaation koko erityisesti, jos tarjoaja on pk-yritys, startup-yritykset mukaan lukien. Euroopan tietosuojavaltuutetulla olisi oltava valtuudet määrätä sakkoja tämän asetuksen soveltamisalaan kuuluville unionin toimielimille, virastoille ja elimille.
(169)
Se debe poder exigir el cumplimiento de las obligaciones impuestas en virtud del presente Reglamento a los proveedores de modelos de IA de uso general mediante, entre otras cosas, la imposición de multas. A tal fin, también deben establecerse multas de una cuantía apropiada en caso de incumplimiento de dichas obligaciones, lo que incluye el incumplimiento de las medidas solicitadas por la Comisión de conformidad con el presente Reglamento, con sujeción a los plazos de prescripción pertinentes de conformidad con el principio de proporcionalidad. Todas las decisiones adoptadas por la Comisión en virtud del presente Reglamento están sujetas al control del Tribunal de Justicia de la Unión Europea, de conformidad con lo dispuesto en el TFUE, incluida la competencia jurisdiccional plena del Tribunal de Justicia en materia de sanciones con arreglo al artículo 261 del TFUE.
(169)
Yleiskäyttöisten tekoälymallien tarjoajille tämän asetuksen nojalla asetettujen velvoitteiden noudattamisen varmistamiseksi olisi voitava määrätä muun muassa sakkoja. Tätä varten olisi myös vahvistettava asianmukaiset tasot sakoille, joita määrätään kyseisten velvoitteiden rikkomisesta, mukaan lukien komission tämän asetuksen mukaisesti pyytämien toimenpiteiden noudattamatta jättäminen, jollei suhteellisuusperiaatteen mukaisista asianmukaisista vanhentumisajoista muuta johdu. Kaikki tämän asetuksen mukaiset komission päätökset voidaan Euroopan unionin toiminnasta tehdyn Euroopan unionin toiminnasta tehdyn sopimuksen mukaisesti saattaa Euroopan unionin tuomioistuimen tutkittaviksi, mukaan lukien unionin tuomioistuimen täysi harkintavalta seuraamusten osalta Euroopan unionin toiminnasta tehdyn sopimuksen 261 artiklan nojalla.
(170)
El Derecho de la Unión y nacional ya prevén vías de recurso efectivas para las personas físicas y jurídicas cuyos derechos y libertades se vean perjudicados por el uso de sistemas de IA. Sin perjuicio de dichas vías de recurso, toda persona física o jurídica que tenga motivos para considerar que se ha producido una infracción del presente Reglamento debe tener derecho a presentar una reclamación ante la autoridad de vigilancia del mercado pertinente.
(170)
Unionin oikeudessa ja kansallisessa lainsäädännössä säädetään jo tehokkaista oikeussuojakeinoista luonnollisille henkilöille ja oikeushenkilöille, joiden oikeuksiin ja vapauksiin tekoälyjärjestelmien käyttö vaikuttaa haitallisesti. Kaikilla luonnollisilla henkilöillä tai oikeushenkilöillä, joilla on perusteita katsoa, että tätä asetusta on rikottu, olisi oltava oikeus tehdä valitus asianomaiselle markkinavalvontaviranomaiselle.
(171)
Las personas afectadas deben tener derecho a obtener una explicación cuando la decisión de un responsable del despliegue se base principalmente en los resultados de salida de determinados sistemas de IA de alto riesgo que entran dentro del ámbito de aplicación del presente Reglamento y cuando dicha decisión produzca efectos jurídicos o afecte significativamente de modo similar a dichas personas, de manera que consideren que tiene un efecto negativo en su salud, su seguridad o sus derechos fundamentales. Dicha explicación debe ser clara y significativa y servir de base para que las personas afectadas puedan ejercer sus derechos. El derecho a obtener una explicación no debe aplicarse a la utilización de sistemas de IA para los que se deriven excepciones o restricciones con arreglo al Derecho nacional o de la Unión, y solo debe aplicarse en la medida en que este derecho no esté ya previsto en el Derecho de la Unión.
(171)
Henkilöillä, joihin vaikutukset kohdistuvat, olisi oltava oikeus saada selvitys, kun käyttöönottajan päätöksen pääasiallinen perusta on tämän asetuksen soveltamisalaan kuuluvien tiettyjen suuririskisten tekoälyjärjestelmien tuotos ja kun kyseisellä päätöksellä on oikeusvaikutuksia tai se vaikuttaa asianomaisiin henkilöihin vastaavasti merkittävästi tavalla, jonka asianomaiset henkilöt katsovat olevan haitallinen terveyteensä, turvallisuuteensa tai perusoikeuksiinsa nähden. Kyseisen selvityksen olisi oltava selkeä ja merkityksellinen, ja sen olisi tarjottava henkilöille, joihin vaikutukset kohdistuvat, perusta, jonka avulla nämä voivat käyttää oikeuksiaan. Oikeutta selvityksen saamiseen ei pitäisi soveltaa sellaisten tekoälyjärjestelmien käyttöön, joita koskevat poikkeukset tai rajoitukset johtuvat unionin oikeudesta tai kansallisesta lainsäädännöstä, ja tätä olisi sovellettava vain siltä osin kuin kyseessä olevasta oikeudesta ei ole jo säädetty unionin oikeudessa.
(172)
Las personas que informen sobre infracciones del presente Reglamento deben quedar protegidas por el Derecho de la Unión. Así pues, cuando se informe sobre infracciones del presente Reglamento y en lo que respecta a la protección de las personas que informen sobre dichas infracciones debe aplicarse la Directiva (UE) 2019/1937 del Parlamento Europeo y del Consejo (54).
(172)
Henkilöitä, jotka toimivat väärinkäytösten paljastajina tämän asetuksen rikkomistapauksissa, olisi suojeltava unionin oikeuden nojalla. Tämän asetuksen rikkomisesta ilmoittamiseen ja rikkomisesta ilmoittavien henkilöiden suojeluun olisi näin ollen sovellettava Euroopan parlamentin ja neuvoston direktiiviä (EU) 2019/1937 (54).
(173)
A fin de garantizar que el marco reglamentario pueda adaptarse cuando sea necesario, deben delegarse en la Comisión los poderes para adoptar actos con arreglo al artículo 290 del TFUE de modo que pueda modificar las condiciones en las que un sistema de IA no debe considerarse un sistema de alto riesgo, la lista de sistemas de IA de alto riesgo, las disposiciones relativas a la documentación técnica, el contenido de la declaración UE de conformidad, las disposiciones relativas a los procedimientos de evaluación de la conformidad, las disposiciones que establecen a qué sistemas de IA de alto riesgo debe aplicarse el procedimiento de evaluación de la conformidad basado en la evaluación del sistema de gestión de la calidad y en la evaluación de la documentación técnica, el umbral, los parámetros de referencia y los indicadores, lo que incluye la posibilidad de complementar dichos parámetros de referencia e indicadores, de las normas de clasificación de los modelos de IA de uso general con riesgo sistémico, los criterios para clasificar un modelo como modelo de IA de uso general con riesgo sistémico, la documentación técnica para los proveedores de modelos de IA de uso general y la información sobre transparencia para los proveedores de modelos de IA de uso general. Reviste especial importancia que la Comisión lleve a cabo las consultas oportunas durante la fase preparatoria, en particular con expertos, y que esas consultas se realicen de conformidad con los principios establecidos en el Acuerdo interinstitucional de 13 de abril de 2016 sobre la mejora de la legislación (55). En particular, a fin de garantizar una participación equitativa en la preparación de los actos delegados, el Parlamento Europeo y el Consejo reciben toda la documentación al mismo tiempo que los expertos de los Estados miembros, y sus expertos tienen acceso sistemáticamente a las reuniones de los grupos de expertos de la Comisión que se ocupen de la preparación de actos delegados.
(173)
Sen varmistamiseksi, että sääntelykehystä voidaan tarvittaessa mukauttaa, komissiolle olisi siirrettävä valta hyväksyä Euroopan unionin toiminnasta tehdyn sopimuksen 290 artiklan mukaisesti säädösvallan siirron nojalla annettavia delegoituja säädöksiä, joilla muutetaan niitä edellytyksiä, joiden nojalla tekoälyjärjestelmää ei ole pidettävä suuririskisenä, suuririskisten tekoälyjärjestelmien luetteloa, teknistä dokumentaatiota koskevia säännöksiä, EU-vaatimustenmukaisuusvakuutuksen sisältöä, vaatimustenmukaisuuden arviointimenettelyjä koskevia säännöksiä, säännöksiä, joilla määritetään suuririskiset tekoälyjärjestelmät, joihin olisi sovellettava laadunhallintajärjestelmän ja teknisen dokumentaation arviointiin perustuvaa vaatimustenmukaisuuden arviointimenettelyä, kynnystä, vertailuarvoja ja indikaattoreita, muun muassa täydentäen kyseisiä vertailuarvoja ja indikaattoreita, joista on säädetty sellaisten yleiskäyttöisten tekoälymallien, joihin liittyy systeeminen riski, luokittelua koskevissa säännöissä, kriteereitä yleiskäyttöisille tekoälymalleille, joihin liittyy systeeminen riski, yleiskäyttöisten tekoälymallien tarjoajia koskevaa teknistä dokumentaatiota ja yleiskäyttöisten tekoälymallien tarjoajia koskevia avoimuustietoja. On erityisen tärkeää, että komissio asiaa valmistellessaan toteuttaa asianmukaiset kuulemiset, myös asiantuntijatasolla, ja että nämä kuulemiset toteutetaan paremmasta lainsäädännöstä 13 päivänä huhtikuuta 2016 tehdyssä toimielinten välisessä sopimuksessa (55) vahvistettujen periaatteiden mukaisesti. Jotta voitaisiin erityisesti varmistaa tasavertainen osallistuminen delegoitujen säädösten valmisteluun, Euroopan parlamentille ja neuvostolle toimitetaan kaikki asiakirjat samaan aikaan kuin jäsenvaltioiden asiantuntijoille, ja Euroopan parlamentin ja neuvoston asiantuntijoilla on järjestelmällisesti oikeus osallistua komission asiantuntijaryhmien kokouksiin, joissa valmistellaan delegoituja säädöksiä.
(174)
Habida cuenta de los rápidos avances tecnológicos y de los conocimientos técnicos necesarios para la aplicación efectiva del presente Reglamento, la Comisión debe evaluar y revisar el presente Reglamento a más tardar el 2 de agosto de 2029 y posteriormente cada cuatro años e informar al Parlamento Europeo y al Consejo. Además, teniendo en cuenta las implicaciones por lo que respecta al ámbito de aplicación del presente Reglamento, la Comisión debe llevar a cabo una evaluación de la necesidad de modificar la lista de sistemas de IA de alto riesgo y la lista de prácticas prohibidas una vez al año. Asimismo, a más tardar 2 de agosto de 2028 y posteriormente cada cuatro años, la Comisión debe evaluar y comunicar al Parlamento Europeo y al Consejo la necesidad de modificar la lista de ámbitos de alto riesgo que figura en el anexo del presente Reglamento, los sistemas de IA incluidos en el ámbito de aplicación de las obligaciones de transparencia, la eficacia del sistema de supervisión y gobernanza y los avances en el desarrollo de documentos de normalización sobre el desarrollo eficiente desde el punto de vista energético de modelos de IA de uso general, incluida la necesidad de medidas o acciones adicionales. Por último, a más tardar el 2 de agosto de 2028 y posteriormente cada tres años, la Comisión debe evaluar la repercusión y la eficacia de los códigos de conducta voluntarios para fomentar la aplicación de los requisitos establecidos para los sistemas de IA de alto riesgo a los sistemas de IA que no sean sistemas de IA de alto riesgo y, posiblemente, otros requisitos adicionales para dichos sistemas de IA.
(174)
Koska teknologia kehittyy nopeasti ja tämän asetuksen tehokas soveltaminen edellyttää teknistä asiantuntemusta, komission olisi arvioitava ja tarkasteltava tätä asetusta uudelleen viimeistään 2 päivänä elokuuta 2029 [viiden vuoden kuluttua asetuksen voimaantulosta] ja sen jälkeen joka neljäs vuosi ja annettava asiasta kertomus Euroopan parlamentille ja neuvostolle. Komission olisi lisäksi arvioitava kerran vuodessa tarvetta muuttaa suuririskisten tekoälyjärjestelmien luetteloa ja kiellettyjen käytäntöjen luetteloa, ottaen huomioon tämän asetuksen soveltamisalaan kohdistuvat vaikutukset. Lisäksi komission olisi 2 päivään elokuuta 2028 mennessä ja sen jälkeen neljän vuoden välein tehtävä arvio, joka koskee tarvetta muuttaa tämän asetuksen liitteessä olevaa suuririskisten alojen otsikoiden luetteloa, avoimuusvelvoitteiden soveltamisalaan kuuluvia tekoälyjärjestelmiä, valvonta- ja hallintojärjestelmän tehokkuutta ja edistymistä yleiskäyttöisten tekoälymallien energiatehokasta kehittämistä koskevien standardointituotteiden kehittämisessä, mukaan lukien lisätoimenpiteiden tai toimien tarve, ja raportoitava tästä Euroopan parlamentille ja neuvostolle. Komission olisi arvioitava 2 päivään elokuuta 2028 mennessä ja sen jälkeen kolmen vuoden välein vapaaehtoisten käytännesääntöjen vaikutusta ja sitä, kuinka tehokkaasti ne edistävät suuririskisiä tekoälyjärjestelmiä koskevien vaatimusten soveltamista muiden kuin suuririskisten tekoälyjärjestelmien tapauksessa ja mahdollisesti muiden tällaisia tekoälyjärjestelmiä koskevien lisävaatimusten soveltamista.
(175)
A fin de garantizar condiciones uniformes de ejecución del presente Reglamento, deben conferirse a la Comisión competencias de ejecución. Dichas competencias deben ejercerse de conformidad con el Reglamento (UE) n.o 182/2011 del Parlamento Europeo y del Consejo (56).
(175)
Jotta voidaan varmistaa tämän asetuksen yhdenmukainen täytäntöönpano, komissiolle olisi siirrettävä täytäntöönpanovaltaa. Tätä valtaa olisi käytettävä Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 182/2011 (56) mukaisesti.
(176)
Dado que el objetivo del presente Reglamento, a saber, mejorar el funcionamiento del mercado interior y promover la adopción de una IA centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación, no pueden ser alcanzados de manera suficiente por los Estados miembros, sino que, debido a sus dimensiones y efectos, pueden lograrse mejor a escala de la Unión, esta puede adoptar medidas, de acuerdo con el principio de subsidiariedad establecido en el artículo 5 del TUE. De conformidad con el principio de proporcionalidad establecido en el mismo artículo, el presente Reglamento no excede de lo necesario para alcanzar dicho objetivo.
(176)
Jäsenvaltiot eivät voi riittävällä tavalla saavuttaa tämän asetuksen tavoitetta eli parantaa sisämarkkinoiden toimintaa ja edistää ihmiskeskeisen ja luotettavan tekoälyn käyttöönottoa, samalla varmistaen terveyden, turvallisuuden ja perusoikeuskirjassa vahvistettujen perusoikeuksien suojelun korkea taso, mukaan lukien demokratia, oikeusvaltio ja tekoälyjärjestelmien haitallisia vaikutuksia torjuva ympäristönsuojelu unionissa, ja tukea innovointia, vaan se voidaan toiminnan laajuuden tai vaikutusten vuoksi saavuttaa paremmin unionin tasolla. Sen vuoksi unioni voi toteuttaa toimenpiteitä Euroopan unionista tehdyn sopimuksen 5 artiklassa vahvistetun toissijaisuusperiaatteen mukaisesti. Mainitussa artiklassa vahvistetun suhteellisuusperiaatteen mukaisesti tässä asetuksessa ei ylitetä sitä, mikä on tarpeen tämän tavoitteen saavuttamiseksi.
(177)
A fin de garantizar la seguridad jurídica, garantizar un período de adaptación adecuado para los operadores y evitar perturbaciones del mercado, también garantizando la continuidad del uso de los sistemas de IA, es conveniente que el presente Reglamento se aplique a los sistemas de IA de alto riesgo que se hayan introducido en el mercado o se hayan puesto en servicio antes de la fecha general de aplicación del Reglamento únicamente si, a partir de esa fecha, dichos sistemas se ven sometidos a cambios significativos en su diseño o su finalidad prevista. Conviene aclarar que, a este respecto, el concepto de «cambio significativo» debe entenderse como equivalente en sustancia al de «modificación sustancial», que se utiliza únicamente con respecto a los sistemas de IA de alto riesgo de conformidad con el presente Reglamento. Con carácter excepcional y a efectos de la rendición pública de cuentas, los operadores de sistemas de IA que sean componentes de sistemas informáticos de gran magnitud establecidos por los actos jurídicos enumerados en un anexo del presente Reglamento y los operadores de sistemas de IA de alto riesgo destinados a ser utilizados por las autoridades públicas deben adoptar, respectivamente, las medidas necesarias para cumplir los requisitos del presente Reglamento antes del final de 2030 y, a más tardar el 2 de agosto de 2030.
(177)
Jotta voidaan taata oikeusvarmuus, varmistaa asianmukainen sopeutumisaika toimijoille ja välttää markkinoiden vääristyminen, myös varmistamalla tekoälyjärjestelmien käytön jatkuvuus, on asianmukaista, että tätä asetusta sovelletaan suuririskisiin tekoälyjärjestelmiin, jotka on saatettu markkinoille tai otettu käyttöön ennen asetuksen yleistä soveltamispäivää, ainoastaan, jos kyseisten järjestelmien suunnitteluun tai käyttötarkoitukseen tehdään kyseisen päivän jälkeen huomattavia muutoksia. On aiheellista selventää, että tässä yhteydessä huomattavan muutoksen käsitteellä olisi tarkoitettava sisällöltään samaa kuin merkittävän muutoksen käsitteellä, jota käytetään ainoastaan tässä asetuksessa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta. Poikkeuksellisesti ja julkisen vastuuvelvollisuuden vuoksi tämän asetuksen liitteessä luetelluilla säädöksillä perustettujen laaja-alaisten tietojärjestelmien komponentteja olevien tekoälyjärjestelmien ylläpitäjien ja viranomaiskäyttöön tarkoitettujen suuririskisten tekoälyjärjestelmien ylläpitäjien olisi toteutettava tarvittavat toimenpiteet, joilla ne osaltaan varmistavat noudattavansa tämän asetuksen vaatimuksia vuoden 2030 loppuun mennessä ja viimeistään 2 päivänä elokuuta 2030.
(178)
Se anima a los proveedores de sistemas de IA de alto riesgo a que empiecen a cumplir, de forma voluntaria, las obligaciones pertinentes del presente Reglamento ya durante el período transitorio.
(178)
Suuririskisten tekoälyjärjestelmien tarjoajia kannustetaan aloittamaan vapaaehtoisesti tämän asetuksen asiaankuuluvien velvoitteiden noudattaminen jo siirtymäkauden aikana.
(179)
El presente Reglamento debe aplicarse a partir del 2 de agosto de 2026. No obstante, teniendo en cuenta el riesgo inaceptable asociado a determinadas formas de uso de la IA, las prohibiciones, así como las disposiciones generales del presente Reglamento, deben aplicarse ya desde el 2 de febrero de 2025. Aunque dichas prohibiciones no surtan pleno efecto hasta después del establecimiento de la gobernanza y la aplicación del presente Reglamento, es importante anticipar la aplicación de las prohibiciones para tener en cuenta los riesgos inaceptables y adaptar otros procedimientos, por ejemplo, en el ámbito del Derecho civil. Además, la infraestructura relacionada con la gobernanza y el sistema de evaluación de la conformidad deben estar operativos antes de esa fecha, por lo que las disposiciones relativas a los organismos notificados y la estructura de gobernanza deben ser aplicables a partir del 2 de agosto de 2026. Dada la rápida evolución tecnológica y el elevado ritmo de adopción de modelos de IA de uso general, las obligaciones de los proveedores de modelos de IA de uso general deben aplicarse desde el 2 de agosto de 2025. Los códigos de buenas prácticas deben estar finalizados a más tardar el 2 de mayo de 2025 al objeto de permitir a los proveedores demostrar el cumplimiento de sus obligaciones dentro del plazo previsto. La Oficina de IA debe velar por que las normas y los procedimientos de clasificación estén actualizados con arreglo a los avances tecnológicos. Asimismo, los Estados miembros deben establecer y poner en conocimiento de la Comisión las normas referentes a las sanciones, incluidas las multas administrativas, y asegurarse de que para la fecha de aplicación del presente Reglamento se apliquen de manera adecuada y efectiva. Por lo tanto, las disposiciones relativas a las sanciones deben aplicarse a partir del 2 de agosto de 2025.
(179)
Tätä asetusta olisi sovellettava 2 päivästä elokuuta 2026. Kun kuitenkin otetaan huomioon tietyt tekoälyn käyttötavat, joita ei voida hyväksyä, kieltoja ja tämän asetuksen yleisiä säännöksiä olisi sovellettava jo 2 päivästä helmikuuta 2025. Vaikka kyseiset kiellot vaikuttavat täysimääräisesti tätä asetusta koskevaan valvontaan ja sen täytäntöönpanoon, kieltojen soveltamistavan ennakointi on tärkeää, jotta voidaan ottaa huomioon sellainen riski, jota ei voida hyväksyä, ja vaikuttaa muihin menettelyihin esimerkiksi siviilioikeudessa. Hallintoon ja vaatimustenmukaisuuden arviointijärjestelmään liittyvän infrastruktuurin olisi lisäksi oltava toiminnassa ennen 2 päivää elokuuta 2026, minkä vuoksi ilmoitettuja laitoksia ja hallintorakennetta koskevia säännöksiä olisi sovellettava 2 päivästä elokuuta 2026. Kun otetaan huomioon teknologian nopea kehitys ja yleiskäyttöisten tekoälymallien käyttöönotto, yleiskäyttöisten tekoälymallien tarjoajia koskevia velvoitteita olisi sovellettava 2 päivästä elokuuta 2025. Käytännesäännöt olisi vahvistettava viimeistään 2 päivänä toukokuuta 2025, jotta tarjoajat voivat ajoissa osoittaa toimintansa vaatimustenmukaisuuden. Tekoälytoimiston olisi varmistettava, että luokitussäännöt ja -menettelyt ovat ajan tasalla teknologian kehitykseen nähden. Jäsenvaltioiden olisi lisäksi vahvistettava säännöt, jotka koskevat seuraamuksia, myös hallinnollisia sakkoja, ja ilmoitettava niistä komissiolle sekä varmistettava, että ne pannaan asianmukaisesti ja tehokkaasti täytäntöön tämän asetuksen soveltamispäivään mennessä. Sen vuoksi seuraamuksia koskevia säännöksiä olisi sovellettava 2 päivästä elokuuta 2025.
(180)
El Supervisor Europeo de Protección de Datos y el Comité Europeo de Protección de Datos, a los que se consultó de conformidad con el artículo 42, apartados 1 y 2, del Reglamento (UE) 2018/1725, emitieron su dictamen conjunto el 18 de junio de 2021.
(180)
Euroopan tietosuojavaltuutettua ja Euroopan tietosuojaneuvostoa on kuultu asetuksen (EU) 2018/1725 42 artiklan 1 ja 2 kohdan mukaisesti, ja ne ovat antaneet yhteisen lausuntonsa 18 päivänä kesäkuuta 2021,
HAN ADOPTADO EL PRESENTE REGLAMENTO:
OVAT HYVÄKSYNEET TÄMÄN ASETUKSEN:
1. El presente Reglamento se aplicará a:
1. Tätä asetusta sovelletaan
a)
los proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA o que introduzcan en el mercado modelos de IA de uso general en la Unión, con independencia de si dichos proveedores están establecidos o ubicados en la Unión o en un tercer país;
a)
tekoälyjärjestelmien tarjoajiin, jotka saattavat markkinoille tai ottavat käyttöön tekoälyjärjestelmiä tai saattavat markkinoille yleiskäyttöisiä tekoälymalleja unionissa, riippumatta siitä, ovatko kyseiset tarjoajat sijoittautuneet unioniin tai kolmanteen maahan vai sijaitsevatko ne unionissa tai kolmannessa maassa;
b)
los responsables del despliegue de sistemas de IA que estén establecidos o ubicados en la Unión;
b)
unioniin sijoittautuneisiin tai unionissa sijaitseviin tekoälyjärjestelmien käyttöönottajiin;
c)
los proveedores y responsables del despliegue de sistemas de IA que estén establecidos o ubicados en un tercer país, cuando los resultados de salida generados por el sistema de IA se utilicen en la Unión;
c)
kolmannessa maassa kolmanteen maahan sijoittautuneisiin tai sellaisessa sijaitseviin tekoälyjärjestelmien tarjoajiin ja käyttöönottajiin, kun tekoälyjärjestelmän tuottamaa tuotosta käytetään unionissa;
d)
los importadores y distribuidores de sistemas de IA;
d)
tekoälyjärjestelmien maahantuojiin ja jakelijoihin;
e)
los fabricantes de productos que introduzcan en el mercado o pongan en servicio un sistema de IA junto con su producto y con su propio nombre o marca;
e)
tuotteiden valmistajiin, jotka saattavat markkinoille tai ottavat käyttöön tekoälyjärjestelmän yhdessä tuotteensa kanssa ja omalla nimellään tai tavaramerkillään;
f)
los representantes autorizados de los proveedores que no estén establecidos en la Unión;
f)
muualle kuin unioniin sijoittautuneisiin tarjoajien valtuutettuihin edustajiin;
g)
las personas afectadas que estén ubicadas en la Unión.
g)
unioniin sijoittautuneisiin henkilöihin, joihin vaikutukset kohdistuvat.
2. A los sistemas de IA clasificados como sistemas de IA de alto riesgo de conformidad con el artículo 6, apartado 1, y relativos a productos regulados por los actos legislativos de armonización de la Unión enumerados en la sección B del anexo I, únicamente se les aplicará el artículo 6, apartado 1, y los artículos 102 a 109 y el artículo 112. El artículo 57 se aplicará únicamente en la medida en que los requisitos para los sistemas de IA de alto riesgo en virtud del presente Reglamento se hayan integrado en dichos actos legislativos de armonización de la Unión.
2. Tekoälyjärjestelmiin, jotka on luokiteltu suuririskisiksi tekoälyjärjestelmiksi 6 artiklan 1 kohdan mukaisesti ja jotka liittyvät liitteessä I olevassa B jaksossa luetellun unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluviin tuotteisiin, sovelletaan ainoastaan 6 artiklan 1 kohtaa, 102–109 artiklaa ja 112 artiklaa. Asetuksen 57 artiklaa sovelletaan vain siltä osin kuin tämän asetuksen mukaiset suuririskisiä tekoälyjärjestelmiä koskevat vaatimukset on sisällytetty kyseiseen unionin yhdenmukaistamislainsäädäntöön.
3. El presente Reglamento no se aplicará a los ámbitos que queden fuera del ámbito de aplicación del Derecho de la Unión y, en cualquier caso, no afectará a las competencias de los Estados miembros en materia de seguridad nacional, independientemente del tipo de entidad a la que los Estados miembros hayan encomendado el desempeño de tareas en relación con dichas competencias.
3. Tätä asetusta ei sovelleta aloihin, jotka eivät kuulu unionin oikeuden soveltamisalaan, eikä se missään tapauksessa vaikuta kansalliseen turvallisuuteen liittyvään jäsenvaltioiden toimivaltaan riippumatta siitä, minkä tyyppisiä tahoja jäsenvaltiot ovat valtuuttaneet suorittamaan näihin toimivaltuuksiin liittyviä tehtäviä.
El presente Reglamento no se aplicará a los sistemas de IA que, y en la medida en que, se introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin modificaciones, exclusivamente con fines militares, de defensa o de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades.
Tätä asetusta ei sovelleta tekoälyjärjestelmiin, jos ja siltä osin kuin ne saatetaan markkinoille, otetaan käyttöön tai niitä käytetään muutettuina tai muuttamattomina yksinomaan sotilaallisia, puolustuksen tai kansallisen turvallisuuden tarkoituksia varten, riippumatta kyseisiä toimia toteuttavan toimijan tyypistä.
El presente Reglamento no se aplicará a los sistemas de IA que no se introduzcan en el mercado o no se pongan en servicio en la Unión en los casos en que sus resultados de salida se utilicen en la Unión exclusivamente con fines militares, de defensa o de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades.
Tätä asetusta ei sovelleta tekoälyjärjestelmiin, joita ei saateta markkinoille tai oteta käyttöön unionissa, jos tuotosta käytetään unionissa yksinomaan sotilaallisia, puolustuksen tai kansallisen turvallisuuden tarkoituksia varten, riippumatta kyseisiä toimia toteuttavan toimijan tyypistä.
4. El presente Reglamento no se aplicará a las autoridades públicas de terceros países ni a las organizaciones internacionales que entren dentro del ámbito de aplicación de este Reglamento conforme al apartado 1 cuando dichas autoridades u organizaciones utilicen sistemas de IA en el marco de acuerdos o de la cooperación internacionales con fines de garantía del cumplimiento del Derecho y cooperación judicial con la Unión o con uno o varios Estados miembros, siempre que tal tercer país u organización internacional ofrezca garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas.
4. Tätä asetusta ei sovelleta kolmannen maan viranomaisiin eikä tämän asetuksen soveltamisalaan 1 kohdan nojalla kuuluviin kansainvälisiin järjestöihin, jos kyseiset viranomaiset tai järjestöt käyttävät tekoälyjärjestelmiä unionin tai yhden tai useamman jäsenvaltion kanssa tehtyjen lainvalvontaa ja rikosoikeudellista yhteistyötä koskevan kansainvälisen yhteistyön tai sopimusten puitteissa, edellyttäen, että asianomainen kolmas maa tai kansainvälinen järjestö antaa yksityisyydensuojaa, perusoikeuksia ja yksilön vapauksia koskevat riittävät takeet.
5. El presente Reglamento no afectará a la aplicación de las disposiciones relativas a la responsabilidad de los prestadores de servicios intermediarios que figuran en el capítulo II del Reglamento (UE) 2022/2065.
5. Tämä asetus ei vaikuta asetuksen (EU) 2022/2065 II luvussa vahvistettujen välityspalvelujen tarjoajien vastuuta koskevien säännösten soveltamiseen.
6. El presente Reglamento no se aplicará a los sistemas o modelos de IA, incluidos sus resultados de salida, desarrollados y puestos en servicio específicamente con la investigación y el desarrollo científicos como única finalidad.
6. Tätä asetusta ei sovelleta tekoälyjärjestelmiin tai tekoälymalleihin, jotka on erityisesti kehitetty ja otettu käyttöön yksinomaan tieteellistä tutkimusta ja kehittämistä varten, eikä myöskään niiden tuotoksiin.
7. El Derecho de la Unión en materia de protección de los datos personales, la intimidad y la confidencialidad de las comunicaciones se aplicará a los datos personales tratados en relación con los derechos y obligaciones establecidos en el presente Reglamento. El presente Reglamento no afectará a los Reglamentos (UE) 2016/679 o (UE) 2018/1725 ni a las Directivas 2002/58/CE o (UE) 2016/680, sin perjuicio del artículo 10, apartado 5, y el artículo 59 del presente Reglamento.
7. Henkilötietojen suojaa, yksityisyyttä ja viestinnän luottamuksellisuutta koskevaa unionin oikeutta sovelletaan henkilötietoihin, joita käsitellään tässä asetuksessa säädettyjen oikeuksien ja velvoitteiden yhteydessä. Tämä asetus ei vaikuta asetusten (EU) 2016/679 ja (EU) 2018/1725 eikä direktiivien 2002/58/EY ja (EU) 2016/680 soveltamiseen, sanotun kuitenkaan rajoittamatta tämän asetuksen 10 artiklan 5 kohdan ja 59 artiklan soveltamista.
8. El presente Reglamento no se aplicará a ninguna actividad de investigación, prueba o desarrollo relativa a sistemas de IA o modelos de IA antes de su introducción en el mercado o puesta en servicio. Estas actividades se llevarán a cabo de conformidad con el Derecho de la Unión aplicable. Las pruebas en condiciones reales no estarán cubiertas por esa exclusión.
8. Tätä asetusta ei sovelleta mihinkään tekoälyjärjestelmiä tai tekoälymalleja koskevaan tutkimus-, testaus- ja kehittämistoimintaan ennen niiden markkinoille saattamista tai käyttöönottoa. Tällaiset toimet on toteutettava noudattaen sovellettavaa unionin oikeutta. Kyseinen poikkeus ei kata testausta tosielämän olosuhteissa.
9. El presente Reglamento se entenderá sin perjuicio de las normas establecidas por otros actos jurídicos de la Unión relativos a la protección de los consumidores y a la seguridad de los productos.
9. Tällä asetuksella ei rajoiteta muissa kuluttajansuojaan ja tuoteturvallisuuteen liittyvissä unionin säädöksissä vahvistettujen sääntöjen soveltamista.
10. El presente Reglamento no se aplicará a las obligaciones de los responsables del despliegue que sean personas físicas que utilicen sistemas de IA en el ejercicio de una actividad puramente personal de carácter no profesional.
10. Tätä asetusta ei sovelleta niiden käyttöönottajien velvoitteisiin, jotka ovat luonnollisia henkilöitä, jotka käyttävät tekoälyjärjestelmiä pelkästään henkilökohtaisessa muussa kuin ammattitoiminnassa.
11. El presente Reglamento no impedirá que la Unión o los Estados miembros mantengan o introduzcan disposiciones legales, reglamentarias o administrativas que sean más favorables a los trabajadores en lo que atañe a la protección de sus derechos respecto al uso de sistemas de IA por parte de los empleadores ni que fomenten o permitan la aplicación de convenios colectivos que sean más favorables a los trabajadores.
11. Tällä asetuksella ei estetä unionia tai jäsenvaltioita pitämästä voimassa tai ottamasta käyttöön lakeja, asetuksia tai hallinnollisia määräyksiä, jotka ovat työntekijöiden kannalta suotuisampia ja suojelevat heidän oikeuksiaan liittyen tekoälyjärjestelmien käyttöön työnantajien toimesta, tai kannustamasta soveltamaan työntekijöiden kannalta suotuisampia työehtosopimuksia tai sallimasta niiden soveltamisen.
12. El presente Reglamento no se aplicará a los sistemas de IA divulgados con arreglo a licencias libres y de código abierto, a menos que se introduzcan en el mercado o se pongan en servicio como sistemas de IA de alto riesgo o como sistemas de IA que entren en el ámbito de aplicación del artículo 5 o del artículo 50.
12. Tätä asetusta ei sovelleta vapaisiin ja avoimeen lähdekoodiin perustuviin tekoälyjärjestelmiin, paitsi jos ne saatetaan markkinoille tai otetaan käyttöön suuririskisinä tekoälyjärjestelminä taikka 5 tai 50 artiklan soveltamisalaan kuuluvina tekoälyjärjestelminä.
Prácticas de IA prohibidas
Kielletyt tekoälyyn liittyvät käytännöt
1. Quedan prohibidas las siguientes prácticas de IA:
1. Seuraavat tekoälyyn liittyvät käytännöt ovat kiellettyjä:
a)
la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un colectivo de personas, mermando de manera apreciable su capacidad para tomar una decisión informada y haciendo que tomen una decisión que de otro modo no habrían tomado, de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona, a otra persona o a un colectivo de personas;
a)
sellaisen tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tai käyttö, jossa käytetään subliminaalisia tekniikoita, joita henkilö ei havaitse tietoisesti, tai tarkoituksellisesti manipuloivia tai harhaanjohtavia tekniikoita, joiden tavoitteena on vääristää tai jotka olennaisesti vääristävät henkilön tai henkilöryhmän käyttäytymistä heikentäen tuntuvasti tämän kykyä tehdä tietoinen päätös ja saaden tämän tekemään päätöksen, jota tämä ei olisi muussa tapauksessa tehnyt, tavalla, joka aiheuttaa tai kohtuullisella todennäköisyydellä aiheuttaa kyseiselle henkilölle, toiselle henkilölle tai henkilöryhmälle merkittävää haittaa.
b)
la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que explote alguna de las vulnerabilidades de una persona física o un determinado colectivo de personas derivadas de su edad o discapacidad, o de una situación social o económica específica, con la finalidad o el efecto de alterar de manera sustancial el comportamiento de dicha persona o de una persona que pertenezca a dicho colectivo de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona o a otra;
b)
sellaisen tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tai käyttö, jossa hyödynnetään luonnollisen henkilön tai tietyn henkilöryhmän haavoittuvuuksia, jotka liittyvät heidän ikäänsä, vammaansa tai erityiseen sosiaaliseen tai taloudelliseen tilanteeseensa, siten, että tavoitteena tai vaikutuksena on olennaisesti vääristää kyseisen henkilön tai kyseiseen ryhmään kuuluvan henkilön käyttäytymistä tavalla, joka aiheuttaa tai kohtuullisella todennäköisyydellä aiheuttaa kyseiselle henkilölle tai toiselle henkilölle merkittävää haittaa;
c)
la introducción en el mercado, la puesta en servicio o la utilización de sistemas de IA para evaluar o clasificar a personas físicas o a colectivos de personas durante un período determinado de tiempo atendiendo a su comportamiento social o a características personales o de su personalidad conocidas, inferidas o predichas, de forma que la puntuación ciudadana resultante provoque una o varias de las situaciones siguientes:
c)
tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tai käyttö luonnollisten henkilöiden tai henkilöryhmien arvioimiseksi tai luokittelemiseksi tiettynä ajanjaksona heidän sosiaalisen käyttäytymisensä tai tunnettujen, pääteltyjen tai ennakoitujen henkilökohtaisten ominaisuuksiensa tai luonteenpiirteidensä perusteella siten, että sosiaalinen pisteytys johtaa jompaankumpaan tai molempiin seuraavista:
i)
un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos de personas en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos originalmente,
i)
tiettyjen luonnollisten henkilöiden tai henkilöryhmien haitallinen tai epäedullinen kohtelu sosiaalisissa yhteyksissä, jotka eivät liity siihen asiayhteyteen, jossa tiedot alun perin tuotettiin tai kerättiin;
ii)
un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos de personas que sea injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este;
ii)
tiettyjen luonnollisten henkilöiden tai henkilöryhmien haitallinen tai epäedullinen kohtelu, joka on perusteetonta tai suhteetonta heidän sosiaaliseen käyttäytymiseensä tai sen vakavuuteen nähden;
d)
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de un sistema de IA para realizar evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad; esta prohibición no se aplicará a los sistemas de IA utilizados para apoyar la valoración humana de la implicación de una persona en una actividad delictiva que ya se base en hechos objetivos y verificables directamente relacionados con una actividad delictiva;
d)
tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tätä erityistarkoitusta varten tai käyttö luonnollisia henkilöitä koskevien riskinarviointien tekemiseen, jotta voidaan arvioida tai ennustaa sen riskiä, että luonnollinen henkilö syyllistyy rikokseen, kun tämä perustuu yksinomaan luonnollisen henkilön profilointiin tai hänen persoonallisuuspiirteidensä ja persoonallisuusominaisuuksiensa arviointiin; tätä kieltoa ei sovelleta tekoälyjärjestelmiin, joita käytetään tukemaan ihmisen tekemää arviointia jonkun henkilön osallistumisesta rikolliseen toimintaan, kun arvio jo perustuu objektiivisiin ja todennettavissa oleviin tosiseikkoihin, jotka liittyvät suoraan rikolliseen toimintaan;
e)
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión;
e)
sellaisten tekoälyjärjestelmien saattaminen markkinoille, käyttöönotto tähän tiettyyn tarkoitukseen tai käyttö, joilla luodaan tai laajennetaan kasvojentunnistustietokantoja haravoimalla kasvokuvia kohdentamattomasti internetistä tai valvontakamerakuvista;
f)
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA para inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos, excepto cuando el sistema de IA esté destinado a ser instalado o introducido en el mercado por motivos médicos o de seguridad;
f)
tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tätä tarkoitusta varten tai käyttö luonnollisen henkilön tunteiden päättelemiseksi työpaikalla ja oppilaitoksissa, paitsi jos tekoälyjärjestelmän käyttöä on tarkoitus hyödyntää tai saattaa markkinoille lääketieteellisiin tai turvallisuuteen liittyviin tarkoituksiin;
g)
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual; esta prohibición no incluye el etiquetado o filtrado de conjuntos de datos biométricos adquiridos lícitamente, como imágenes, basado en datos biométricos ni la categorización de datos biométricos en el ámbito de la garantía del cumplimiento del Derecho;
g)
sellaisten biometristen luokittelujärjestelmien markkinoille saattaminen, käyttöönotto tätä tiettyä tarkoitusta varten tai sellaisten biometristen luokittelujärjestelmien käyttö, joissa luonnolliset henkilöt luokitellaan heidän biometristen tietojensa perusteella rodun, poliittisten mielipiteiden, ammattiliiton jäsenyyden, uskonnollisen tai filosofisen vakaumuksen, seksuaalisen käyttäytymisen tai seksuaalisen suuntautumisen perusteella; tämä kielto ei koske laillisesti hankittujen biometristen tietoaineistojen, kuten kuvien, merkitsemistä tai suodattamista biometristen tietojen perusteella lainvalvonta-alalla;
h)
el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho, salvo y en la medida en que dicho uso sea estrictamente necesario para alcanzar uno o varios de los objetivos siguientes:
h)
reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö julkisissa tiloissa lainvalvontatarkoituksessa, paitsi jos ja siltä osin kuin se on ehdottoman välttämätöntä jonkin seuraavan tavoitteen saavuttamiseksi:
i)
la búsqueda selectiva de víctimas concretas de secuestro, trata de seres humanos o explotación sexual de seres humanos, así como la búsqueda de personas desaparecidas,
i)
kaappauksen, ihmiskaupan ja seksuaalisen hyväksikäytön uhrien kohdennettu etsintä sekä kadonneiden henkilöiden etsiminen;
ii)
la prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de una amenaza real y actual o real y previsible de un atentado terrorista,
ii)
luonnollisten henkilöiden henkeen tai fyysiseen turvallisuuteen kohdistuvan erityisen, merkittävän ja välittömän uhan taikka aidon ja välittömän tai aidon ja ennakoitavissa olevan terrori-iskun uhan ehkäiseminen;
iii)
la localización o identificación de una persona sospechosa de haber cometido un delito a fin de llevar a cabo una investigación o un enjuiciamiento penales o de ejecutar una sanción penal por alguno de los delitos mencionados en el anexo II que en el Estado miembro de que se trate se castigue con una pena o una medida de seguridad privativas de libertad cuya duración máxima sea de al menos cuatro años.
iii)
rikoksesta epäillyn henkilön paikantaminen tai tunnistaminen liitteessä II tarkoitettujen rikosten tutkintaa tai syytteeseenpanoa tai rikosoikeudellisen seuraamuksen täytäntöönpanoa varten ja joista voi asianomaisessa jäsenvaltiossa seurata vapaudenmenetyksen käsittävä rangaistus tai turvaamistoimenpide, jonka enimmäisaika on vähintään neljä vuotta.
El párrafo primero, letra h), se entiende sin perjuicio de lo dispuesto en el artículo 9 del Reglamento (UE) 2016/679 en lo que respecta al tratamiento de datos biométricos con fines distintos de la garantía del cumplimiento del Derecho.
Ensimmäisen alakohdan h alakohta ei rajoita asetuksen (EU) 2016/679 9 artiklan soveltamista, kun kyse on biometristen tietojen käsittelystä muihin tarkoituksiin kuin lainvalvontaan.
2. El uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho para cualquiera de los objetivos mencionados en el apartado 1, párrafo primero, letra h), debe desplegarse para los fines establecidos en dicha letra, únicamente para confirmar la identidad de la persona que constituya el objetivo específico y tendrá en cuenta los siguientes aspectos:
2. Kun reaaliaikaisia biometrisiä etätunnistusjärjestelmiä käytetään julkisissa tiloissa lainvalvontatarkoituksessa minkä tahansa 1 kohdan ensimmäisen alakohdan h alakohdassa tarkoitetun tavoitteen saavuttamiseksi, käytön on tapahduttava kyseisessä kohdassa vahvistettuihin tarkoituksiin ainoastaan erityisesti kohteena olevan henkilön henkilöllisyyden vahvistamiseksi, ja siinä on otettava huomioon seuraavat seikat:
a)
la naturaleza de la situación que dé lugar al posible uso, y en particular la gravedad, probabilidad y magnitud del perjuicio que se produciría de no utilizarse el sistema;
a)
mahdollisen käytön aiheuttavan tilanteen luonne, erityisesti aiheutuvan vahingon vakavuus, todennäköisyys ja laajuus siinä tapauksessa, että järjestelmää ei käytetä;
b)
las consecuencias que tendría el uso del sistema en los derechos y las libertades de las personas implicadas, y en particular la gravedad, probabilidad y magnitud de dichas consecuencias.
b)
järjestelmän käytön seuraukset kaikkien asianomaisten henkilöiden oikeuksille ja vapauksille, erityisesti näiden seurausten vakavuus, todennäköisyys ja laajuus.
Además, el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho para cualquiera de los objetivos mencionados en el apartado 1, párrafo primero, letra h), del presente artículo deberá cumplir garantías y condiciones necesarias y proporcionadas en relación con el uso de conformidad con el Derecho nacional que autorice dicho uso, en particular en lo que respecta a las limitaciones temporales, geográficas y personales. El uso del sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público solo se autorizará si la autoridad garante del cumplimiento del Derecho ha completado una evaluación de impacto relativa a los derechos fundamentales según lo dispuesto en el artículo 27 y ha registrado el sistema en la base de datos de la UE de conformidad con el artículo 49. No obstante, en casos de urgencia debidamente justificados, se podrá empezar a utilizar tales sistemas sin el registro en la base de datos de la UE, siempre que dicho registro se complete sin demora indebida.
Lisäksi kun reaaliaikaisia biometrisiä etätunnistusjärjestelmiä käytetään julkisissa tiloissa lainvalvontatarkoituksessa minkä tahansa tämän artiklan 1 kohdan ensimmäisen alakohdan h alakohdassa tarkoitetun tavoitteen saavuttamiseksi, on noudatettava käyttöön liittyviä välttämättömiä ja oikeasuhteisia suojatoimia ja edellytyksiä niiden käytön sallivan kansallisen lainsäädännön mukaisesti, erityisesti ajallisia, maantieteellisiä ja henkilötason rajoituksia. Reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö julkisissa tiloissa sallitaan vain, jos lainvalvontaviranomainen on saattanut päätökseen 27 artiklassa tarkoitetun perusoikeuksia koskevan vaikutustenarvioinnin ja rekisteröinyt järjestelmän EU:n tietokantaan 49 artiklan mukaisesti. Asianmukaisesti perustelluissa kiireellisissä tapauksissa tällaisten järjestelmien käyttö voidaan kuitenkin aloittaa ilman rekisteröintiä EU:n tietokantaan edellyttäen, että rekisteröinti saatetaan päätökseen ilman aiheetonta viivytystä.
3. A los efectos del apartado 1, párrafo primero, letra h), y el apartado 2, todo uso de un sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho estará supeditado a la concesión de una autorización previa por parte de una autoridad judicial o una autoridad administrativa independiente cuya decisión sea vinculante del Estado miembro en el que vaya a utilizarse dicho sistema, que se expedirá previa solicitud motivada y de conformidad con las normas detalladas del Derecho nacional mencionadas en el apartado 5. No obstante, en una situación de urgencia debidamente justificada, se podrá empezar a utilizar tal sistema sin autorización siempre que se solicite dicha autorización sin demora indebida, a más tardar en un plazo de veinticuatro horas. Si se rechaza dicha autorización, el uso se interrumpirá con efecto inmediato y todos los datos, así como los resultados y la información de salida generados por dicho uso, se desecharán y suprimirán inmediatamente.
3. Edellä olevan 1 kohdan ensimmäisen alakohdan h alakohdan ja 2 kohdan tarkoituksiin jokainen reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö lainvalvontatarkoituksessa julkisissa tiloissa edellyttää sen jäsenvaltion, jossa käyttö tapahtuu, sellaisen oikeusviranomaisen tai riippumattoman hallintoviranomaisen, jonka päätös on sitova, myöntämää ennakkolupaa, joka annetaan perustellusta pyynnöstä ja 5 kohdassa tarkoitetun kansallisen lainsäädännön yksityiskohtaisten sääntöjen mukaisesti. Asianmukaisesti perustelluissa kiireellisissä tapauksissa tällaisen järjestelmän käyttö voidaan kuitenkin aloittaa ilman lupaa, kunhan asianmukainen lupa pyydetään ilman aiheetonta viivytystä ja viimeistään 24 tunnin kuluessa. Jos tällainen lupa evätään, käyttö on lopetettava välittömästi ja kaikki tiedot sekä tällaiseen käyttöön liittyvät tulokset ja tuotokset on välittömästi poistettava.
La autoridad judicial competente o una autoridad administrativa independiente cuya decisión sea vinculante únicamente concederá la autorización cuando tenga constancia, sobre la base de pruebas objetivas o de indicios claros que se le aporten, de que el uso del sistema de identificación biométrica remota «en tiempo real» es necesario y proporcionado para alcanzar alguno de los objetivos especificados en el apartado 1, párrafo primero, letra h), el cual se indicará en la solicitud, y, en particular, se limita a lo estrictamente necesario en lo que se refiere al período de tiempo, así como al ámbito geográfico y personal. Al pronunciarse al respecto, esa autoridad tendrá en cuenta los aspectos mencionados en el apartado 2. Dicha autoridad no podrá adoptar ninguna decisión que produzca efectos jurídicos adversos para una persona exclusivamente sobre la base de los resultados de salida del sistema de identificación biométrica remota «en tiempo real».
Toimivaltainen oikeusviranomainen tai riippumaton hallintoviranomainen, jonka päätös on sitova, saa myöntää luvan ainoastaan, jos se katsoo sille esitettyjen objektiivisten todisteiden tai selkeiden seikkojen perusteella, että kyseessä oleva reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö on välttämätöntä ja oikeasuhteista jonkin 1 kohdan ensimmäisen alakohdan h alakohdassa tarkoitetun ja pyynnössä yksilöidyn tavoitteen saavuttamiseksi, ja se rajoittuu erityisesti siihen, mikä on ehdottoman välttämätöntä ajanjakson sekä maantieteellisen ja henkilötason soveltamisalan osalta. Toimivaltaisen viranomaisen on pyyntöä koskevaa päätöstä tehdessään otettava huomioon 2 kohdassa tarkoitetut seikat. Päätöstä, jolla on henkilöön kohdistuvia kielteisiä oikeusvaikutuksia, ei saa tehdä pelkästään reaaliaikaisen biometrisen etätunnistusjärjestelmän tuotosten perusteella.
4. Sin perjuicio de lo dispuesto en el apartado 3, todo uso de un sistema de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho se notificará a la autoridad de vigilancia del mercado pertinente y a la autoridad nacional de protección de datos de conformidad con las normas nacionales a que se refiere el apartado 5. La notificación contendrá, como mínimo, la información especificada en el apartado 6 y no incluirá datos operativos sensibles.
4. Jokaisesta reaaliaikaisen biometrisen etätunnistusjärjestelmän käytöstä julkisissa tiloissa lainvalvontatarkoituksiin on ilmoitettava asianomaiselle markkinavalvontaviranomaiselle ja kansalliselle tietosuojaviranomaiselle 5 kohdassa tarkoitettujen kansallisten sääntöjen mukaisesti, sanotun kuitenkaan rajoittamatta 3 kohdan soveltamista. Ilmoituksen on sisällettävä vähintään 6 kohdassa täsmennetyt tiedot, eikä se saa sisältää arkaluonteisia operatiivisia tietoja.
5. Los Estados miembros podrán decidir contemplar la posibilidad de autorizar, ya sea total o parcialmente, el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho dentro de los límites y en las condiciones que se indican en el apartado 1, párrafo primero, letra h), y los apartados 2 y 3. Los Estados miembros de que se trate deberán establecer en sus respectivos Derechos nacionales las normas detalladas necesarias aplicables a la solicitud, la concesión y el ejercicio de las autorizaciones a que se refiere el apartado 3, así como a la supervisión y la presentación de informes relacionadas con estas. Dichas normas especificarán también para qué objetivos de los enumerados en el apartado 1, párrafo primero, letra h), y en su caso en relación con qué delitos de los indicados en la letra h), inciso iii), se podrá autorizar a las autoridades competentes para que utilicen esos sistemas con fines de garantía del cumplimiento del Derecho. Los Estados miembros notificarán dichas normas a la Comisión a más tardar treinta días después de su adopción. Los Estados miembros podrán adoptar, de conformidad con el Derecho de la Unión, leyes más restrictivas sobre el uso de sistemas de identificación biométrica remota.
5. Jäsenvaltio voi päättää säätää mahdollisuudesta sallia kokonaan tai osittain reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö julkisissa tiloissa lainvalvontatarkoituksessa 1 kohdan ensimmäisen alakohdan h alakohdassa sekä 2 ja 3 kohdassa luetelluin rajoituksin ja edellytyksin. Asianomaisten jäsenvaltioiden on vahvistettava kansallisessa lainsäädännössään tarvittavat yksityiskohtaiset säännöt 3 kohdassa tarkoitettujen lupien pyytämistä, myöntämistä ja käyttöä sekä niihin liittyvää valvontaa ja raportointia varten. Näissä säännöissä on myös täsmennettävä, minkä 1 kohdan ensimmäisen alakohdan h alakohdassa lueteltujen tavoitteiden osalta, myös minkä mainitun h alakohdan iii alakohdassa tarkoitettujen rikosten osalta, toimivaltaisille viranomaisille voidaan antaa lupa käyttää kyseisiä järjestelmiä lainvalvontatarkoituksessa. Jäsenvaltioiden on ilmoitettava näistä säännöistä komissiolle viimeistään 30 päivän kuluttua niiden hyväksymisestä. Jäsenvaltiot voivat unionin oikeuden mukaisesti ottaa käyttöön rajoittavampaa lainsäädäntöä biometristen etätunnistusjärjestelmien käytön osalta.
6. Las autoridades nacionales de vigilancia del mercado y las autoridades nacionales de protección de datos de los Estados miembros a las que se haya notificado el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho con arreglo al apartado 4 presentarán a la Comisión informes anuales sobre dicho uso. A tal fin, la Comisión facilitará a los Estados miembros y a las autoridades nacionales de vigilancia del mercado y de protección de datos un modelo que incluya información sobre el número de decisiones adoptadas por las autoridades judiciales competentes o una autoridad administrativa independiente cuya decisión sea vinculante en relación con las solicitudes de autorización de conformidad con el apartado 3, así como su resultado.
6. Kansallisten markkinavalvontaviranomaisten ja jäsenvaltioiden kansallisten tietosuojaviranomaisten, joille on 4 kohdan mukaisesti ilmoitettu reaaliaikaisten biometristen etätunnistusjärjestelmien käytöstä julkisissa tiloissa lainvalvontatarkoituksiin, on toimitettava komissiolle vuosittain raportti tällaisesta käytöstä. Tätä varten komissio toimittaa jäsenvaltioille ja kansallisille markkinavalvonta- ja tietosuojaviranomaisille mallin, joka sisältää tiedot sellaisen toimivaltaisen oikeusviranomaisen tai riippumattoman hallintoviranomaisen, joiden päätös on sitova, tekemien päätösten lukumäärästä, jotka koskevat 3 kohdan mukaisia lupapyyntöjä, ja niiden tuloksista.
7. La Comisión publicará informes anuales sobre el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de garantía del cumplimiento del Derecho elaborados basados en datos agregados relativos a los Estados miembros sobre la base de los informes anuales a que se refiere el apartado 6. Dichos informes anuales no incluirán datos operativos sensibles de las actividades de garantía del cumplimiento del Derecho conexas.
7. Komissio julkaisee vuosittaisia raportteja reaaliaikaisten biometristen etätunnistusjärjestelmien käytöstä julkisissa tiloissa lainvalvontatarkoituksiin jäsenvaltioiden yhdistettyjen tietojen nojalla perustuen 6 kohdassa tarkoitettuihin vuosittaisiin raportteihin. Vuosittaisiin raportteihin ei saa sisältyä arkaluonteisia operatiivisia tietoja asiaan liittyvistä lainvalvontatoimista.
8. El presente artículo no afectará a las prohibiciones aplicables cuando una práctica de IA infrinja otras disposiciones de Derecho de la Unión.
8. Tämä artikla ei vaikuta kieltoihin, joita sovelletaan, jos tekoälyyn liittyvä käytäntö rikkoo muuta unionin oikeutta.
Reglas de clasificación de los sistemas de IA de alto riesgo
Suuririskisten tekoälyjärjestelmien luokitussäännöt
1. Con independencia de si se ha introducido en el mercado o se ha puesto en servicio sin estar integrado en los productos que se mencionan en las letras a) y b), un sistema de IA se considerará de alto riesgo cuando reúna las dos condiciones que se indican a continuación:
1. Riippumatta siitä, saatetaanko tekoälyjärjestelmä markkinoille tai otetaanko se käyttöön erillään a ja b alakohdassa tarkoitetuista tuotteista, kyseistä tekoälyjärjestelmää on pidettävä suuririskisenä, jos molemmat seuraavista edellytyksistä täyttyvät:
a)
que el sistema de IA esté destinado a ser utilizado como componente de seguridad de un producto que entre en el ámbito de aplicación de los actos legislativos de armonización de la Unión enumerados en el anexo I, o que el propio sistema de IA sea uno de dichos productos, y
a)
tekoälyjärjestelmä on tarkoitettu käytettäväksi tuotteen turvakomponenttina tai tekoälyjärjestelmä on itse tuote, joka kuuluu liitteessä I luetellun unionin yhdenmukaistamislainsäädännön soveltamisalaan;
b)
que el producto del que el sistema de IA sea componente de seguridad con arreglo a la letra a), o el propio sistema de IA como producto, deba someterse a una evaluación de la conformidad de terceros para su introducción en el mercado o puesta en servicio con arreglo a los actos legislativos de armonización de la Unión enumerados en el anexo I.
b)
tuotteelle, jonka turvakomponentti on a alakohdan mukaisesti tekoälyjärjestelmä, tai tekoälyjärjestelmälle, joka on itse tuote, on tehtävä kolmannen osapuolen suorittama vaatimustenmukaisuuden arviointi kyseisen tuotteen saattamiseksi markkinoille tai käyttöön ottamiseksi liitteessä I luetellun unionin yhdenmukaistamislainsäädännön mukaisesti.
2. Además de los sistemas de IA de alto riesgo a que se refiere el apartado 1, también se considerarán de alto riesgo los sistemas de IA contemplados en el anexo III.
2. Edellä 1 kohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien lisäksi liitteessä III tarkoitettuja tekoälyjärjestelmiä pidetään suuririskisinä.
3. No obstante lo dispuesto en el apartado 2, un sistema de IA a que se refiere el anexo III no se considerará de alto riesgo cuando no plantee un riesgo importante de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas físicas, también al no influir sustancialmente en el resultado de la toma de decisiones.
3. Poiketen siitä, mitä 2 kohdassa säädetään, liitteessä III tarkoitettua tekoälyjärjestelmää ei ole pidettävä suuririskisenä, jos se ei aiheuta merkittävää vahingon riskiä luonnollisten henkilöiden terveydelle, turvallisuudelle tai perusoikeuksille, mukaan lukien se, että se ei vaikuta olennaisesti päätöksenteon tulokseen.
El párrafo primero se aplicará cuando se cumpla cualquiera de las condiciones siguientes:
Ensimmäistä alakohtaa sovelletaan, jos mikä tahansa seuraavista edellytyksistä täyttyy:
a)
que el sistema de IA esté destinado a realizar una tarea de procedimiento limitada;
a)
tekoälyjärjestelmän tarkoituksena on suorittaa suppea menettelyllinen tehtävä;
b)
que el sistema de IA esté destinado a mejorar el resultado de una actividad humana previamente realizada;
b)
tekoälyjärjestelmän tarkoituksena on parantaa aiemmin suoritetun ihmisen toiminnan tulosta;
c)
que el sistema de IA esté destinado a detectar patrones de toma de decisiones o desviaciones con respecto a patrones de toma de decisiones anteriores y no esté destinado a sustituir la valoración humana previamente realizada sin una revisión humana adecuada, ni a influir en ella, o
c)
tekoälyjärjestelmän tarkoituksena on havaita päätöksentekotapoja tai poikkeamia aiemmista päätöksentekotavoista, eikä sen tarkoituksena ole korvata aiemmin tehtyä ihmisen tekemää arviota tai vaikuttaa siihen ilman asianmukaista ihmisen suorittamaa arviota; tai
d)
que el sistema de IA esté destinado a realizar una tarea preparatoria para una evaluación que sea pertinente a efectos de los casos de uso enumerados en el anexo III.
d)
tekoälyjärjestelmä on tarkoitettu suorittamaan valmistelutehtävä, joka koskee liitteessä III lueteltujen käyttötapausten kannalta merkityksellistä arviointia.
No obstante lo dispuesto en el párrafo primero, los sistemas de IA a que se refiere el anexo III siempre se considerarán de alto riesgo cuando el sistema de IA efectúe la elaboración de perfiles de personas físicas.
Sen estämättä, mitä ensimmäisessä alakohdassa säädetään, liitteessä III tarkoitettua tekoälyjärjestelmää on aina pidettävä suuririskisenä, jos tekoälyjärjestelmä suorittaa luonnollisten henkilöiden profilointia.
4. El proveedor que considere que un sistema de IA contemplado en el anexo III no es de alto riesgo documentará su evaluación antes de que dicho sistema sea introducido en el mercado o puesto en servicio. Dicho proveedor estará sujeto a la obligación de registro establecida en el artículo 49, apartado 2. A petición de las autoridades nacionales competentes, el proveedor facilitará la documentación de la evaluación.
4. Tarjoajan, joka katsoo, että liitteessä III tarkoitettu tekoälyjärjestelmä ei ole suuririskinen, on dokumentoitava arvionsa ennen kuin kyseinen järjestelmä saatetaan markkinoille tai otetaan käyttöön. Tällaiseen tarjoajaan sovelletaan 49 artiklan 2 kohdassa säädettyä rekisteröintivelvollisuutta. Tarjoajan on kansallisten toimivaltaisten viranomaisten pyynnöstä toimitettava arviointia koskevat asiakirjat.
5. La Comisión, previa consulta al Consejo Europeo de Inteligencia Artificial (en lo sucesivo, «Consejo de IA»), y a más tardar el 2 de febrero de 2026, proporcionará directrices que especifiquen la aplicación práctica del presente artículo en consonancia con el artículo 96, junto con una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que sean de alto riesgo y que no sean de alto riesgo.
5. Komissio antaa Euroopan tekoälyneuvostoa, jäljempänä ”tekoälyneuvosto”, kuultuaan ja viimeistään 2 päivänä helmikuuta 2026 ohjeet, joissa täsmennetään tämän artiklan käytännön täytäntöönpano 96 artiklan mukaisesti, sekä kattavan luettelon käytännön esimerkeistä sellaisten tekoälyjärjestelmien käyttötapauksista, jotka ovat suuririskisiä ja muita kuin suuririskisiä.
6. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar el apartado 3, párrafo segundo, del presente artículo, añadiendo nuevas condiciones a las establecidas en dicho apartado, o modificando estas, cuando existan pruebas concretas y fiables de la existencia de sistemas de IA que entren en el ámbito de aplicación del anexo III, pero que no planteen un riesgo importante de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas físicas.
6. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti tämän artiklan 3 kohdan toisen alakohdan muuttamiseksi lisäämällä uusia ehtoja kyseisessä alakohdassa säädettyihin edellytyksiin tai muuttamalla niitä, jos on konkreettista ja luotettavaa näyttöä sellaisten tekoälyjärjestelmien olemassaolosta, jotka kuuluvat liitteen III soveltamisalaan mutta jotka eivät aiheuta merkittävää vahingon riskiä luonnollisten henkilöiden terveydelle, turvallisuudelle tai perusoikeuksille.
7. La Comisión adoptará actos delegados con arreglo al artículo 97 al objeto de modificar el apartado 3, párrafo segundo, del presente artículo, suprimiendo cualquiera de las condiciones establecidas en él, cuando existan pruebas concretas y fiables de que es necesario para mantener el nivel de protección de la salud, la seguridad y los derechos fundamentales previsto en el presente Reglamento.
7. Komissio antaa delegoituja säädöksiä 97 artiklan mukaisesti tämän artiklan 3 kohdan toisen alakohdan muuttamiseksi poistamalla jonkin siinä säädetyn edellytyksen, jos on konkreettista ja luotettavaa näyttöä siitä, että tämä on tarpeen tässä asetuksessa säädetyn terveyden, turvallisuuden ja perusoikeuksien suojelun tason säilyttämiseksi.
8. Ninguna modificación de las condiciones establecidas en el apartado 3, párrafo segundo, adoptada de conformidad con los apartados 6 y 7 del presente artículo, reducirá el nivel global de protección de la salud, la seguridad y los derechos fundamentales previsto en el presente Reglamento, y cualquier modificación garantizará la coherencia con los actos delegados adoptados con arreglo al artículo 7, apartado 1, y tendrá en cuenta la evolución tecnológica y del mercado.
8. Tämän artiklan 6 ja 7 kohdan mukaisesti hyväksytyt, 3 kohdan toisessa alakohdassa säädettyihin edellytyksiin tehtävät muutokset eivät saa heikentää tässä asetuksessa säädetyn terveyden, turvallisuuden ja perusoikeuksien suojelun yleistä tasoa, ja niillä on varmistettava johdonmukaisuus 7 artiklan 1 kohdan nojalla annettujen delegoitujen säädösten kanssa ja otettava huomioon markkinoiden ja teknologian kehityksen.
Sistema de gestión de riesgos
Riskinhallintajärjestelmä
1. Se establecerá, implantará, documentará y mantendrá un sistema de gestión de riesgos en relación con los sistemas de IA de alto riesgo.
1. Suuririskisille tekoälyjärjestelmille on perustettava, pantava täytäntöön ja dokumentoitava riskinhallintajärjestelmä ja sitä on pidettävä yllä.
2. El sistema de gestión de riesgos se entenderá como un proceso iterativo continuo planificado y ejecutado durante todo el ciclo de vida de un sistema de IA de alto riesgo, que requerirá revisiones y actualizaciones sistemáticas periódicas. Constará de las siguientes etapas:
2. Riskinhallintajärjestelmän on käsitettävä iteratiiviseksi prosessiksi, joka jatkuu suunnitellusti suuririskisen tekoälyjärjestelmän koko elinkaaren ajan ja joka on säännöllisesti ja järjestelmällisesti tarkastettava ja saatettava ajan tasalle. Siihen on sisällyttävä seuraavat vaiheet:
a)
la determinación y el análisis de los riesgos conocidos y previsibles que el sistema de IA de alto riesgo pueda plantear para la salud, la seguridad o los derechos fundamentales cuando el sistema de IA de alto riesgo se utilice de conformidad con su finalidad prevista;
a)
niiden tunnettujen ja kohtuudella ennakoitavissa olevien riskien tunnistaminen ja analysointi, joita suuririskinen tekoälyjärjestelmä voi aiheuttaa liittyen terveyteen, turvallisuuteen tai perusoikeuksiin, kun suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti;
b)
la estimación y la evaluación de los riesgos que podrían surgir cuando el sistema de IA de alto riesgo se utilice de conformidad con su finalidad prevista y cuando se le dé un uso indebido razonablemente previsible;
b)
niiden riskien arviointi, joita voi syntyä, kun suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti ja kohtuudella ennakoitavissa olevissa väärinkäyttöolosuhteissa;
c)
la evaluación de otros riesgos que podrían surgir, a partir del análisis de los datos recogidos con el sistema de vigilancia poscomercialización a que se refiere el artículo 72;
c)
muiden mahdollisesti syntyvien riskien arviointi 72 artiklassa tarkoitetusta markkinoille saattamisen jälkeisestä seurantajärjestelmästä kerättyjen tietojen analysoinnin perusteella;
d)
la adopción de medidas adecuadas y específicas de gestión de riesgos diseñadas para hacer frente a los riesgos detectados con arreglo a la letra a).
d)
sellaisten asianmukaisten ja kohdennettujen riskinhallintatoimenpiteiden hyväksyminen, joiden tarkoituksena on puuttua a alakohdan mukaisesti tunnistettuihin riskeihin.
3. Los riesgos a que se refiere el presente artículo son únicamente aquellos que pueden mitigarse o eliminarse razonablemente mediante el desarrollo o el diseño del sistema de IA de alto riesgo o el suministro de información técnica adecuada.
3. Tässä artiklassa tarkoitetut riskit koskevat ainoastaan niitä, joita voidaan kohtuudella lieventää ja poistaa suuririskisen tekoälyjärjestelmän kehittämisen tai suunnittelun avulla tai asianmukaisten teknisten tietojen antamisella.
4. Las medidas de gestión de riesgos mencionadas en el apartado 2, letra d), tendrán debidamente en cuenta los efectos y la posible interacción derivados de la aplicación combinada de los requisitos establecidos en la presente sección, con vistas a reducir al mínimo los riesgos de manera más eficaz al tiempo que se logra un equilibrio adecuado en la aplicación de las medidas para cumplir dichos requisitos.
4. Edellä 2 kohdan d alakohdassa tarkoitetuissa riskinhallintatoimenpiteissä on otettava asianmukaisesti huomioon vaikutukset ja mahdollinen vuorovaikutus, jotka johtuvat tässä jaksossa säädettyjen vaatimusten soveltamisesta yhdessä, jotta voidaan minimoida riskit tehokkaammin ja saavuttaa samalla asianmukainen tasapaino toteutettaessa toimenpiteet kyseisten vaatimusten täyttämiseksi.
5. Las medidas de gestión de riesgos mencionadas en el apartado 2, letra d), considerarán aceptables los riesgos residuales pertinentes asociados a cada peligro, así como el riesgo residual general de los sistemas de IA de alto riesgo.
5. Edellä 2 kohdan d alakohdassa tarkoitettujen riskinhallintatoimenpiteiden on oltava sellaisia, että kuhunkin vaaraan liittyvän asiaankuuluvan jäännösriskin ja suuririskisten tekoälyjärjestelmien kokonaisjäännösriskin katsotaan olevan hyväksyttävällä tasolla.
A la hora de determinar las medidas de gestión de riesgos más adecuadas, se procurará:
Tarkoituksenmukaisimpia riskinhallintatoimenpiteitä määritettäessä on varmistettava seuraavat seikat:
a)
eliminar o reducir los riesgos detectados y evaluados de conformidad con el apartado 2 en la medida en que sea técnicamente viable mediante un diseño y un desarrollo adecuados del sistema de IA de alto riesgo;
a)
2 kohdan nojalla määritettyjen ja arvioitujen riskien poistaminen tai vähentäminen siinä määrin kuin se on teknisesti mahdollista suuririskisen tekoälyjärjestelmän asianmukaisella suunnittelulla ja kehittämisellä;
b)
implantar, cuando proceda, unas medidas de mitigación y control apropiadas que hagan frente a los riesgos que no puedan eliminarse;
b)
tarvittaessa asianmukaisten riskinvähentämis- ja valvontatoimenpiteiden toteuttaminen sellaisiin riskeihin puuttumiseksi, joita ei voida poistaa;
c)
proporcionar la información requerida conforme al artículo 13 y, cuando proceda, impartir formación a los responsables del despliegue.
c)
vaadittavien tietojen antaminen 13 artiklan mukaisesti ja tarvittaessa käyttöönottajille annettava koulutus.
Con vistas a eliminar o reducir los riesgos asociados a la utilización del sistema de IA de alto riesgo, se tendrán debidamente en cuenta los conocimientos técnicos, la experiencia, la educación y la formación que se espera que posea el responsable del despliegue, así como el contexto en el que está previsto que se utilice el sistema.
Suuririskisen tekoälyjärjestelmän käyttöön liittyvien riskien poistamiseksi tai vähentämiseksi on otettava asianmukaisesti huomioon käyttöönottajalta odotettava tekninen tietämys, kokemus ja koulutus sekä oletettu yhteys, jossa järjestelmää on tarkoitus käyttää.
6. Los sistemas de IA de alto riesgo serán sometidos a pruebas destinadas a determinar cuáles son las medidas de gestión de riesgos más adecuadas y específicas. Dichas pruebas comprobarán que los sistemas de IA de alto riesgo funcionan de manera coherente con su finalidad prevista y cumplen los requisitos establecidos en la presente sección.
6. Suuririskiset tekoälyjärjestelmät on testattava tarkoituksenmukaisimpien ja kohdennetuimpien riskinhallintatoimenpiteiden määrittämiseksi. Testauksella on varmistettava, että suuririskiset tekoälyjärjestelmät toimivat johdonmukaisesti käyttötarkoituksensa mukaisesti ja että ne ovat tässä jaksossa vahvistettujen vaatimusten mukaisia.
7. Los procedimientos de prueba podrán incluir pruebas en condiciones reales de conformidad con el artículo 60.
7. Testausmenettelyihin voi sisältyä todellisissa olosuhteissa tapahtuva testaus 60 artiklan mukaisesti.
8. Las pruebas de los sistemas de IA de alto riesgo se realizarán, según proceda, en cualquier momento del proceso de desarrollo y, en todo caso, antes de su introducción en el mercado o puesta en servicio. Las pruebas se realizarán utilizando parámetros y umbrales de probabilidades previamente definidos que sean adecuados para la finalidad prevista del sistema de IA de alto riesgo.
8. Suuririskisten tekoälyjärjestelmien testaus on tapauksen mukaan suoritettava milloin tahansa kehitysprosessin aikana ja joka tapauksessa ennen niiden markkinoille saattamista tai käyttöönottoa. Testauksessa on käytettävä ennalta määriteltyjä mittareita ja todennäköisyyden kynnyksiä, jotka soveltuvat suuririskisen tekoälyjärjestelmän suunniteltuun käyttötarkoitukseen.
9. Cuando se implante el sistema de gestión de riesgos previsto en los apartados 1 a 7, los proveedores prestarán atención a si, en vista de su finalidad prevista, es probable que el sistema de IA de alto riesgo afecte negativamente a las personas menores de dieciocho años y, en su caso, a otros colectivos vulnerables.
9. Edellä 1–7 kohdassa kuvattua riskinhallintajärjestelmää täytäntöön pantaessa tarjoajien on kiinnitettävä huomiota siihen, onko suuririskisellä tekoälyjärjestelmällä todennäköisesti sen käyttötarkoitus huomioon ottaen haitallinen vaikutus alle 18-vuotiaisiin henkilöihin ja tarvittaessa muihin haavoittuvassa asemassa oleviin ryhmiin.
10. En el caso de los proveedores de sistemas de IA de alto riesgo que estén sujetos a requisitos relativos a procesos internos de gestión de riesgos con arreglo a otras disposiciones pertinentes del Derecho de la Unión, los aspectos previstos en los apartados 1 a 9 podrán formar parte de los procedimientos de gestión de riesgos establecidos con arreglo a dicho Derecho, o combinarse con ellos.
10. Niiden suuririskisten tekoälyjärjestelmien tarjoajien osalta, joihin sovelletaan unionin oikeuden muiden asiaankuuluvien säännösten mukaisia sisäisiä riskinhallintaprosesseja koskevia vaatimuksia, 1–9 kohdassa tarkoitetut näkökohdat voivat olla osa kyseisen lainsäädännön nojalla vahvistettuja riskinhallintamenettelyjä tai voidaan yhdistää niihin.
Datos y gobernanza de datos
1. Los sistemas de IA de alto riesgo que utilizan técnicas que implican el entrenamiento de modelos de IA con datos se desarrollarán a partir de conjuntos de datos de entrenamiento, validación y prueba que cumplan los criterios de calidad a que se refieren los apartados 2 a 5 siempre que se utilicen dichos conjuntos de datos.
1. Suuririskiset tekoälyjärjestelmät, joissa hyödynnetään tekniikoita, joihin sisältyy tekoälymallien kouluttaminen datan avulla, on kehitettävä sellaisten koulutus-, validointi- ja testausdatajoukkojen pohjalta, jotka täyttävät 2–5 kohdassa tarkoitetut laatuvaatimukset, kun tällaisia datajoukkoja käytetään.
2. Los conjuntos de datos de entrenamiento, validación y prueba se someterán a prácticas de gobernanza y gestión de datos adecuadas para la finalidad prevista del sistema de IA de alto riesgo. Dichas prácticas se centrarán, en particular, en lo siguiente:
2. Koulutus-, validointi- ja testausdatajoukkoihin on sovellettava suuririskisen tekoälyjärjestelmän käyttötarkoitukseen soveltuvia datanhallinta- ja hallinnointikäytäntöjä. Näiden käytäntöjen on koskettava erityisesti seuraavia seikkoja:
a)
las decisiones pertinentes relativas al diseño;
a)
asiaankuuluvat suunnitteluvalinnat;
b)
los procesos de recogida de datos y el origen de los datos y, en el caso de los datos personales, la finalidad original de la recogida de datos;
b)
datan keruuprosessit ja datan alkuperä sekä henkilötietojen osalta datankeruun alkuperäinen tarkoitus;
c)
las operaciones de tratamiento oportunas para la preparación de los datos, como la anotación, el etiquetado, la depuración, la actualización, el enriquecimiento y la agregación;
c)
asiaankuuluvat tietojenkäsittelytoimet, kuten huomautusten ja tunnisteiden lisääminen, puhdistus, ajantasaistaminen, rikastaminen ja yhdistäminen;
d)
la formulación de supuestos, en particular en lo que respecta a la información que se supone que miden y representan los datos;
d)
oletusten muotoilu erityisesti niiden tietojen osalta, joita datan on tarkoitus mitata ja edustaa;
e)
una evaluación de la disponibilidad, la cantidad y la adecuación de los conjuntos de datos necesarios;
e)
tarvittavien datajoukkojen saatavuuden, määrän ja soveltuvuuden arviointi;
f)
el examen atendiendo a posibles sesgos que puedan afectar a la salud y la seguridad de las personas, afectar negativamente a los derechos fundamentales o dar lugar a algún tipo de discriminación prohibida por el Derecho de la Unión, especialmente cuando las salidas de datos influyan en las informaciones de entrada de futuras operaciones;
f)
sellaisten mahdollisten vinoutumien selvittäminen, jotka todennäköisesti vaikuttavat ihmisten terveyteen ja turvallisuuteen, vaikuttavat kielteisesti perusoikeuksiin tai johtavat unionin oikeudessa kiellettyyn syrjintään, erityisesti silloin, kun tuotokset vaikuttavat tulevien toimintojen syöttötietoihin;
g)
medidas adecuadas para detectar, prevenir y mitigar posibles sesgos detectados con arreglo a la letra f);
g)
asianmukaiset toimenpiteet f alakohdan mukaisesti havaittujen mahdollisten vinoutumien havaitsemiseksi, ehkäisemiseksi ja lieventämiseksi;
h)
la detección de lagunas o deficiencias pertinentes en los datos que impidan el cumplimiento del presente Reglamento, y la forma de subsanarlas.
h)
sellaisten merkityksellisten puuttuvien tai puutteellisten tietojen tunnistaminen, jotka estävät noudattamasta tätä asetusta, ja se, miten nämä puutteet voidaan korjata.
3. Los conjuntos de datos de entrenamiento, validación y prueba serán pertinentes, suficientemente representativos y, en la mayor medida posible, carecerán de errores y estarán completos en vista de su finalidad prevista. Asimismo, tendrán las propiedades estadísticas adecuadas, por ejemplo, cuando proceda, en lo que respecta a las personas o los colectivos de personas en relación con los cuales está previsto que se utilice el sistema de IA de alto riesgo. Los conjuntos de datos podrán reunir esas características para cada conjunto de datos individualmente o para una combinación de estos.
3. Koulutus-, validointi- ja testausdatajoukkojen on oltava käyttötarkoitukseen nähden merkityksellisiä, riittävän edustavia ja niin suurelta osin kuin mahdollista virheettömiä ja täydellisiä. Niillä on oltava asianmukaiset tilastolliset ominaisuudet, tarvittaessa myös niiden henkilöiden tai henkilöryhmien osalta, joihin liittyen suuririskistä tekoälyjärjestelmää on tarkoitus käyttää. Kyseiset datajoukkojen ominaisuudet voidaan saavuttaa yksittäisten datajoukkojen tai niiden yhdistelmän tasolla.
4. Los conjuntos de datos tendrán en cuenta, en la medida necesaria para la finalidad prevista, las características o elementos particulares del entorno geográfico, contextual, conductual o funcional específico en el que está previsto que se utilice el sistema de IA de alto riesgo.
4. Datajoukoissa on otettava käyttötarkoituksen edellyttämässä laajuudessa huomioon ne ominaisuudet tai osatekijät, jotka ovat ominaisia sille maantieteelliselle, viitekehyksenä olevalle, käyttäytymiseen liittyvälle tai toiminnalliselle ympäristölle, jossa suuririskistä tekoälyjärjestelmää on tarkoitus käyttää.
5. En la medida en que sea estrictamente necesario para garantizar la detección y corrección de los sesgos asociados a los sistemas de IA de alto riesgo de conformidad con lo dispuesto en el apartado 2, letras f) y g), del presente artículo, los proveedores de dichos sistemas podrán tratar excepcionalmente las categorías especiales de datos personales siempre que ofrezcan las garantías adecuadas en relación con los derechos y las libertades fundamentales de las personas físicas. Además de las disposiciones establecidas en los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y la Directiva (UE) 2016/680, para que se produzca dicho tratamiento deben cumplirse todas las condiciones siguientes:
5. Siinä määrin kuin se on ehdottoman välttämätöntä suuririskisten tekoälyjärjestelmien vinoutumien havaitsemisen ja korjaamisen varmistamiseksi tämän artiklan 2 kohdan f ja g alakohdan mukaisesti, tällaisten järjestelmien tarjoajat voivat poikkeuksellisesti käsitellä erityisiä henkilötietoryhmiä edellyttäen, että luonnollisten henkilöiden perusoikeudet ja -vapaudet turvataan asianmukaisilla suojatoimilla. Tällainen käsittely edellyttää asetuksissa (EU) 2016/679 ja (EU) 2018/1725 ja direktiivissä (EU) 2016/680 vahvistettujen säännösten lisäksi kaikkien seuraavien ehtojen täyttymistä:
a)
que el tratamiento de otros datos, como los sintéticos o los anonimizados, no permita efectuar de forma efectiva la detección y corrección de sesgos;
a)
vinoutumia ei voida tehokkaasti havaita ja korjata käsittelemällä muita tietoja, kuten synteettisiä tai anonymisoituja tietoja;
b)
que las categorías especiales de datos personales estén sujetas a limitaciones técnicas relativas a la reutilización de los datos personales y a medidas punteras en materia de seguridad y protección de la intimidad, incluida la seudonimización;
b)
erityisiin henkilötietoryhmiin sovelletaan henkilötietojen uudelleenkäyttöä koskevia teknisiä rajoituksia ja viimeisintä kehitystä edustavia tietoturvaa ja yksityisyyden suojaa parantavia toimenpiteitä, kuten pseudonymisointia;
c)
que las categorías especiales de datos personales estén sujetas a medidas para garantizar que los datos personales tratados estén asegurados, protegidos y sujetos a garantías adecuadas, incluidos controles estrictos y documentación del acceso, a fin de evitar el uso indebido y garantizar que solo las personas autorizadas tengan acceso a dichos datos personales con obligaciones de confidencialidad adecuadas;
c)
erityisiin henkilötietoryhmiin kohdistetaan toimenpiteitä, joilla varmistetaan, että käsitellyt henkilötiedot turvataan ja suojataan asianmukaisia suojatoimia noudattaen, mukaan lukien tietoihin pääsyn tiukka valvonta ja dokumentointi, jotta vältetään väärinkäyttö ja varmistetaan, että ainoastaan valtuutetuilla henkilöillä on pääsy kyseisiin henkilötietoihin asianmukaista salassapitovelvollisuutta soveltaen;
d)
que las categorías especiales de datos personales no se transmitan ni transfieran a terceros y que estos no puedan acceder de ningún otro modo a ellos;
d)
erityisiä henkilötietoryhmiä ei välitetä, siirretä tai muutoin saateta muiden osapuolten saataville;
e)
que las categorías especiales de datos personales se eliminen una vez que se haya corregido el sesgo o los datos personales hayan llegado al final de su período de conservación, si esta fecha es anterior;
e)
erityisiä henkilötietoryhmiä poistetaan, kun vinoutuma on korjattu tai kun henkilötietojen säilytysaika on päättynyt, sen mukaan kumpi ajankohdista on aikaisempi;
f)
que los registros de las actividades de tratamiento con arreglo a los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y la Directiva (UE) 2016/680 incluyan las razones por las que el tratamiento de categorías especiales de datos personales era estrictamente necesario para detectar y corregir sesgos, y por las que ese objetivo no podía alcanzarse mediante el tratamiento de otros datos.
f)
asetusten (EU) 2016/679 ja (EU) 2018/1725 sekä direktiivin (EU) 2016/680 mukaisiin käsittelytoimia koskeviin selosteisiin sisältyvät syyt, joiden vuoksi erityisten henkilötietoryhmien käsittely oli ehdottoman välttämätöntä vinoutumien havaitsemiseksi ja korjaamiseksi ja miksi tätä tavoitetta ei voitu saavuttaa käsittelemällä muita tietoja.
6. Para el desarrollo de sistemas de IA de alto riesgo que no empleen técnicas que impliquen el entrenamiento de modelos de IA, los apartados 2 a 5 se aplicarán únicamente a los conjuntos de datos de prueba.
6. Sellaisen suuririskisten tekoälyjärjestelmien kehittämisen osalta, jossa ei käytetä tekniikoita, joihin sisältyy tekoälymallien kouluttaminen, 2–5 kohtaa sovelletaan ainoastaan datajoukkojen testaukseen.
1. La documentación técnica de un sistema de IA de alto riesgo se elaborará antes de su introducción en el mercado o puesta en servicio, y se mantendrá actualizada.
1. Suuririskisen tekoälyjärjestelmän tekninen dokumentaatio on laadittava ennen kuin järjestelmä saatetaan markkinoille tai otetaan käyttöön, ja se on pidettävä ajan tasalla.
La documentación técnica se redactará de modo que demuestre que el sistema de IA de alto riesgo cumple los requisitos establecidos en la presente sección y que proporcione de manera clara y completa a las autoridades nacionales competentes y a los organismos notificados la información necesaria para evaluar la conformidad del sistema de IA con dichos requisitos. Contendrá, como mínimo, los elementos contemplados en el anexo IV. Las pymes, incluidas las empresas emergentes, podrán facilitar los elementos de la documentación técnica especificada en el anexo IV de manera simplificada. A tal fin, la Comisión establecerá un formulario simplificado de documentación técnica orientado a las necesidades de las pequeñas empresas y las microempresas. Cuando una pyme, incluidas las empresas emergentes, opte por facilitar la información exigida en el anexo IV de manera simplificada, utilizará el formulario a que se refiere el presente apartado. Los organismos notificados aceptarán dicho formulario a efectos de la evaluación de la conformidad.
Tekninen dokumentaatio on laadittava siten, että siinä osoitetaan suuririskisen tekoälyjärjestelmän olevan tässä jaksossa vahvistettujen vaatimusten mukainen ja annetaan kansallisille toimivaltaisille viranomaisille ja ilmoitetuille laitoksille tarvittavat tiedot selkeässä ja ymmärrettävässä muodossa sen arvioimiseksi, täyttääkö tekoälyjärjestelmä kyseiset vaatimukset. Sen on sisällettävä vähintään liitteessä IV esitetyt tiedot. Pk-yritykset, mukaan lukien startup-yritykset, voivat toimittaa liitteessä IV täsmennetyn teknisen dokumentaation osat yksinkertaistetulla tavalla. Tätä varten komissio laatii yksinkertaistetun teknisen dokumentaatiolomakkeen, joka on suunnattu pienten ja mikroyritysten tarpeisiin. Jos pk-yritys, myös startup-yritys, päättää toimittaa liitteessä IV vaaditut tiedot yksinkertaistetussa muodossa, sen on käytettävä tässä kohdassa tarkoitettua lomaketta. Ilmoitettujen laitosten on hyväksyttävä kyseinen lomake vaatimustenmukaisuuden arviointia varten.
2. Cuando se introduzca en el mercado o se ponga en servicio un sistema de IA de alto riesgo asociado a un producto que entre en el ámbito de aplicación de los actos legislativos de armonización de la Unión mencionados en el anexo I, sección A, se elaborará un único conjunto de documentos técnicos que contenga toda la información mencionada en el apartado 1, así como la información que exijan dichos actos legislativos.
2. Kun markkinoille saatetaan tai käyttöön otetaan suuririskinen tekoälyjärjestelmä, joka liittyy tuotteeseen, johon sovelletaan liitteessä I olevassa A jaksossa lueteltua unionin yhdenmukaistamislainsäädäntöä, on laadittava kootusti tekninen dokumentaatio, joka sisältää kaikki 1 kohdassa esitetyt tiedot sekä kyseisissä säädöksissä vaaditut tiedot.
3. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar el anexo IV, cuando sea necesario, para garantizar que, en vista de los avances técnicos, la documentación técnica proporcione toda la información necesaria para evaluar si el sistema cumple los requisitos establecidos en la presente sección.
3. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti liitteen IV muuttamiseksi tarvittaessa sen varmistamiseksi, että teknisessä dokumentaatiossa annetaan tekniikan kehityksen perusteella kaikki tarvittavat tiedot sen arvioimiseksi, onko järjestelmä tässä jaksossa vahvistettujen vaatimusten mukainen.
Ihmisen suorittama valvonta
1. Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que puedan ser vigilados de manera efectiva por personas físicas durante el período que estén en uso, lo que incluye dotarlos de herramientas de interfaz humano-máquina adecuadas.
1. Suuririskiset tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että luonnolliset henkilöt voivat tehokkaasti valvoa niitä niiden ollessa käytössä, mukaan lukien asianmukaisten käyttöliittymätyökalujen käyttö.
2. El objetivo de la supervisión humana será prevenir o reducir al mínimo los riesgos para la salud, la seguridad o los derechos fundamentales que pueden surgir cuando se utiliza un sistema de IA de alto riesgo conforme a su finalidad prevista o cuando se le da un uso indebido razonablemente previsible, en particular cuando dichos riesgos persistan a pesar de la aplicación de otros requisitos establecidos en la presente sección.
2. Ihmisen suorittamalla valvonnalla on pyrittävä ehkäisemään tai minimoimaan terveydelle, turvallisuudelle tai perusoikeuksille aiheutuvat riskit, joita voi syntyä, kun suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti tai kohtuudella ennakoitavissa olevissa väärinkäytön olosuhteissa, erityisesti jos tällaiset riskit jatkuvat huolimatta muiden tässä jaksossa vahvistettujen vaatimusten soveltamisesta.
3. Las medidas de supervisión serán proporcionales a los riesgos, al nivel de autonomía y al contexto de uso del sistema de IA de alto riesgo, y se garantizarán bien mediante uno de los siguientes tipos de medidas, bien mediante ambos:
3. Valvontatoimenpiteiden on oltava oikeassa suhteessa suuririskisen tekoälyjärjestelmän riskeihin, itsenäisyyden tasoon ja käyttöympäristöön, ja ne on varmistettava jommallakummalla tai molemmilla seuraavista toimenpidetyypeistä:
a)
las medidas que el proveedor defina y que integre, cuando sea técnicamente viable, en el sistema de IA de alto riesgo antes de su introducción en el mercado o su puesta en servicio;
a)
toimenpiteet, jotka tarjoaja on määrittänyt ja, jos se on teknisesti toteutettavissa, sisällyttänyt suuririskiseen tekoälyjärjestelmään ennen sen markkinoille saattamista tai käyttöönottoa;
b)
las medidas que el proveedor defina antes de la introducción del sistema de IA de alto riesgo en el mercado o de su puesta en servicio y que sean adecuadas para que las ponga en práctica el responsable del despliegue.
b)
toimenpiteet, jotka tarjoaja on määrittänyt ennen suuririskisen tekoälyjärjestelmän markkinoille saattamista tai käyttöönottoa ja jotka on tarkoituksenmukaista toteuttaa käyttöönottajan toimesta.
4. A efectos de la puesta en práctica de lo dispuesto en los apartados 1, 2 y 3, el sistema de IA de alto riesgo se ofrecerá al responsable del despliegue de tal modo que las personas físicas a quienes se encomiende la supervisión humana puedan, según proceda y de manera proporcionada a:
4. Edellä 1, 2 ja 3 kohdan täytäntöönpanoa varten suuririskinen tekoälyjärjestelmä on tarjottava käyttöönottajalle siten, että luonnolliset henkilöt, joiden tehtäväksi ihmisen suorittama valvonta on annettu, voivat tapauksen mukaan ja oikeassa suhteessa niihin nähden
a)
entender adecuadamente las capacidades y limitaciones pertinentes del sistema de IA de alto riesgo y poder vigilar debidamente su funcionamiento, por ejemplo, con vistas a detectar y resolver anomalías, problemas de funcionamiento y comportamientos inesperados;
a)
ymmärtää asianmukaisesti suuririskisen tekoälyjärjestelmän asiaankuuluvat valmiudet ja rajoitukset ja seurata sen toimintaa asianmukaisesti, myös poikkeamien, toimintahäiriöiden ja odottamattoman toiminnan havaitsemiseksi ja niihin puuttumiseksi;
b)
ser conscientes de la posible tendencia a confiar automáticamente o en exceso en los resultados de salida generados por un sistema de IA de alto riesgo («sesgo de automatización»), en particular con aquellos sistemas que se utilizan para aportar información o recomendaciones con el fin de que personas físicas adopten una decisión;
b)
pysyä tietoisina mahdollisesta taipumuksesta luottaa automaattisesti tai liiallisesti suuririskisen tekoälyjärjestelmän tuottamiin tuotoksiin (”automaatiovinouma”), erityisesti sellaisten suuririskisten tekoälyjärjestelmien osalta, joita käytetään tietojen tai suositusten antamiseen luonnollisten henkilöiden tekemiä päätöksiä varten;
c)
interpretar correctamente los resultados de salida del sistema de IA de alto riesgo, teniendo en cuenta, por ejemplo, los métodos y herramientas de interpretación disponibles;
c)
tulkita oikein suuririskisen tekoälyjärjestelmän tuotoksia ottaen huomioon esimerkiksi käytettävissä olevat tulkintavälineet ja -menetelmät;
d)
decidir, en cualquier situación concreta, no utilizar el sistema de IA de alto riesgo o descartar, invalidar o revertir los resultados de salida que este genere;
d)
päättää missä tahansa erityistilanteessa, että suuririskistä tekoälyjärjestelmää ei käytetä, tai muutoin jättää huomiotta, korjata tai peruuttaa suuririskisen tekoälyjärjestelmän tuotokset;
e)
intervenir en el funcionamiento del sistema de IA de alto riesgo o interrumpir el sistema pulsando un botón de parada o mediante un procedimiento similar que permita que el sistema se detenga de forma segura.
e)
puuttua suuririskisen tekoälyjärjestelmän toimintaan tai pysäyttää järjestelmän pysäytyspainikkeella tai vastaavalla menettelyllä, jonka avulla järjestelmä voidaan pysäyttää turvalliseen tilaan.
5. En el caso de los sistemas de IA de alto riesgo mencionados en el anexo III, punto 1, letra a), las medidas a que se refiere el apartado 3 del presente artículo garantizarán, además, que el responsable del despliegue no actúe ni tome ninguna decisión basándose en la identificación generada por el sistema, salvo si al menos dos personas físicas con la competencia, formación y autoridad necesarias han verificado y confirmado por separado dicha identificación.
5. Liitteessä III olevan 1 kohdan a alakohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta tämän artiklan 3 kohdassa tarkoitetuilla toimenpiteillä on lisäksi varmistettava, että käyttöönottaja ei tee mitään toimia tai päätöstä järjestelmästä seuraavan tunnistamisen perusteella, ellei vähintään kaksi luonnollista henkilöä, joilla on tarvittava pätevyys, koulutus ja valtuudet, ole erikseen todentanut ja vahvistanut sitä.
El requisito de la verificación por parte de al menos dos personas físicas por separado no se aplicará a los sistemas de IA de alto riesgo utilizados con fines de garantía del cumplimiento del Derecho, de migración, de control fronterizo o de asilo cuando el Derecho nacional o de la Unión considere que la aplicación de este requisito es desproporcionada.
Vaatimusta vähintään kahden luonnollisen henkilön erikseen tekemästä todentamisesta ei sovelleta suuririskisiin tekoälyjärjestelmiin, joita käytetään lainvalvonnan, muuttoliikkeen hallinnan, rajavalvonnan tai turvapaikka-asioiden tarkoituksiin, jos unionin tai jäsenvaltioiden lainsäädännössä tämän vaatimuksen soveltaminen katsotaan kohtuuttomaksi.
Precisión, solidez y ciberseguridad
Tarkkuus, vakaus ja kyberturvallisuus
1. Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que alcancen un nivel adecuado de precisión, solidez y ciberseguridad y funcionen de manera uniforme en esos sentidos durante todo su ciclo de vida.
1. Suuririskiset tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että ne saavuttavat asianmukaisen tarkkuuden, vakauden ja kyberturvallisuuden tason ja toimivat tässä suhteessa johdonmukaisesti koko elinkaarensa ajan.
2. Para abordar los aspectos técnicos sobre la forma de medir los niveles adecuados de precisión y solidez establecidos en el apartado 1 y cualquier otro parámetro de rendimiento pertinente, la Comisión, en cooperación con las partes interesadas y organizaciones pertinentes, como las autoridades de metrología y de evaluación comparativa, fomentará, según proceda, el desarrollo de parámetros de referencia y metodologías de medición.
2. Jotta voitaisiin käsitellä teknisiä näkökohtia, jotka liittyvät 1 kohdassa vahvistettujen tarkkuuden ja vakauden tasojen mittaamiseen ja muihin mahdollisiin merkityksellisiin suorituskykymittareihin, komissio kannustaa kehittämään vertailuarvoja ja mittausmenetelmiä, tarvittaessa yhteistyössä asiaankuuluvien sidosryhmien ja organisaatioiden, kuten metrologiasta ja vertailuanalyysista vastaavien viranomaisten, kanssa.
3. En las instrucciones de uso que acompañen a los sistemas de IA de alto riesgo se indicarán los niveles de precisión de dichos sistemas, así como los parámetros pertinentes para medirla.
3. Suuririskisten tekoälyjärjestelmien tarkkuustasot ja niihin liittyvät tarkkuusmittarit on ilmoitettava järjestelmän mukana olevissa käyttöohjeissa.
4. Los sistemas de IA de alto riesgo serán lo más resistentes posible en lo que respecta a los errores, fallos o incoherencias que pueden surgir en los propios sistemas o en el entorno en el que funcionan, en particular a causa de su interacción con personas físicas u otros sistemas. Se adoptarán medidas técnicas y organizativas a este respecto.
4. Suuririskisten tekoälyjärjestelmien on siedettävä mahdollisimman paljon virheitä, vikoja tai epäjohdonmukaisuuksia, joita saattaa esiintyä järjestelmässä tai ympäristössä, jossa järjestelmä toimii, erityisesti siksi, että järjestelmät ovat vuorovaikutuksessa luonnollisten henkilöiden tai muiden järjestelmien kanssa. Tältä osin on toteutettava teknisiä ja organisatorisia toimenpiteitä.
La solidez de los sistemas de IA de alto riesgo puede lograrse mediante soluciones de redundancia técnica, tales como copias de seguridad o planes de prevención contra fallos.
Suuririskisten tekoälyjärjestelmien vakaus voidaan saavuttaa teknisillä vararatkaisuilla, joihin voivat kuulua varasuunnitelmat tai vikavarmistussuunnitelmat.
Los sistemas de IA de alto riesgo que continúan aprendiendo tras su introducción en el mercado o puesta en servicio se desarrollarán de tal modo que se elimine o reduzca lo máximo posible el riesgo de que los resultados de salida que pueden estar sesgados influyan en la información de entrada de futuras operaciones (bucles de retroalimentación) y se garantice que dichos bucles se subsanen debidamente con las medidas de reducción de riesgos adecuadas.
Suuririskiset tekoälyjärjestelmät, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen, on kehitettävä siten, että poistetaan tai vähennetään mahdollisimman suurelta osin riski mahdollisesti vinoutuneista tuotoksista, jotka vaikuttavat tulevien toimintojen syöttötietoihin (palautesilmukat) ja varmistetaan, että tällaisiin palautesilmukoihin puututaan asianmukaisin lieventävin toimenpitein.
5. Los sistemas de IA de alto riesgo serán resistentes a los intentos de terceros no autorizados de alterar su uso, sus resultados de salida o su funcionamiento aprovechando las vulnerabilidades del sistema.
5. Suuririskisten tekoälyjärjestelmien on kestettävä asiaankuulumattomien ulkopuolisten tahojen yritykset muuttaa järjestelmän käyttöä, tuotoksia tai suorituskykyä hyödyntämällä järjestelmän haavoittuvuuksia.
Las soluciones técnicas encaminadas a garantizar la ciberseguridad de los sistemas de IA de alto riesgo serán adecuadas a las circunstancias y los riesgos pertinentes.
Suuririskisten tekoälyjärjestelmien kyberturvallisuuden varmistamiseen tähtäävien teknisten ratkaisujen on oltava asianmukaisia asiaan liittyviin olosuhteisiin ja riskeihin nähden.
Entre las soluciones técnicas destinadas a subsanar vulnerabilidades específicas de la IA figurarán, según corresponda, medidas para prevenir, detectar, combatir, resolver y controlar los ataques que traten de manipular el conjunto de datos de entrenamiento («envenenamiento de datos»), o los componentes entrenados previamente utilizados en el entrenamiento («envenenamiento de modelos»), la información de entrada diseñada para hacer que el modelo de IA cometa un error («ejemplos adversarios» o «evasión de modelos»), los ataques a la confidencialidad o los defectos en el modelo.
Teknisiin ratkaisuihin, joilla puututaan tekoälyn erityisiin haavoittuvuuksiin, on tarvittaessa sisällyttävä toimenpiteitä, joilla ehkäistään, havaitaan ja rajoitetaan sellaisia hyökkäyksiä ja vastataan sellaisiin hyökkäyksiin ja ratkaistaan sellaiset hyökkäykset, joilla pyritään manipuloimaan koulutusdatajoukkoa (datamyrkytys) tai koulutuksessa käytettyjä koulutusta edeltäviä komponentteja (mallimyrkytys), syöttötietoja, joiden tarkoituksena on saada tekoälymalli tekemään virhe (adversariaaliset esimerkit tai mallin kiertäminen), luottamuksellisuushyökkäykset tai mallin puutteet.
Sistema de gestión de la calidad
Laadunhallintajärjestelmä
1. Los proveedores de sistemas de IA de alto riesgo establecerán un sistema de gestión de la calidad que garantice el cumplimiento del presente Reglamento. Dicho sistema deberá consignarse de manera sistemática y ordenada en documentación en la que se recojan las políticas, los procedimientos y las instrucciones e incluirá, al menos, los siguientes aspectos:
1. Suuririskisten tekoälyjärjestelmien tarjoajien on otettava käyttöön laadunhallintajärjestelmä, jolla varmistetaan tämän asetuksen noudattaminen. Järjestelmä on dokumentoitava järjestelmällisesti ja täsmällisesti kirjallisiksi periaatteiksi, menettelyiksi ja ohjeiksi, ja siihen on sisällyttävä ainakin seuraavat seikat:
a)
una estrategia para el cumplimiento de la normativa, incluido el cumplimiento de los procedimientos de evaluación de la conformidad y de los procedimientos de gestión de las modificaciones de los sistemas de IA de alto riesgo;
a)
strategia säännösten noudattamista varten, mukaan lukien vaatimustenmukaisuusmenettelyjen ja suuririskisiin tekoälyjärjestelmiin tehtyjen muutosten hallintamenettelyjen noudattaminen;
b)
las técnicas, los procedimientos y las actuaciones sistemáticas que se utilizarán en el diseño y el control y la verificación del diseño del sistema de IA de alto riesgo;
b)
suuririskisen tekoälyjärjestelmän suunnittelussa, suunnittelun valvonnassa ja rakenteen tarkastuksessa käytettävät tekniikat, menettelyt ja järjestelmälliset toimenpiteet;
c)
las técnicas, los procedimientos y las actuaciones sistemáticas que se utilizarán en el desarrollo del sistema de IA de alto riesgo y en el control y el aseguramiento de la calidad de este;
c)
suuririskisen tekoälyjärjestelmän kehittämisessä, laadunvalvonnassa ja laadunvarmistuksessa käytettävät tekniikat, menettelyt ja järjestelmälliset toimenpiteet;
d)
los procedimientos de examen, prueba y validación que se llevarán a cabo antes, durante y después del desarrollo del sistema de IA de alto riesgo, así como la frecuencia con que se ejecutarán;
d)
tarkastus-, testaus- ja validointimenettelyt, jotka on suoritettava ennen suuririskisen tekoälyjärjestelmän kehittämistä, sen aikana ja sen jälkeen, sekä niiden suoritustiheys;
e)
las especificaciones técnicas, incluidas las normas, que se aplicarán y, cuando las normas armonizadas pertinentes no se apliquen en su totalidad o no cubran todos los requisitos pertinentes establecidos en la sección 2, los medios que se utilizarán para velar por que el sistema de IA de alto riesgo cumpla dichos requisitos;
e)
sovellettavat tekniset eritelmät, standardit mukaan luettuina, ja, jos asiaankuuluvia yhdenmukaistettuja standardeja ei sovelleta täysimääräisesti tai ne eivät kata kaikkia 2 jaksossa vahvistettuja asiaankuuluvia vaatimuksia, keinot, joilla varmistetaan, että suuririskinen tekoälyjärjestelmä on kyseisten vaatimusten mukainen;
f)
los sistemas y procedimientos de gestión de datos, lo que incluye su adquisición, recopilación, análisis, etiquetado, almacenamiento, filtrado, prospección, agregación, conservación y cualquier otra operación relacionada con los datos que se lleve a cabo antes de la introducción en el mercado o puesta en servicio de sistemas de IA de alto riesgo y con esa finalidad;
f)
datanhallintajärjestelmät ja -menettelyt, mukaan lukien datanhankinta, datankeruu, datan analysointi, tunnisteiden lisääminen, datan tallentaminen, datan suodattaminen, datanlouhinta, datan yhdistäminen, datan säilyttäminen ja kaikki muut dataan liittyvät toimet, jotka suoritetaan ennen suuririskisten tekoälyjärjestelmien markkinoille saattamista tai käyttöönottoa ja näitä toimia varten;
g)
el sistema de gestión de riesgos que se menciona en el artículo 9;
g)
9 artiklassa tarkoitettu riskinhallintajärjestelmä;
h)
el establecimiento, aplicación y mantenimiento de un sistema de vigilancia poscomercialización de conformidad con el artículo 72;
h)
markkinoille saattamisen jälkeistä seurantaa koskevan järjestelmän perustaminen, toteutus ja ylläpito 72 artiklan mukaisesti;
i)
los procedimientos asociados a la notificación de un incidente grave con arreglo al artículo 73;
i)
menettelyt, jotka liittyvät vakavasta vaaratilanteesta ilmoittamiseen 73 artiklan mukaisesti;
j)
la gestión de la comunicación con las autoridades nacionales competentes, otras autoridades pertinentes, incluidas las que permiten acceder a datos o facilitan el acceso a ellos, los organismos notificados, otros operadores, los clientes u otras partes interesadas;
j)
kansallisten toimivaltaisten viranomaisten, muiden asianomaisten viranomaisten, myös niiden, jotka tarjoavat pääsyn dataan tai tukevat sitä, ilmoitettujen laitosten, muiden toimijoiden, asiakkaiden tai muiden asianomaisten osapuolten kanssa käytävän viestinnän järjestäminen.
k)
los sistemas y procedimientos para llevar un registro de toda la documentación e información pertinente;
k)
järjestelmät ja menettelyt kaiken asiaankuuluvan dokumentaation ja tiedon säilyttämistä varten;
l)
la gestión de los recursos, incluidas medidas relacionadas con la seguridad del suministro;
l)
resurssien hallinta, mukaan lukien toimitusvarmuuteen liittyvät toimenpiteet;
m)
un marco de rendición de cuentas que defina las responsabilidades del personal directivo y de otra índole en relación con todos los aspectos enumerados en este apartado.
m)
vastuuvelvollisuuskehys, jossa määritellään johdon ja muun henkilöstön vastuut kaikkien tässä kohdassa lueteltujen seikkojen osalta.
2. La aplicación de los aspectos mencionados en el apartado 1 será proporcional al tamaño de la organización del proveedor. Los proveedores respetarán, en todo caso, el grado de rigor y el nivel de protección requerido para garantizar la conformidad de sus sistemas de IA de alto riesgo con el presente Reglamento.
2. Edellä 1 kohdassa tarkoitettujen seikkojen toteutuksen on oltava oikeassa suhteessa tarjoajan organisaation kokoon. Tarjoajien on joka tapauksessa noudatettava sellaista kurinalaisuutta ja suojelun tasoa, jota edellytetään sen varmistamiseksi, että suuririskinen tekoälyjärjestelmä on tämän asetuksen mukainen.
3. Los proveedores de sistemas de IA de alto riesgo que estén sujetos a obligaciones relativas a los sistemas de gestión de la calidad o una función equivalente con arreglo al Derecho sectorial pertinente de la Unión podrán incluir los aspectos enumerados en el apartado 1 como parte de los sistemas de gestión de la calidad con arreglo a dicho Derecho.
3. Suuririskisten tekoälyjärjestelmien tarjoajat, joihin sovelletaan asiaankuuluvan alakohtaisen unionin oikeuden mukaisia laadunhallintajärjestelmiä tai vastaavia toimintoja koskevia velvoitteita, voivat sisällyttää 1 kohdassa kuvatut seikat osaksi kyseisen lainsäädännön mukaisia laadunhallintajärjestelmiä.
4. En el caso de los proveedores que sean entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros, se considerará que se ha cumplido la obligación de establecer un sistema de gestión de la calidad, salvo en relación con lo dispuesto en el apartado 1, letras g), h) e i), del presente artículo cuando se respeten las normas sobre los sistemas o procesos de gobernanza interna de acuerdo con el Derecho pertinente de la Unión en materia de servicios financieros. A tal fin, se tendrán en cuenta todas las normas armonizadas que se mencionan en el artículo 40.
4. Niiden tarjoajien osalta, jotka ovat rahoituslaitoksia, joihin sovelletaan niiden sisäisiä hallintojärjestelyjä tai -prosesseja koskevia vaatimuksia unionin rahoituspalvelulainsäädännön nojalla, velvoite ottaa käyttöön laadunhallintajärjestelmä lukuun ottamatta tämän artiklan 1 kohdan g, h ja i alakohtaa katsotaan täytetyksi, kun noudatetaan asiaankuuluvan unionin rahoituspalvelulainsäädännön mukaisia sisäisiä hallintojärjestelyjä tai -prosesseja koskevia sääntöjä. Tätä varten on otettava huomioon 40 artiklassa tarkoitetut yhdenmukaistetut standardit.
Representantes autorizados de los proveedores de sistemas de IA de alto riesgo
Suuririskisten tekoälyjärjestelmien tarjoajien valtuutetut edustajat
1. Antes de comercializar sus sistemas de IA de alto riesgo en el mercado de la Unión, los proveedores establecidos en terceros países tendrán que nombrar, mediante un mandato escrito, a un representante autorizado que esté establecido en la Unión.
1. Kolmansiin maihin sijoittautuneiden tarjoajien on ennen suuririskisten tekoälyjärjestelmiensä asettamista saataville unionin markkinoilla nimettävä kirjallisella toimeksiannolla unioniin sijoittautunut valtuutettu edustaja.
2. Los proveedores permitirán que su representante autorizado pueda efectuar las tareas especificadas en el mandato recibido del proveedor.
2. Tarjoajan on valtuutettava edustajansa suorittamaan tarjoajalta saamassaan toimeksiannossa määritellyt tehtävät.
3. Los representantes autorizados efectuarán las tareas especificadas en el mandato recibido del proveedor. Facilitarán a las autoridades de vigilancia del mercado, cuando lo soliciten, una copia del mandato en una de las lenguas oficiales de las instituciones de la Unión según lo indicado por la autoridad de competente. A los efectos del presente Reglamento, el mandato habilitará al representante autorizado para realizar las tareas siguientes:
3. Valtuutetun edustajan on suoritettava tarjoajalta saamassaan toimeksiannossa määritellyt tehtävät. Valtuutetun edustajan on toimitettava markkinavalvontaviranomaisille pyynnöstä jäljennös toimeksiannosta jollakin toimivaltaisen viranomaisen määrittämällä unionin toimielinten virallisella kielellä. Tämän asetuksen soveltamiseksi toimeksiannossa valtuutetulle edustajalle on annettava valtuudet suorittaa seuraavat tehtävät:
a)
verificar que se han elaborado la declaración UE de conformidad a que se refiere el artículo 47 y la documentación técnica a que se refiere el artículo 11 y que el proveedor ha llevado a cabo un procedimiento de evaluación de la conformidad adecuado;
a)
varmistaa, että 47 artiklassa tarkoitettu EU-vaatimustenmukaisuusvakuutus ja 11 artiklassa tarkoitettu tekninen dokumentaatio on laadittu ja että tarjoaja on toteuttanut asianmukaisen vaatimustenmukaisuuden arviointimenettelyn;
b)
conservar a disposición de las autoridades competentes y de las autoridades u organismos nacionales a que se refiere el artículo 74, apartado 10, durante un período de diez años a contar desde la introducción en el mercado o la puesta en servicio del sistema de IA de alto riesgo, los datos de contacto del proveedor que haya nombrado al representante autorizado, una copia de la declaración UE de conformidad a que se refiere el artículo 47, la documentación técnica y, en su caso, el certificado expedido por el organismo notificado;
b)
pitää toimivaltaisten viranomaisten ja 74 artiklan 10 kohdassa tarkoitettujen kansallisten viranomaisten tai elinten saatavilla 10 vuoden ajan sen jälkeen, kun suuririskinen tekoälyjärjestelmä on saatettu markkinoille tai otettu käyttöön, valtuutetun edustajan nimenneen tarjoajan yhteystiedot, jäljennös 47 artiklassa tarkoitetuista EU-vaatimustenmukaisuusvakuutuksesta, teknisestä dokumentaatiosta ja tarvittaessa ilmoitetun laitoksen antamasta todistuksesta;
c)
proporcionar a una autoridad competente, previa solicitud motivada, toda la información y la documentación, incluida la mencionada en el presente párrafo, letra b), que sean necesarias para demostrar la conformidad de un sistema de IA de alto riesgo con los requisitos establecidos en la sección 2, incluido el acceso a los archivos de registro a que se refiere el artículo 12, apartado 1, generados automáticamente por ese sistema, en la medida en que dichos archivos estén bajo el control del proveedor;
c)
antaa toimivaltaiselle viranomaiselle perustellusta pyynnöstä kaikki tieto ja dokumentaatio, mukaan lukien edellä olevan b alakohdan mukainen tieto ja dokumentaatio, joka on tarpeen sen osoittamiseksi, että suuririskinen tekoälyjärjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen, mukaan lukien pääsy suuririskisen tekoälyjärjestelmän automaattisesti tuottamiin 12 artiklan 1 kohdassa tarkoitettuihin lokitietoihin siltä osin kuin tällaiset lokitiedot ovat tarjoajan hallinnassa;
d)
cooperar con las autoridades competentes, previa solicitud motivada, en todas las acciones que estas emprendan en relación con el sistema de IA de alto riesgo, en particular para reducir y mitigar los riesgos que este presente;
d)
tehdä perustellusta pyynnöstä yhteistyötä toimivaltaisten viranomaisten kanssa kaikissa toimissa, joita nämä toteuttavat suuririskisen tekoälyjärjestelmän suhteen, erityisesti suuririskisen tekoälyjärjestelmän aiheuttamien riskien vähentämiseksi ja lieventämiseksi;
e)
cuando proceda, cumplir las obligaciones de registro a que se refiere el artículo 49, apartado 1, o si el registro lo lleva a cabo el propio proveedor, garantizar que la información a que se refiere el anexo VIII, sección A, punto 3, es correcta.
e)
tarpeen mukaan noudattaa 49 artiklan 1 kohdassa tarkoitettuja rekisteröintivelvoitteita tai, jos rekisteröinnin suorittaa tarjoaja itse, varmistaa, että liitteessä VIII olevan A jakson 3 alakohdassa tarkoitetut tiedot pitävät paikkansa.
El mandato habilitará al representante autorizado para que las autoridades competentes se pongan en contacto con él, además de con el proveedor o en lugar de con el proveedor, con referencia a todas las cuestiones relacionadas con la garantía del cumplimiento del presente Reglamento.
Toimeksiannon ansiosta toimivaltaiset viranomaiset voivat ottaa toimijan lisäksi tai sen puolesta yhteyttä valtuutettuun edustajaan kaikissa tämän asetuksen noudattamisen varmistamiseen liittyvissä kysymyksissä.
4. El representante autorizado pondrá fin al mandato si considera o tiene motivos para considerar que el proveedor contraviene las obligaciones que le atañen con arreglo al presente Reglamento. En tal caso, además, informará de inmediato de la terminación del mandato y de los motivos de esta medida a la autoridad de vigilancia del mercado pertinente, así como, cuando proceda, al organismo notificado pertinente.
4. Valtuutetun edustajan on päätettävä toimeksianto, jos se katsoo tai sillä on syytä katsoa, että tarjoaja toimii tämän asetuksen mukaisten velvoitteidensa vastaisesti. Tässä tapauksessa sen on välittömästi ilmoitettava toimeksiannon päättymisestä ja sen syistä asiaankuuluvalle markkinavalvontaviranomaiselle sekä tapauksen mukaan asiaankuuluvalle ilmoitetulle laitokselle.
Obligaciones de los importadores
Maahantuojien velvollisuudet
1. Antes de introducir un sistema de IA de alto riesgo en el mercado, los importadores se asegurarán de que el sistema sea conforme con el presente Reglamento verificando que:
1. Suuririskisen tekoälyjärjestelmän maahantuojien on ennen tällaisen järjestelmän markkinoille saattamista varmistettava, että järjestelmä on tämän asetuksen mukainen tarkistamalla, että
a)
el proveedor del sistema de IA de alto riesgo haya llevado a cabo el procedimiento de evaluación de la conformidad pertinente a que se refiere el artículo 43;
a)
kyseisen suuririskisen tekoälyjärjestelmän tarjoaja on suorittanut 43 artiklassa tarkoitetun asiaankuuluvan vaatimustenmukaisuuden arviointimenettelyn;
b)
el proveedor haya elaborado la documentación técnica de conformidad con el artículo 11 y el anexo IV;
b)
tarjoaja on laatinut teknisen dokumentaation 11 artiklan ja liitteen IV mukaisesti;
c)
el sistema lleve el marcado CE exigido y vaya acompañado de la declaración UE de conformidad a que se refiere el artículo 47 y de las instrucciones de uso;
c)
järjestelmällä on vaadittu CE-merkintä ja sen mukana on 47 artiklassa tarkoitettu EU-vaatimustenmukaisuusvakuutus ja käyttöohjeet.
d)
el proveedor haya designado a un representante autorizado de conformidad con el artículo 22, apartado 1.
d)
tarjoaja on nimittänyt valtuutetun edustajan 22 artiklan 1 kohdan mukaisesti.
2. Si el importador tiene motivos suficientes para considerar que un sistema de IA de alto riesgo no es conforme con el presente Reglamento, ha sido falsificado o va acompañado de documentación falsificada, no lo introducirá en el mercado hasta que se haya conseguido la conformidad de dicho sistema. Si el sistema de IA de alto riesgo presenta un riesgo en el sentido del artículo 79, apartado 1, el importador informará de ello al proveedor del sistema, a los representantes autorizados y a las autoridades de vigilancia del mercado.
2. Jos maahantuojalla on riittävät syyt katsoa, että suuririskinen tekoälyjärjestelmä ei ole tämän asetuksen mukainen tai se on väärennetty tai sen mukana on väärennetty dokumentaatio, se ei saa saattaa kyseistä tekoälyjärjestelmää markkinoille ennen kuin se on saatettu vaatimusten mukaiseksi. Jos suuririskinen tekoälyjärjestelmä aiheuttaa 79 artiklan 1 kohdassa tarkoitetun riskin, maahantuojan on ilmoitettava asiasta järjestelmän tarjoajalle, valtuutetuille edustajille ja markkinavalvontaviranomaisille.
3. Los importadores indicarán, en el embalaje del sistema de IA de alto riesgo o en la documentación que lo acompañe, cuando proceda, su nombre, su nombre comercial registrado o marca registrada y su dirección de contacto.
3. Maahantuojien on ilmoitettava nimensä, rekisteröity tuotenimensä tai rekisteröity tavaramerkkinsä sekä osoite, josta maahantuojaan voidaan saada yhteys, suuririskisessä tekoälyjärjestelmässä ja sen pakkauksessa tai tarvittaessa sen mukana seuraavassa dokumentaatiossa.
4. Mientras sean responsables de un sistema de IA de alto riesgo, los importadores se asegurarán de que las condiciones de almacenamiento o transporte, cuando proceda, no comprometan el cumplimiento de los requisitos establecidos en la sección 2 por parte de dicho sistema.
4. Maahantuojien on varmistettava, että sinä aikana, jona suuririskinen tekoälyjärjestelmä on niiden vastuulla, tapauksen mukaan varastointi- tai kuljetusolosuhteet eivät vaaranna sen tämän osaston 2 jaksossa vahvistettujen vaatimusten mukaisuutta.
5. Los importadores conservarán, durante un período de diez años a contar desde la introducción en el mercado o la puesta en servicio del sistema de IA de alto riesgo, una copia del certificado expedido por el organismo notificado, en su caso, de las instrucciones de uso y de la declaración UE de conformidad a que se refiere el artículo 47.
5. Maahantuojien on säilytettävä 10 vuoden ajan sen jälkeen, kun suuririskinen tekoälyjärjestelmä on saatettu markkinoille tai otettu käyttöön, jäljennös ilmoitetun laitoksen antamasta todistuksesta, tarvittaessa käyttöohjeista ja 47 artiklassa tarkoitetusta EU-vaatimustenmukaisuusvakuutuksesta.
6. Los importadores proporcionarán a las autoridades competentes pertinentes, previa solicitud motivada, toda la información y la documentación, incluidas las referidas en el apartado 5, que sean necesarias para demostrar la conformidad de un sistema de IA de alto riesgo con los requisitos establecidos en la sección 2 en una lengua que estas puedan entender fácilmente. A tal efecto, velarán asimismo por que la documentación técnica pueda ponerse a disposición de esas autoridades.
6. Maahantuojien on asiaankuuluvien toimivaltaisten viranomaisten perustellusta pyynnöstä toimitettava niille kaikki tieto ja dokumentaatio, mukaan lukien 5 kohdassa tarkoitettu tieto ja dokumentaatio, joka on tarpeen sen osoittamiseksi, että suuririskinen tekoälyjärjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen, kyseessä olevan viranomaisen helposti ymmärtämällä kielellä. Tätä varten niiden on myös varmistettava, että tekninen dokumentaatio voidaan asettaa kyseisten viranomaisten saataville.
7. Los importadores cooperarán con las autoridades competentes pertinentes en cualquier medida que estas adopten en relación con un sistema de IA de alto riesgo introducido en el mercado por los importadores, en particular para reducir y mitigar los riesgos que este presente.
7. Maahantuojien on tehtävä yhteistyötä asiaankuuluvien toimivaltaisten viranomaisten kanssa kaikissa toimissa, joita kyseiset viranomaiset toteuttavat maahantuojien markkinoille saattaman suuririskisen tekoälyjärjestelmän suhteen, erityisesti sen aiheuttamien riskien vähentämiseksi ja lieventämiseksi.
Obligaciones de los distribuidores
Jakelijoiden velvollisuudet
1. Antes de comercializar un sistema de IA de alto riesgo, los distribuidores verificarán que este lleve el marcado CE exigido, que vaya acompañado de una copia de la declaración UE de conformidad a que se refiere el artículo 47 y de las instrucciones de uso, y que el proveedor y el importador de dicho sistema, según corresponda, hayan cumplido sus obligaciones establecidas en el artículo 16, letras b) y c), y el artículo 23, apartado 3, respectivamente.
1. Jakelijoiden on ennen suuririskisen tekoälyjärjestelmän asettamista saataville markkinoilla tarkastettava, että siinä on vaadittu CE-merkintä, että sen mukana on jäljennös 47 artiklassa tarkoitetusta EU-vaatimustenmukaisuusvakuutuksesta ja käyttöohjeista ja että tapauksen mukaan kyseisen järjestelmän tarjoaja ja maahantuoja ovat noudattaneet 16 artiklan b ja c alakohdassa ja 23 artiklan 3 kohdassa säädettyjä velvoitteitaan.
2. Si un distribuidor considera o tiene motivos para considerar, con arreglo a la información en su poder, que un sistema de IA de alto riesgo no es conforme con los requisitos establecidos en la sección 2, no lo comercializará hasta que se haya conseguido esa conformidad. Además, si el sistema de IA de alto riesgo presenta un riesgo en el sentido del artículo 79, apartado 1, el distribuidor informará de ello al proveedor o importador del sistema, según corresponda.
2. Mikäli jakelija katsoo tai sillä on hallussaan olevien tietojen perusteella syytä uskoa, että suuririskinen tekoälyjärjestelmä ei ole 2 jaksossa vahvistettujen vaatimusten mukainen, se ei saa asettaa suuririskistä tekoälyjärjestelmää saataville markkinoilla ennen kuin järjestelmä on saatettu kyseisten vaatimusten mukaiseksi. Lisäksi jos suuririskinen tekoälyjärjestelmä aiheuttaa 79 artiklan 1 kohdassa tarkoitetun riskin, jakelijan on ilmoitettava asiasta tapauksen mukaan tarjoajalle tai maahantuojalle.
3. Mientras sean responsables de un sistema de IA de alto riesgo, los distribuidores se asegurarán de que las condiciones de almacenamiento o transporte, cuando proceda, no comprometen el cumplimiento por parte del sistema de los requisitos establecidos en la sección 2.
3. Jakelijoiden on varmistettava, että sinä aikana, jona suuririskinen tekoälyjärjestelmä on niiden vastuulla, tapauksen mukaan varastointi- tai kuljetusolosuhteet eivät vaaranna sen 2 jaksossa vahvistettujen vaatimusten mukaisuutta.
4. Los distribuidores que consideren o tengan motivos para considerar, con arreglo a la información en su poder, que un sistema de IA de alto riesgo que han comercializado no es conforme con los requisitos establecidos en la sección 2 adoptarán las medidas correctoras necesarias para que sea conforme, para retirarlo del mercado o recuperarlo, o velarán por que el proveedor, el importador u otro operador pertinente, según proceda, adopte dichas medidas correctoras. Cuando un sistema de IA de alto riesgo presente un riesgo en el sentido del artículo 79, apartado 1, su distribuidor informará inmediatamente de ello al proveedor o al importador del sistema y a las autoridades competentes respecto al sistema de IA de alto riesgo de que se trate y dará detalles, en particular, sobre la no conformidad y las medidas correctoras adoptadas.
4. Jakelijan, joka katsoo tai jolla on hallussaan olevien tietojen perusteella syytä uskoa, että sen markkinoilla saataville asettama suuririskinen tekoälyjärjestelmä ei ole 2 jaksossa vahvistettujen vaatimusten mukainen, on toteutettava tarvittavat korjaavat toimenpiteet kyseisen järjestelmän saattamiseksi vaatimusten mukaiseksi, sen poistamiseksi markkinoilta tai sitä koskevan palautusmenettelyn järjestämiseksi tai varmistettava, että tarvittaessa tarjoaja, maahantuoja tai mikä tahansa asiaankuuluva toimija toteuttaa kyseiset korjaavat toimenpiteet. Mikäli suuririskinen tekoälyjärjestelmä aiheuttaa 79 artiklan 1 kohdassa tarkoitetun riskin, jakelijan on välittömästi ilmoitettava asiasta järjestelmän tarjoajalle tai maahantuojalle ja asianomaisen suuririskisen tekoälyjärjestelmän osalta toimivaltaisille viranomaisille ja annettava yksityiskohtaiset tiedot erityisesti vaatimustenvastaisuudesta ja mahdollisesti toteutetuista korjaavista toimenpiteistä.
5. Previa solicitud motivada de una autoridad competente pertinente, los distribuidores de un sistema de IA de alto riesgo proporcionarán a esa autoridad toda la información y la documentación relativas a sus actuaciones con arreglo a los apartados 1 a 4 que sean necesarias para demostrar que dicho sistema cumple los requisitos establecidos en la sección 2.
5. Suuririskisen tekoälyjärjestelmän jakelijoiden on asiaankuuluvan toimivaltaisen viranomaisen perustellusta pyynnöstä toimitettava kyseiselle viranomaiselle kaikki niiden 1–4 kohdan mukaisia toimia koskevat tiedot ja dokumentaatio, jotka ovat tarpeen sen osoittamiseksi, että kyseinen järjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen.
6. Los distribuidores cooperarán con las autoridades competentes pertinentes en cualquier medida que estas adopten en relación con un sistema de IA de alto riesgo comercializado por los distribuidores, en particular para reducir o mitigar los riesgos que este presente.
6. Jakelijoiden on tehtävä yhteistyötä asiaankuuluvien toimivaltaisten viranomaisten kanssa kaikissa toimissa, joita nämä viranomaiset toteuttavat jakelijoiden markkinoilla saataville asettaman suuririskisen tekoälyjärjestelmän suhteen, erityisesti sen aiheuttamien riskien vähentämiseksi tai lieventämiseksi.
Responsabilidades a lo largo de la cadena de valor de la IA
Vastuut tekoälyn arvoketjussa
1. Cualquier distribuidor, importador, responsable del despliegue o tercero será considerado proveedor de un sistema de IA de alto riesgo a los efectos del presente Reglamento y estará sujeto a las obligaciones del proveedor previstas en el artículo 16 en cualquiera de las siguientes circunstancias:
1. Mitä tahansa jakelijaa, maahantuojaa, käyttöönottajaa tai muuta kolmatta osapuolta pidetään tätä asetusta sovellettaessa suuririskisen tekoälyjärjestelmän tarjoajana ja niitä koskevat samat velvoitteet kuin tarjoajaa 16 artiklan mukaisesti missä tahansa seuraavissa olosuhteissa:
a)
cuando ponga su nombre o marca en un sistema de IA de alto riesgo previamente introducido en el mercado o puesto en servicio, sin perjuicio de los acuerdos contractuales que estipulen que las obligaciones se asignan de otro modo;
a)
ne laittavat nimensä tai tavaramerkkinsä suuririskiseen tekoälyjärjestelmään, joka on jo saatettu markkinoille tai otettu käyttöön, sanotun kuitenkaan rajoittamatta sopimusjärjestelyjä, joissa määrätään, että velvoitteet jaetaan muulla tavoin;
b)
cuando modifique sustancialmente un sistema de IA de alto riesgo que ya haya sido introducido en el mercado o puesto en servicio de tal manera que siga siendo un sistema de IA de alto riesgo con arreglo al artículo 6;
b)
ne tekevät jo markkinoille saatettuun tai jo käyttöön otettuun suuririskiseen tekoälyjärjestelmään merkittävän muutoksen siten, että se pysyy 6 artiklan mukaisena suuririskisenä tekoälyjärjestelmänä;
c)
cuando modifique la finalidad prevista de un sistema de IA, incluido un sistema de IA de uso general, que no haya sido considerado de alto riesgo y ya haya sido introducido en el mercado o puesto en servicio, de tal manera que el sistema de IA de que se trate se convierta en un sistema de IA de alto riesgo de conformidad con el artículo 6.
c)
ne muuttavat tekoälyjärjestelmän, myös yleiskäyttöisen tekoälyjärjestelmän, jota ei ole luokiteltu suuririskiseksi ja joka on jo saatettu markkinoille tai otettu käyttöön, käyttötarkoitusta siten, että tekoälyjärjestelmästä tulee 6 artiklan mukainen suuririskinen tekoälyjärjestelmä.
2. Cuando se den las circunstancias mencionadas en el apartado 1, el proveedor que inicialmente haya introducido en el mercado el sistema de IA o lo haya puesto en servicio dejará de ser considerado proveedor de ese sistema de IA específico a efectos del presente Reglamento. Ese proveedor inicial cooperará estrechamente con los nuevos proveedores y facilitará la información necesaria, el acceso técnico u otra asistencia razonablemente previstos que sean necesarios para el cumplimiento de las obligaciones establecidas en el presente Reglamento, en particular en lo que respecta al cumplimiento de la evaluación de la conformidad de los sistemas de IA de alto riesgo. El presente apartado no se aplicará en los casos en que el proveedor inicial haya indicado claramente que su sistema de IA no debe ser transformado en un sistema de IA de alto riesgo y, por lo tanto, no está sujeto a la obligación de facilitar la documentación.
2. Edellä 1 kohdassa tarkoitetuissa tilanteissa tarjoajaa, joka on alun perin saattanut tekoälyjärjestelmän markkinoille tai ottanut sen käyttöön, ei enää pidetä kyseisen tekoälyjärjestelmän tarjoajana tätä asetusta sovellettaessa. Kyseisen alkuperäisen tarjoajan on tehtävä tiivistä yhteistyötä uusien tarjoajien kanssa ja asetettava saataville tarvittavat tiedot ja tarjottava kohtuudella odotettavissa olevat tekninen pääsy ja muu apu, joita tämän asetuksen mukaisten velvoitteiden täyttäminen edellyttää, erityisesti suuririskisten tekoälyjärjestelmien vaatimustenmukaisuuden arvioinnin noudattamisen osalta. Tätä kohtaa ei sovelleta tapauksissa, joissa alkuperäinen tarjoaja on selkeästi täsmentänyt, että sen tekoälyjärjestelmää ei saa muuttaa suuririskiseksi tekoälyjärjestelmäksi eikä siihen sen vuoksi sovelleta dokumentaation luovuttamisvelvoitetta.
3. En el caso de los sistemas de IA de alto riesgo que sean componentes de seguridad de productos contemplados en los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, el fabricante del producto será considerado proveedor del sistema de IA de alto riesgo y estará sujeto a las obligaciones previstas en el artículo 16 en alguna de las siguientes circunstancias:
3. Niiden suuririskisten tekoälyjärjestelmien osalta, jotka ovat sellaisten tuotteiden turvakomponentteja, joihin sovelletaan liitteessä I olevassa A jaksossa lueteltua unionin yhdenmukaistamislainsäädäntöä, tuotteen valmistajaa pidetään suuririskisen tekoälyjärjestelmän tarjoajana, ja siihen sovelletaan 16 artiklan mukaisia velvoitteita jommassakummassa seuraavista olosuhteista:
a)
que el sistema de IA de alto riesgo se introduzca en el mercado junto con el producto bajo el nombre o la marca del fabricante del producto;
a)
suuririskinen tekoälyjärjestelmä saatetaan markkinoille yhdessä tuotteen kanssa tuotteen valmistajan nimellä tai tavaramerkillä;
b)
que el sistema de IA de alto riesgo se ponga en servicio bajo el nombre o la marca del fabricante del producto después de que el producto haya sido introducido en el mercado.
b)
suuririskinen tekoälyjärjestelmä otetaan käyttöön tuotteen valmistajan nimellä tai tavaramerkillä sen jälkeen, kun tuote on saatettu markkinoille.
4. El proveedor de un sistema de IA de alto riesgo y el tercero que suministre un sistema de IA de alto riesgo, herramientas, servicios, componentes o procesos que se utilicen o integren en un sistema de IA de alto riesgo especificarán, mediante acuerdo escrito, la información, las capacidades, el acceso técnico y otra asistencia que sean necesarios, sobre la base del estado de la técnica generalmente reconocido, para que el proveedor del sistema de IA de alto riesgo pueda cumplir plenamente las obligaciones establecidas en el presente Reglamento. El presente apartado no se aplicará a terceros que pongan a disposición del público herramientas, servicios, procesos o componentes distintos de modelos de IA de uso general, en el marco de una licencia libre y de código abierto.
4. Suuririskisen tekoälyjärjestelmän tarjoajan ja kolmannen osapuolen, joka toimittaa suuririskisessä tekoälyjärjestelmässä käytettäviä tai siihen integroitavia tekoälyjärjestelmiä, välineitä, palveluja, komponentteja tai prosesseja, on määritettävä kirjallisella sopimuksella tarvittavat tiedot, valmiudet, tekninen pääsy ja muu apu, jotka perustuvat yleisesti tunnustettuun alan viimeisimpään kehitykseen, jotta suuririskisen tekoälyjärjestelmän tarjoaja voi noudattaa täysimääräisesti tämän asetuksen mukaisia velvoitteita. Tätä kohtaa ei sovelleta kolmansiin osapuoliin, jotka asettavat yleisön saataville maksuttomalla ja avoimen lähdekoodin lisenssillä välineitä, palveluja, prosesseja tai komponentteja, jotka ovat muita kuin yleiskäyttöisiä tekoälymalleja.
La Oficina de IA podrá elaborar y recomendar cláusulas contractuales tipo, de carácter voluntario, entre los proveedores de sistemas de IA de alto riesgo y terceros que suministren herramientas, servicios, componentes o procesos que se utilicen o integren en los sistemas de IA de alto riesgo. Cuando elabore esas cláusulas contractuales tipo de carácter voluntario, la Oficina de IA tendrá en cuenta los posibles requisitos contractuales aplicables en determinados sectores o modelos de negocio. Las cláusulas contractuales tipo de carácter voluntario se publicarán y estarán disponibles gratuitamente en un formato electrónico fácilmente utilizable.
Tekoälytoimisto voi laatia ja suositella vapaaehtoisia mallisopimusehtoja suuririskisten tekoälyjärjestelmien tarjoajien ja sellaisten kolmansien osapuolten välisiä sopimuksia varten, jotka toimittavat välineitä, palveluja, komponentteja tai prosesseja, joita käytetään suuririskisissä tekoälyjärjestelmissä tai integroidaan niihin. Laatiessaan kyseisiä vapaaehtoisia mallisopimusehtoja tekoälytoimisto ottaa huomioon tietyillä aloilla tai tietyissä liiketoimintamalleissa mahdollisesti sovellettavat sopimusperusteiset vaatimukset. Vapaaehtoiset mallisopimusehdot on julkaistava, ja niiden on oltava saatavilla maksutta helposti käytettävässä sähköisessä muodossa.
5. Los apartados 2 y 3 se entenderán sin perjuicio de la necesidad de observar y proteger los derechos de propiedad intelectual e industrial, la información empresarial confidencial y los secretos comerciales, de conformidad con el Derecho de la Unión y nacional.
5. Edellä olevat 2 ja 3 kohta eivät rajoita tarvetta kunnioittaa ja suojata teollis- ja tekijänoikeuksia ja luottamuksellisia liiketoimintatietoja ja liikesalaisuuksia unionin ja kansallisen lainsäädännön mukaisesti.
Obligaciones de los responsables del despliegue de sistemas de IA de alto riesgo
Suuririskisten tekoälyjärjestelmien käyttöönottajien velvollisuudet
1. Los responsables del despliegue de sistemas de IA de alto riesgo adoptarán medidas técnicas y organizativas adecuadas para garantizar que utilizan dichos sistemas con arreglo a las instrucciones de uso que los acompañen, de acuerdo con los apartados 3 y 6.
1. Suuririskisten tekoälyjärjestelmien käyttöönottajien on toteutettava asianmukaiset tekniset ja organisatoriset toimenpiteet varmistaakseen, että ne käyttävät tällaisia järjestelmiä niiden mukana seuraavien käyttöohjeiden mukaisesti 3 ja 6 kohdassa säädetyllä tavalla.
2. Los responsables del despliegue encomendarán la supervisión humana a personas físicas que tengan la competencia, la formación y la autoridad necesarias.
2. Käyttöönottajien on annettava ihmisen suorittama valvonta tehtäväksi luonnollisille henkilöille, joilla on tarvittava pätevyys, koulutus ja valtuudet, sekä annettava tarvittavaa tukea.
3. Las obligaciones previstas en los apartados 1 y 2 no afectan a otras obligaciones que el Derecho nacional o de la Unión imponga a los responsables del despliegue ni a su libertad para organizar sus propios recursos y actividades con el fin de poner en práctica las medidas de supervisión humana que indique el proveedor.
3. Edellä 1 ja 2 kohdassa säädetyt velvollisuudet eivät rajoita muiden unionin tai kansallisesta lainsäädännöstä johtuvien käyttöönottajien velvollisuuksien soveltamista eivätkä käyttöönottajan vapautta järjestää omat resurssinsa ja toimintansa tarjoajan ilmoittamien ihmisen suorittamien valvontatoimien toteuttamiseksi.
4. Sin perjuicio de lo dispuesto en los apartados 1 y 2, el responsable del despliegue se asegurará de que los datos de entrada sean pertinentes y suficientemente representativos en vista de la finalidad prevista del sistema de IA de alto riesgo, en la medida en que ejerza el control sobre dichos datos.
4. Siltä osin kuin käyttöönottaja valvoo syöttötietoja, käyttöönottajan on varmistettava, että syöttötiedot ovat merkityksellisiä ja riittävän edustavia suuririskisen tekoälyjärjestelmän käyttötarkoituksen kannalta, sanotun kuitenkaan rajoittamatta 1 ja 2 kohdan soveltamista.
5. Los responsables del despliegue vigilarán el funcionamiento del sistema de IA de alto riesgo basándose en las instrucciones de uso y, cuando proceda, informarán a los proveedores con arreglo al artículo 72. Cuando los responsables del despliegue tengan motivos para considerar que utilizar el sistema de IA de alto riesgo conforme a sus instrucciones puede dar lugar a que ese sistema de AI presente un riesgo en el sentido del artículo 79, apartado 1, informarán, sin demora indebida, al proveedor o distribuidor y a la autoridad de vigilancia del mercado pertinente y suspenderán el uso de ese sistema. Cuando los responsables del despliegue detecten un incidente grave, informarán asimismo inmediatamente de dicho incidente, en primer lugar, al proveedor y, a continuación, al importador o distribuidor y a la autoridad de vigilancia del mercado pertinente. En el caso de que el responsable del despliegue no consiga contactar con el proveedor, el artículo 73 se aplicará mutatis mutandis. Esta obligación no comprenderá los datos operativos sensibles de los responsables del despliegue de sistemas de IA que sean autoridades garantes del cumplimiento del Derecho.
5. Käyttöönottajien on seurattava suuririskisen tekoälyjärjestelmän toimintaa käyttöohjeiden perusteella ja tarvittaessa ilmoitettava asiasta tarjoajille 72 artiklan mukaisesti. Jos käyttöönottajilla on syytä katsoa, että suuririskisen tekoälyjärjestelmän käyttöohjeiden mukainen käyttö voi johtaa siihen, että kyseinen tekoälyjärjestelmä aiheuttaa 79 artiklan 1 kohdassa tarkoitetun riskin, niiden on ilman aiheetonta viivytystä ilmoitettava asiasta tarjoajalle tai jakelijalle ja asianomaiselle markkinavalvontaviranomaiselle ja keskeytettävä kyseisen järjestelmän käyttö. Jos käyttöönottajat ovat havainneet vakavan vaaratilanteen, niiden on myös välittömästi ilmoitettava kyseisestä vaaratilanteesta ensin tarjoajalle ja sen jälkeen tuojalle tai jakelijalle sekä asianomaisille markkinavalvontaviranomaisille. Jos käyttöönottaja ei pysty tavoittamaan tarjoajaa, 73 artiklaa sovelletaan soveltuvin osin. Tätä velvoitetta ei sovelleta niiden tekoälyjärjestelmien käyttöönottajien arkaluonteiseen operatiiviseen tietoon, jotka ovat lainvalvontaviranomaisia.
En el caso de los responsables del despliegue que sean entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros, se considerará que se ha cumplido la obligación de vigilancia prevista en el párrafo primero cuando se respeten las normas sobre sistemas, procesos y mecanismos de gobernanza interna de acuerdo con el Derecho pertinente en materia de servicios financieros.
Niiden käyttöönottajien osalta, jotka ovat rahoituslaitoksia, joihin sovelletaan niiden sisäisiä hallintojärjestelyjä tai -prosesseja koskevia vaatimuksia unionin rahoituspalvelulainsäädännön nojalla, ensimmäisessä alakohdassa esitetty seurantavelvoite katsotaan täytetyksi, kun noudatetaan asiaankuuluvan rahoituspalvelulainsäädännön mukaisia sisäisiä hallintojärjestelyjä, -prosesseja ja -mekanismeja koskevia sääntöjä.
6. Los responsables del despliegue de sistemas de IA de alto riesgo conservarán los archivos de registro que los sistemas de IA de alto riesgo generen automáticamente en la medida en que dichos archivos estén bajo su control, durante un período de tiempo adecuado para la finalidad prevista del sistema de IA de alto riesgo, de al menos seis meses, salvo que se disponga otra cosa en el Derecho de la Unión o nacional aplicable, en particular en el Derecho de la Unión en materia de protección de datos personales.
6. Suuririskisten tekoälyjärjestelmien käyttöönottajien on säilytettävä kyseisen suuririskisen tekoälyjärjestelmän automaattisesti tuottamat lokitiedot siltä osin kuin tällaiset lokitiedot ovat heidän hallinnassaan, suuririskisen tekoälyjärjestelmän käyttötarkoitukseen nähden asianmukaisen ajanjakson ajan, kuitenkin vähintään kuuden kuukauden ajan, jollei sovellettavassa unionin tai kansallisessa lainsäädännössä, erityisesti henkilötietojen suojaa koskevassa unionin oikeudessa, toisin säädetä.
Los responsables del despliegue que sean entidades financieras sujetas a requisitos relativos a su gobernanza, sus sistemas o sus procesos internos en virtud del Derecho de la Unión en materia de servicios financieros mantendrán los archivos de registro como parte de la documentación conservada en virtud del Derecho de la Unión en materia de servicios financieros.
Käyttöönottajien, jotka ovat rahoituslaitoksia, joihin sovelletaan niiden sisäisiä hallintojärjestelyjä tai -prosesseja koskevia vaatimuksia unionin rahoituspalvelulainsäädännön nojalla, on säilytettävä lokitiedot osana asiakirjoja, jotka säilytetään asiaankuuluvan unionin rahoituspalvelulainsäädännön nojalla.
7. Antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo, los responsables del despliegue que sean empleadores informarán a los representantes de los trabajadores y a los trabajadores afectados de que estarán expuestos a la utilización del sistema de IA de alto riesgo. Esta información se facilitará, cuando proceda, con arreglo a las normas y procedimientos establecidos en el Derecho de la Unión y nacional y conforme a las prácticas en materia de información a los trabajadores y sus representantes.
7. Ennen suuririskisen tekoälyjärjestelmän käyttöönottoa tai käyttöä työpaikalla käyttöönottajien, jotka ovat työnantajia, on ilmoitettava työntekijöiden edustajille ja asianomaisille työntekijöille, että heihin sovelletaan suuririskistä tekoälyjärjestelmää. Nämä tiedot on tarvittaessa annettava työntekijöille ja heidän edustajilleen tiedottamista koskevassa unionin ja kansallisessa lainsäädännössä ja käytännössä vahvistettujen sääntöjen ja menettelyjen mukaisesti.
8. Los responsables del despliegue de sistemas de IA de alto riesgo que sean autoridades públicas o instituciones, órganos y organismos de la Unión cumplirán las obligaciones de registro a que se refiere el artículo 49. Cuando dichos responsables del despliegue constaten que el sistema de IA de alto riesgo que tienen previsto utilizar no ha sido registrado en la base de datos de la UE a que se refiere el artículo 71, no utilizarán dicho sistema e informarán al proveedor o al distribuidor.
8. Suuririskisten tekoälyjärjestelmin käyttöönottajien, jotka ovat viranomaisia tai unionin toimielimiä, elimiä tai laitoksia, on noudatettava 49 artiklassa tarkoitettuja rekisteröintivelvollisuuksia. Jos tällaiset käyttöönottajat toteavat, että suuririskistä tekoälyjärjestelmää, jota ne aikovat käyttää, ei ole rekisteröity 71 artiklassa tarkoitettuun EU:n tietokantaan, ne eivät saa käyttää kyseistä järjestelmää ja niiden on ilmoitettava asiasta tarjoajalle tai jakelijalle.
9. Cuando proceda, los responsables del despliegue de sistemas de IA de alto riesgo utilizarán la información facilitada conforme al artículo 13 del presente Reglamento para cumplir la obligación de llevar a cabo una evaluación de impacto relativa a la protección de datos que les imponen el artículo 35 del Reglamento (UE) 2016/679 o el artículo 27 de la Directiva (UE) 2016/680.
9. Suuririskisten tekoälyjärjestelmien käyttöönottajien on tarvittaessa käytettävä tämän asetuksen 13 artiklan mukaisesti toimitettuja tietoja noudattaakseen velvollisuuttaan tehdä tietosuojaa koskeva vaikutustenarviointi asetuksen (EU) 2016/679 35 artiklan tai direktiivin (EU) 2016/680 27 artiklan mukaisesti.
10. No obstante lo dispuesto en la Directiva (UE) 2016/680, en el marco de una investigación cuya finalidad sea la búsqueda selectiva de una persona sospechosa de haber cometido un delito o condenada por ello, el responsable del despliegue de un sistema de IA de alto riego de identificación biométrica remota en diferido solicitará, ex ante o sin demora indebida y a más tardar en un plazo de cuarenta y ocho horas, a una autoridad judicial o administrativa cuyas decisiones sean vinculantes y estén sujetas a revisión judicial, una autorización para utilizar ese sistema, salvo cuando se utilice para la identificación inicial de un posible sospechoso sobre la base de hechos objetivos y verificables vinculados directamente al delito. Cada utilización deberá limitarse a lo que resulte estrictamente necesario para investigar un delito concreto.
10. Rikoksesta epäillyn tai tuomitun henkilön kohdennettua etsintää koskevan tutkinnan yhteydessä suuririskisen tekoälyjärjestelmän, joka on tarkoitettu käytettäväksi jälkikäteiseen biometriseen etätunnistukseen, käyttöönottajan on pyydettävä oikeusviranomaiselta tai hallintoviranomaiselta, jonka päätös on sitova ja johon sovelletaan tuomioistuinvalvontaa, lupaa kyseisen järjestelmän käyttöön etukäteen tai ilman aiheetonta viivytystä ja viimeistään 48 tunnin kuluessa kyseisen järjestelmän käyttöön, paitsi jos sitä käytetään mahdollisen epäillyn alustavaan tunnistamiseen rikokseen suoraan liittyvien objektiivisten ja todennettavissa olevien tosiseikkojen perusteella, sanotun kuitenkaan rajoittamatta direktiivin (EU) 2016/680 soveltamista. Kukin käyttö on rajoitettava siihen, mikä on ehdottoman välttämätöntä kyseessä olevan rikoksen tutkintaa varten.
En caso de que se deniegue la autorización contemplada en el párrafo primero, dejará de utilizarse el sistema de identificación biométrica remota en diferido objeto de la solicitud de autorización con efecto inmediato y se eliminarán los datos personales asociados al uso del sistema de IA de alto riesgo para el que se solicitó la autorización.
Jos ensimmäisen alakohdan nojalla haettu lupa hylätään, kyseiseen lupaan linkitetyn jälkikäteisen biometrisen etätunnistusjärjestelmän käyttö on lopetettava välittömästi ja sen suuririskisen tekoälyjärjestelmän käyttöön liittyvät henkilötiedot, jota varten lupaa haettiin, on poistettava.
Dicho sistema de IA de alto riego de identificación biométrica remota en diferido no se utilizará en ningún caso a los efectos de la garantía del cumplimiento del Derecho de forma indiscriminada, sin que exista relación alguna con un delito, un proceso penal, una amenaza real y actual o real y previsible de delito, o con la búsqueda de una persona desaparecida concreta. Se velará por que las autoridades garantes del cumplimiento del Derecho no puedan adoptar ninguna decisión que produzca efectos jurídicos adversos para una persona exclusivamente sobre la base de los resultados de salida de dichos sistemas de identificación biométrica remota en diferido.
Tällaista suuririskistä tekoälyjärjestelmää, joka on tarkoitettu käytettäväksi jälkikäteiseen biometriseen etätunnistukseen, ei saa missään tapauksessa käyttää lainvalvontatarkoituksiin kohdentamattomalla tavalla ilman minkäänlaista yhteyttä tiettyyn rikokseen, rikosoikeudelliseen menettelyyn, todelliseen ja välittömään tai todelliseen ja ennakoitavissa olevaan rikoksen uhkaan tai tietyn kadonneen henkilön etsimiseen. On varmistettava, että päätöstä, jolla on yksittäiseen henkilöön kohdistuvia kielteisiä oikeusvaikutuksia, ei saa tehdä pelkästään tällaisen jälkikäteisen biometrisen etätunnistusjärjestelmän tuotosten perusteella.
El presente apartado se entiende sin perjuicio del artículo 9 del Reglamento (UE) 2016/679 y del artículo 10 de la Directiva (UE) 2016/680 para el tratamiento de los datos biométricos.
Tämä kohta ei rajoita asetuksen (EU) 2016/679 9 artiklan ja direktiivin (EU) 2016/680 10 artiklan soveltamista biometristen tietojen käsittelyn osalta.
Con independencia de la finalidad o del responsable del despliegue, se documentará toda utilización de tales sistemas de IA de alto riesgo en el expediente policial pertinente y se pondrá a disposición, previa solicitud, de la autoridad de vigilancia del mercado pertinente y de la autoridad nacional de protección de datos, quedando excluida la divulgación de datos operativos sensibles relacionados con la garantía del cumplimiento del Derecho. El presente párrafo se entenderá sin perjuicio de los poderes conferidas por la Directiva (UE) 2016/680 a las autoridades de control.
Käyttötarkoituksesta tai käyttöönottajasta riippumatta tällaisten suuririskisten tekoälyjärjestelmien kaikenlainen käyttö on dokumentoitava asianomaiseen poliisitiedostoon ja asetettava pyynnöstä asianomaisen markkinavalvontaviranomaisen ja kansallisen tietosuojaviranomaisen saataville, lukuun ottamatta lainvalvontaan liittyvien arkaluonteisten operatiivisten tietojen luovuttamista. Tämä alakohta ei rajoita valvontaviranomaisille direktiivin (EU) 2016/680 nojalla annettuja valtuuksia.
Los responsables del despliegue presentarán informes anuales a la autoridad de vigilancia del mercado pertinente y a la autoridad nacional de protección de datos sobre el uso que han hecho de los sistemas de identificación biométrica remota en diferido, quedando excluida la divulgación de datos operativos sensibles relacionados con la garantía del cumplimiento del Derecho. Los informes podrán agregarse de modo que cubran más de un despliegue.
Käyttöönottajien on toimitettava asianomaisille markkinavalvonta- ja kansallisille tietosuojaviranomaisille vuosittain raportit jälkikäteisten biometristen etätunnistusjärjestelmien käytöstä, lukuun ottamatta lainvalvontaan liittyvien arkaluonteisten operatiivisten tietojen luovuttamista. Raportit voidaan koota yhteen siten, että ne kattavat useamman kuin yhden käyttökerran.
Los Estados miembros podrán adoptar, de conformidad con el Derecho de la Unión, leyes más restrictivas sobre el uso de sistemas de identificación biométrica remota en diferido.
Jäsenvaltiot voivat unionin oikeuden mukaisesti ottaa käyttöön jälkikäteisten biometristen etätunnistusjärjestelmien käyttöä koskevaa rajoittavampaa lainsäädäntöä.
11. Sin perjuicio de lo dispuesto en el artículo 50 del presente Reglamento, los responsables del despliegue de los sistemas de IA de alto riesgo a que se refiere el anexo III que tomen decisiones o ayuden a tomar decisiones relacionadas con personas físicas informarán a las personas físicas de que están expuestas a la utilización de los sistemas de IA de alto riesgo. En el caso de los sistemas de IA de alto riesgo que se utilicen a los efectos de la garantía del cumplimiento del Derecho, se aplicará el artículo 13 de la Directiva (UE) 2016/680.
11. Sellaisten liitteessä III tarkoitettujen suuririskisten tekoälyjärjestelmien käyttöönottajien, jotka tekevät tai auttavat tekemään luonnollisiin henkilöihin liittyviä päätöksiä, on ilmoitettava luonnollisille henkilöille, että heihin sovelletaan suuririskistä tekoälyjärjestelmää, sanotun kuitenkaan rajoittamatta tämän asetuksen 50 artiklan soveltamista. Lainvalvontatarkoituksiin käytettäviin suuririskisiin tekoälyjärjestelmiin sovelletaan direktiivin (EU) 2016/680 13 artiklaa.
12. Los responsables del despliegue cooperarán con las autoridades competentes pertinentes en cualquier medida que estas adopten en relación con el sistema de IA de alto riesgo con el objetivo de aplicar el presente Reglamento.
12. Käyttöönottajien on tehtävä yhteistyötä asiaankuuluvien toimivaltaisten viranomaisten kanssa kaikissa toimissa, joita kyseiset viranomaiset toteuttavat suuririskisen tekoälyjärjestelmän suhteen tämän asetuksen täytäntöönpanemiseksi.
Evaluación de impacto relativa a los derechos fundamentales para los sistemas de IA de alto riesgo
Suuririskisten tekoälyjärjestelmien perusoikeusvaikutusten arviointi
1. Antes de desplegar uno de los sistemas de IA de alto riesgo a que se refiere el artículo 6, apartado 2, con excepción de los sistemas de IA de alto riesgo destinados a ser utilizados en el ámbito enumerado en el anexo III, punto 2, los responsables del despliegue que sean organismos de Derecho público, o entidades privadas que prestan servicios públicos, y los responsable del despliegue de sistemas de IA de alto riesgo a que se refiere el anexo III, punto 5, letras b) y c), llevarán a cabo una evaluación del impacto que la utilización de dichos sistemas puede tener en los derechos fundamentales. A tal fin, los responsables del despliegue llevarán a cabo una evaluación que consistirá en:
1. Käyttöönottajien, jotka ovat julkisoikeudellisia laitoksia tai julkisia palveluja tarjoavia yksityisiä yhteisöjä, ja liitteessä III olevassa 5 kohdan b ja c alakohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien käyttöönottajien on tehtävä arviointi tällaisen järjestelmän käytön mahdollisista perusoikeusvaikutuksista ennen 6 artiklan 2 kohdassa tarkoitetun suuririskisen tekoälyjärjestelmän käyttöönottoa, lukuun ottamatta suuririskisiä tekoälyjärjestelmiä, jotka on tarkoitettu käytettäviksi liitteessä III olevassa 2 kohdassa luetellulla alueella. Tätä varten käyttöönottajien on suoritettava arviointi, joka sisältää seuraavat:
a)
una descripción de los procesos del responsable del despliegue en los que se utilizará el sistema de IA de alto riesgo en consonancia con su finalidad prevista;
a)
kuvaus käyttöönottajan prosesseista, joissa suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti;
b)
una descripción del período de tiempo durante el cual se prevé utilizar cada sistema de IA de alto riesgo y la frecuencia con la que está previsto utilizarlo;
b)
kuvaus ajanjaksosta, jonka kuluessa kutakin suuririskistä tekoälyjärjestelmää on tarkoitus käyttää, ja kuinka usein;
c)
las categorías de personas físicas y colectivos que puedan verse afectados por su utilización en el contexto específico;
c)
niiden luonnollisten henkilöiden ja ryhmien luokat, joihin järjestelmän käyttö todennäköisesti vaikuttaa;
d)
los riesgos de perjuicio específicos que puedan afectar a las categorías de personas físicas y colectivos determinadas con arreglo a la letra c) del presente apartado, teniendo en cuenta la información facilitada por el proveedor con arreglo al artículo 13;
d)
erityiset sellaisen haitan riskit, joka todennäköisesti kohdistuu tämän kohdan c alakohdan mukaisesti yksilöityihin luokkiin kuuluviin luonnollisiin henkilöihin tai henkilöryhmiin, ottaen huomioon tarjoajan 13 artiklan mukaisesti antamat tiedot;
e)
una descripción de la aplicación de medidas de supervisión humana, de acuerdo con las instrucciones de uso;
e)
kuvaus ihmisen suorittamien valvontatoimenpiteiden toteuttamisesta käyttöohjeiden mukaisesti;
f)
las medidas que deben adoptarse en caso de que dichos riesgos se materialicen, incluidos los acuerdos de gobernanza interna y los mecanismos de reclamación.
f)
toimenpiteet, jotka on toteutettava kyseisten riskien toteutuessa, mukaan lukien sisäistä hallintoa ja valitusmekanismeja koskevat järjestelyt.
2. La obligación descrita con arreglo al apartado 1 se aplicará al primer uso del sistema de IA de alto riesgo. En casos similares, el responsable del despliegue podrá basarse en evaluaciones de impacto relativas a los derechos fundamentales realizadas previamente o a evaluaciones de impacto existentes realizadas por los proveedores. Si, durante el uso del sistema de IA de alto riesgo, el responsable del despliegue considera que alguno de los elementos enumerados en el apartado 1 ha cambiado o ha dejado de estar actualizado, adoptará las medidas necesarias para actualizar la información.
2. Edellä 1 kohdassa säädettyä velvoitetta sovelletaan suuririskisen tekoälyjärjestelmän ensimmäiseen käyttökertaan. Käyttöönottaja voi samanlaisissa tapauksissa tukeutua aiemmin tehtyyn perusoikeusvaikutusten arviointiin tai tarjoajan tekemään olemassa olevaan vaikutustenarviointiin. Jos käyttöönottaja katsoo suuririskisen tekoälyjärjestelmän käytön aikana, että jokin 1 kohdassa luetelluista elementeistä on muuttunut tai ei ole enää ajan tasalla, käyttöönottajan on toteutettava tarvittavat toimenpiteet tietojen päivittämiseksi.
3. Una vez realizada la evaluación a que se refiere el apartado 1 del presente artículo, el responsable del despliegue notificará sus resultados a la autoridad de vigilancia del mercado, presentando el modelo cumplimentado a que se refiere el apartado 5 del presente artículo. En el caso contemplado en el artículo 46, apartado 1, los responsables del despliegue podrán quedar exentos de esta obligación de notificación.
3. Kun tämän artiklan 1 kohdassa tarkoitettu arviointi on suoritettu, käyttöönottajan on ilmoitettava markkinavalvontaviranomaiselle sen tuloksista, ja palautettava tämän artiklan 5 kohdassa tarkoitettu täytetty lomake ilmoituksen osana. Käyttöönottajat voidaan 46 artiklan 1 kohdassa tarkoitetussa tapauksessa vapauttaa tästä ilmoitusvelvoitteesta.
4. Si ya se cumple cualquiera de las obligaciones establecidas en el presente artículo mediante la evaluación de impacto relativa a la protección de datos realizada con arreglo al artículo 35 del Reglamento (UE) 2016/679 o del artículo 27 de la Directiva (UE) 2016/680, la evaluación de impacto relativa a los derechos fundamentales a que se refiere el apartado 1 del presente artículo complementará dicha evaluación de impacto relativa a la protección de datos.
4. Jos jokin tässä artiklassa säädetyistä velvoitteista on jo täytetty asetuksen (EU) 2016/679 35 artiklan tai direktiivin (EU) 2016/680 27 artiklan nojalla suoritetun tietosuojaa koskevan vaikutustenarvioinnin avulla, tämän artiklan 1 kohdassa tarkoitetulla perusoikeuksia koskevalla vaikutustenarvioinnilla täydennetään kyseistä tietosuojaa koskevaa vaikutustenarviointia.
5. La Oficina de IA elaborará un modelo de cuestionario, también mediante una herramienta automatizada, a fin de facilitar que los responsables del despliegue cumplan sus obligaciones en virtud del presente artículo de manera simplificada.
5. Tekoälytoimisto laatii mallin kyselylomakkeelle, käyttämällä myös automaattista välinettä, jotta käyttöönottajia voidaan auttaa täyttämään tämän artiklan mukaiset velvoitteensa yksinkertaistetulla tavalla.
Ilmoittamisesta vastaavat viranomaiset
1. Cada Estado miembro nombrará o constituirá al menos una autoridad notificante que será responsable de establecer y llevar a cabo los procedimientos necesarios para la evaluación, designación y notificación de los organismos de evaluación de la conformidad, así como de su supervisión. Dichos procedimientos se desarrollarán por medio de la cooperación entre las autoridades notificantes de todos los Estados miembros.
1. Kunkin jäsenvaltion on nimettävä tai perustettava vähintään yksi ilmoittamisesta vastaava viranomainen, joka vastaa vaatimustenmukaisuuden arviointilaitosten arviointiin, nimeämiseen ja ilmoittamiseen sekä niiden valvontaan liittyvien tarvittavien menettelyjen perustamisesta ja toteuttamisesta. Kyseiset menettelyt on kehitettävä yhteistyössä kaikkien jäsenvaltioiden ilmoittamisesta vastaavien viranomaisten kesken.
2. Los Estados miembros podrán decidir que la evaluación y la supervisión contempladas en el apartado 1 sean realizadas por un organismo nacional de acreditación en el sentido del Reglamento (CE) n.o 765/2008 y con arreglo a este.
2. Jäsenvaltiot voivat päättää, että 1 kohdassa tarkoitetun arvioinnin ja valvonnan suorittaa asetuksen (EY) N:o 765/2008 mukaisesti mainitussa asetuksessa tarkoitettu kansallinen akkreditointielin.
3. Las autoridades notificantes se constituirán, se organizarán y funcionarán de forma que no surjan conflictos de intereses con los organismos de evaluación de la conformidad y que se garantice la imparcialidad y objetividad de sus actividades.
3. Ilmoittamisesta vastaavien viranomaisten on oltava toteutukseltaan, organisaatioltaan ja toiminnaltaan sellaisia, että eturistiriitoja vaatimustenmukaisuuden arviointilaitosten kanssa ei synny ja että niiden toimien objektiivisuus ja puolueettomuus on turvattu.
4. Las autoridades notificantes se organizarán de forma que las decisiones relativas a la notificación de los organismos de evaluación de la conformidad sean adoptadas por personas competentes distintas de las que llevaron a cabo la evaluación de dichos organismos.
4. Ilmoittamisesta vastaavien viranomaisten organisaation on oltava sellainen, että vaatimustenmukaisuuden arviointilaitosten ilmoittamista koskevat päätökset tekevät eri toimivaltaiset henkilöt kuin ne, jotka ovat suorittaneet näiden laitosten arvioinnin.
5. Las autoridades notificantes no ofrecerán ni ejercerán ninguna actividad que efectúen los organismos de evaluación de la conformidad, ni ningún servicio de consultoría de carácter comercial o competitivo.
5. Ilmoittamisesta vastaavat viranomaiset eivät saa tarjota mitään toimintoja, joita vaatimustenmukaisuuden arviointilaitokset suorittavat, eivätkä mitään konsultointipalveluja kaupallisin tai kilpailullisin perustein.
6. Las autoridades notificantes preservarán la confidencialidad de la información obtenida, de conformidad con lo dispuesto en el artículo 78.
6. Ilmoittamisesta vastaavien viranomaisten on turvattava saamiensa tietojen luottamuksellisuus 78 artiklan mukaisesti.
7. Las autoridades notificantes dispondrán de suficiente personal competente para efectuar adecuadamente sus tareas. Cuando proceda, el personal competente tendrá los conocimientos especializados necesarios para ejercer sus funciones, en ámbitos como las tecnologías de la información, la IA y el Derecho, incluida la supervisión de los derechos fundamentales.
7. Ilmoittamisesta vastaavilla viranomaisilla on oltava käytössään riittävä määrä pätevää henkilöstöä tehtäviensä asianmukaista hoitamista varten. Pätevällä henkilöstöllä on tarvittaessa oltava tehtäviensä edellyttämä asiantuntemus esimerkiksi tietotekniikan, tekoälyn ja lainsäädännön aloilla, mukaan lukien perusoikeuksien valvonta.
Solicitud de notificación por parte de un organismo de evaluación de la conformidad
Vaatimustenmukaisuuden arviointilaitoksen ilmoittamista koskeva hakemus
1. Los organismos de evaluación de la conformidad presentarán una solicitud de notificación ante la autoridad notificante del Estado miembro en el que estén establecidos.
1. Vaatimustenmukaisuuden arviointilaitosten on toimitettava ilmoittamista koskeva hakemus sen jäsenvaltion ilmoittamisesta vastaavalle viranomaiselle, johon ne ovat sijoittautuneet.
2. La solicitud de notificación irá acompañada de una descripción de las actividades de evaluación de la conformidad, del módulo o módulos de evaluación de la conformidad y los tipos de sistemas de IA en relación con los cuales el organismo de evaluación de la conformidad se considere competente, así como de un certificado de acreditación, si lo hay, expedido por un organismo nacional de acreditación, que declare que el organismo de evaluación de la conformidad cumple los requisitos establecidos en el artículo 31.
2. Ilmoittamista koskevaan hakemukseen on liitettävä kuvaus vaatimustenmukaisuuden arviointitoimista, vaatimustenmukaisuuden arviointimoduulista tai -moduuleista ja tekoälyjärjestelmätyypeistä, joiden osalta vaatimustenmukaisuuden arviointilaitos katsoo olevansa pätevä, sekä mahdollinen akkreditointitodistus, jonka kansallinen akkreditointielin on antanut ja jossa todistetaan, että vaatimustenmukaisuuden arviointilaitos täyttää 31 artiklassa säädetyt vaatimukset.
Se añadirá cualquier documento válido relacionado con las designaciones existentes del organismo notificado solicitante en virtud de cualquier otro acto de la legislación de armonización de la Unión.
Hakemukseen on liitettävä kaikki voimassa olevat asiakirjat, jotka liittyvät hakemuksen esittävän ilmoitetun laitoksen voimassa oleviin nimeämisiin jonkin muun unionin yhdenmukaistamislainsäädännön nojalla.
3. Si el organismo de evaluación de la conformidad de que se trate no puede facilitar un certificado de acreditación, entregará a la autoridad notificante todas las pruebas documentales necesarias para verificar, reconocer y supervisar periódicamente que cumple los requisitos establecidos en el artículo 31.
3. Jos asianomainen vaatimustenmukaisuuden arviointilaitos ei voi toimittaa akkreditointitodistusta, sen on toimitettava ilmoittamisesta vastaavalle viranomaiselle kaikki tarpeelliset asiakirjatodisteet, joiden avulla voidaan tarkastaa, tunnustaa ja säännöllisesti valvoa, että se täyttää 31 artiklassa säädetyt vaatimukset.
4. En lo que respecta a los organismos notificados designados de conformidad con cualquier otro acto legislativo de armonización de la Unión, todos los documentos y certificados vinculados a dichas designaciones podrán utilizarse para apoyar su procedimiento de designación en virtud del presente Reglamento, según proceda. El organismo notificado actualizará la documentación a que se refieren los apartados 2 y 3 del presente artículo cuando se produzcan cambios pertinentes, para que la autoridad responsable de los organismos notificados pueda supervisar y verificar que se siguen cumpliendo todos los requisitos establecidos en el artículo 31.
4. Kun on kyse muun unionin yhdenmukaistamislainsäädännön nojalla nimetyistä ilmoitetuista laitoksista, kaikkia näihin nimeämisiin liittyviä asiakirjoja ja todistuksia voidaan tarvittaessa käyttää tämän asetuksen mukaisen nimeämismenettelyn tukena. Ilmoitetun laitoksen on päivitettävä tämän artiklan 2 ja 3 kohdassa tarkoitetut asiakirjat aina, kun merkityksellisiä muutoksia esiintyy, jotta ilmoitetuista laitoksista vastaava viranomainen voi seurata ja todentaa, että 31 artiklassa säädettyjä vaatimuksia noudatetaan jatkuvasti.
Procedimiento de notificación
1. Las autoridades notificantes solo podrán notificar organismos de evaluación de la conformidad que hayan cumplido los requisitos establecidos en el artículo 31.
1. Ilmoittamisesta vastaavat viranomaiset voivat ilmoittaa ainoastaan sellaisia vaatimustenmukaisuuden arviointilaitoksia, jotka ovat täyttäneet 31 artiklassa säädetyt vaatimukset.
2. Las autoridades notificantes notificarán a la Comisión y a los demás Estados miembros, mediante el sistema de notificación electrónica desarrollado y gestionado por la Comisión, cada organismo de evaluación de la conformidad a que se refiere el apartado 1.
2. Ilmoittamisesta vastaavien viranomaisten on tehtävä kustakin 1 kohdassa tarkoitetusta vaatimustenmukaisuuden arviointilaitoksesta ilmoitus komissiolle ja muille jäsenvaltioille käyttäen komission kehittämää ja hallinnoimaa sähköistä ilmoitusvälinettä.
3. La notificación a que se refiere el apartado 2 del presente artículo incluirá información detallada de las actividades de evaluación de la conformidad, el módulo o módulos de evaluación de la conformidad y los tipos de sistemas de IA afectados, así como la certificación de competencia pertinente. Si la notificación no está basada en el certificado de acreditación a que se refiere el artículo 29, apartado 2, la autoridad notificante facilitará a la Comisión y a los demás Estados miembros las pruebas documentales que demuestren la competencia del organismo de evaluación de la conformidad y las disposiciones existentes destinadas a garantizar que se supervisará periódicamente al organismo y que este continuará satisfaciendo los requisitos establecidos en el artículo 31.
3. Tämän artiklan 2 kohdassa tarkoitetun ilmoituksen on sisällettävä täydelliset tiedot vaatimustenmukaisuuden arviointitoimista, vaatimustenmukaisuuden arviointimoduulista tai -moduuleista, asianomaisista tekoälyjärjestelmätyypeistä sekä asiaankuuluva todistus pätevyydestä. Jos ilmoitus ei perustu 29 artiklan 2 kohdassa tarkoitettuun akkreditointitodistukseen, ilmoittamisesta vastaavan viranomaisen on toimitettava komissiolle ja muille jäsenvaltioille asiakirjatodisteet, joiden avulla voidaan todistaa vaatimustenmukaisuuden arviointilaitoksen pätevyys ja toteutetut järjestelyt, joilla varmistetaan, että laitosta valvotaan säännöllisesti ja että se täyttää edelleen 31 artiklassa säädetyt vaatimukset.
4. El organismo de evaluación de la conformidad de que se trate únicamente podrá realizar las actividades de un organismo notificado si la Comisión o los demás Estados miembros no formulan ninguna objeción en el plazo de dos semanas tras la notificación de una autoridad notificante cuando esta incluya el certificado de acreditación a que se refiere el artículo 29, apartado 2, o de dos meses tras la notificación de la autoridad notificante cuando esta incluya las pruebas documentales a que se refiere el artículo 29, apartado 3.
4. Asianomainen vaatimustenmukaisuuden arviointilaitos voi suorittaa ilmoitetun laitoksen tehtäviä ainoastaan siinä tapauksessa, että komissio tai muut jäsenvaltiot eivät esitä vastalauseita kahden viikon kuluessa ilmoittamisesta vastaavan viranomaisen ilmoituksesta siinä tapauksessa, että käytetään 29 artiklan 2 kohdassa tarkoitettua akkreditointitodistusta, ja kahden kuukauden kuluessa ilmoittamisesta vastaavan viranomaisen ilmoituksesta siinä tapauksessa, että käytetään 29 artiklan 3 kohdassa tarkoitettuja asiakirjatodisteita.
5. Cuando se formulen objeciones, la Comisión iniciará sin demora consultas con los Estados miembros pertinentes y el organismo de evaluación de la conformidad. En vista de todo ello, la Comisión enviará su decisión al Estado miembro afectado y al organismo de evaluación de la conformidad pertinente.
5. Jos vastalauseita esitetään, komissio kuulee viipymättä asiaankuuluvia jäsenvaltioita ja vaatimustenmukaisuuden arviointilaitosta. Komissio päättää kyseisten kuulemisten perusteella, onko lupa perusteltu vai ei. Komissio osoittaa päätöksensä asianomaiselle jäsenvaltiolle sekä asiaankuuluvalle vaatimustenmukaisuuden arviointilaitokselle.
Requisitos relativos a los organismos notificados
Ilmoitettuja laitoksia koskevat vaatimukset
1. Los organismos notificados se establecerán de conformidad con el Derecho nacional de los Estados miembros y tendrán personalidad jurídica.
1. Ilmoitettu laitos on perustettava jäsenvaltion kansallisen lainsäädännön mukaisesti ja sen on oltava oikeushenkilö.
2. Los organismos notificados satisfarán los requisitos organizativos, de gestión de la calidad, recursos y procesos, necesarios para el desempeño de sus funciones, así como los requisitos adecuados en materia de ciberseguridad.
2. Ilmoitettujen laitosten on täytettävä organisaatiota, laadunhallintaa, resursseja ja prosessia koskevat vaatimukset, jotka ovat tarpeen niiden tehtävien suorittamiseksi, sekä asiaankuuluvat kyberturvallisuusvaatimukset.
3. La estructura organizativa, la distribución de las responsabilidades, la línea jerárquica y el funcionamiento de los organismos notificados ofrecerán confianza en su desempeño y en los resultados de las actividades de evaluación de la conformidad que realicen los organismos notificados.
3. Ilmoitetun laitoksen organisaatiorakenteen, vastuunjaon, raportointisuhteiden ja toiminnan on oltava sellaiset, että niillä varmistetaan luottamus kyseisen laitoksen toimiin ja sen toteuttamien vaatimustenmukaisuuden arviointitoimien tuloksiin.
4. Los organismos notificados serán independientes del proveedor de un sistema de IA de alto riesgo en relación con el cual lleven a cabo actividades de evaluación de la conformidad. Los organismos notificados serán independientes de cualquier otro operador con un interés económico en los sistemas de IA de alto riesgo que se evalúen, así como de cualquier competidor del proveedor. Ello no será óbice para el uso de sistemas de IA de alto riesgo evaluados que sean necesarios para las actividades del organismo de evaluación de la conformidad o para el uso de tales sistemas de alto riesgo con fines personales.
4. Ilmoitettujen laitosten on oltava riippumattomia sen suuririskisen tekoälyjärjestelmän tarjoajasta, jonka vaatimustenmukaisuutta ne arvioivat. Ilmoitettujen laitosten on oltava riippumattomia myös kaikista muista toimijoista, joilla on arvioitavaan suuririskiseen tekoälyjärjestelmään liittyviä taloudellisia intressejä, sekä kaikista tarjoajan kilpailijoista. Tämä ei sulje pois sellaisten arvioitujen suuririskisten tekoälyjärjestelmien käyttöä, jotka ovat vaatimustenmukaisuuden arviointilaitoksen toimien kannalta tarpeellisia, tai tällaisten suuririskisten tekoälyjärjestelmien käyttöä henkilökohtaisiin tarkoituksiin.
5. Los organismos de evaluación de la conformidad, sus máximos directivos y el personal responsable de la realización de las tareas de evaluación de la conformidad no intervendrán directamente en el diseño, el desarrollo, la comercialización o el uso de dichos sistemas de IA de alto riesgo, ni tampoco representarán a las partes que llevan a cabo estas actividades. Además, no efectuarán ninguna actividad que pudiera entrar en conflicto con su independencia de criterio o su integridad en relación con las actividades de evaluación de la conformidad para las que han sido notificados. Ello se aplicará especialmente a los servicios de consultoría.
5. Vaatimustenmukaisuuden arviointilaitos, sen ylin johto ja vaatimustenmukaisuuden arviointitehtävien suorittamisesta vastaava henkilöstö eivät saa olla suoraan mukana suuririskisten tekoälyjärjestelmien suunnittelussa, kehityksessä, markkinoinnissa tai käytössä eivätkä saa edustaa näissä toiminnoissa mukana olevia osapuolia. Ne eivät saa osallistua mihinkään toimintaan, joka saattaisivat olla ristiriidassa niiden suorittaman arvioinnin riippumattomuuden kanssa tai vaarantaa niiden luotettavuuden vaatimuksenmukaisuuden arviointitoimissa, joita varten ne on ilmoitettu. Tämä koskee erityisesti konsultointipalveluja.
6. Los organismos notificados estarán organizados y gestionados de modo que se garantice la independencia, objetividad e imparcialidad de sus actividades. Los organismos notificados documentarán e implantarán una estructura y procedimientos que garanticen la imparcialidad y permitan promover y poner en práctica los principios de imparcialidad aplicables en toda su organización, a todo su personal y en todas sus actividades de evaluación.
6. Ilmoitettujen laitosten on oltava organisaatioltaan ja toiminnaltaan sellaisia, että niiden toimien riippumattomuus, objektiivisuus ja puolueettomuus on turvattu. Ilmoitettujen laitosten on dokumentoitava ja toteutettava rakenne ja menettelyt, joilla turvataan puolueettomuus sekä edistetään ja sovelletaan puolueettomuuden periaatteita koko niiden organisaatiossa ja henkilöstössä ja kaikissa arviointitoimissa.
7. Los organismos notificados contarán con procedimientos documentados que garanticen que su personal, sus comités, sus filiales, sus subcontratistas y todos sus organismos asociados o personal de organismos externos mantengan, de conformidad con el artículo 78, la confidencialidad de la información que llegue a su poder en el desempeño de las actividades de evaluación de la conformidad, excepto en aquellos casos en que la ley exija su divulgación. El personal de los organismos notificados estará sujeto al secreto profesional en lo que respecta a toda la información obtenida en el ejercicio de las funciones que les hayan sido encomendadas en virtud del presente Reglamento, salvo en relación con las autoridades notificantes del Estado miembro en el que desarrollen sus actividades.
7. Ilmoitetuilla laitoksilla on oltava käytössään dokumentoidut menettelyt, joilla varmistetaan, että niiden henkilöstö, asiantuntijaryhmät, tytäryhtiöt, alihankkijat ja niihin liittyvät tahot tai ulkoisten tahojen henkilöstö noudattavat 78 artiklan mukaisesti luottamuksellisuutta sellaisten tietojen osalta, jotka ne saavat haltuunsa vaatimustenmukaisuuden arviointitoimien suorittamisen aikana, paitsi kun lainsäädännössä edellytetään tietojen luovuttamista. Ilmoitettujen laitosten henkilöstöllä on vaitiolovelvollisuus kaikkien niiden tietojen suhteen, joita ne saavat suorittaessaan tämän asetuksen mukaisia tehtäviään, paitsi sen jäsenvaltion ilmoittamisesta vastaaviin viranomaisiin nähden, jossa ne toimivat.
8. Los organismos notificados contarán con procedimientos para desempeñar sus actividades que tengan debidamente en cuenta el tamaño de los proveedores, el sector en que operan, su estructura y el grado de complejidad del sistema de IA de que se trate.
8. Ilmoitetuilla laitoksilla on oltava käytössään menettelyt tehtävien hoitamiseksi siten, että tarjoajan koko, toimiala ja rakenne sekä kyseessä olevan tekoälyjärjestelmän monimutkaisuus otetaan asianmukaisesti huomioon.
9. Los organismos notificados suscribirán un seguro de responsabilidad adecuado para sus actividades de evaluación de la conformidad, salvo que la responsabilidad la asuma el Estado miembro en que estén establecidos con arreglo al Derecho nacional o que el propio Estado miembro sea directamente responsable de la evaluación de la conformidad.
9. Ilmoitetuilla laitoksilla on oltava asianmukainen vastuuvakuutus vaatimustenmukaisuuden arviointitoimiensa varalle, jollei vastuu kuulu jäsenvaltiolle, johon ne ovat sijoittautuneet, kansallisen lainsäädännön mukaisesti tai jollei jäsenvaltio itse ole suoraan vastuussa vaatimustenmukaisuuden arvioinnista.
10. Los organismos notificados serán capaces de llevar a cabo todas sus tareas con arreglo al presente Reglamento con el máximo grado de integridad profesional y la competencia técnica necesaria en el ámbito específico, tanto si dichas tareas las efectúan los propios organismos notificados como si se realizan en su nombre y bajo su responsabilidad.
10. Ilmoitettujen laitosten on kyettävä suorittamaan kaikki niille tämän asetuksen mukaisesti kuuluvat tehtävät osoittaen mahdollisimman suurta ammatillista luotettavuutta ja kyseisellä erityisalalla vaadittavaa pätevyyttä riippumatta siitä, suorittavatko ilmoitetut laitokset kyseiset tehtävät itse vai suoritetaanko ne niiden puolesta ja vastuulla.
11. Los organismos notificados contarán con competencias técnicas internas suficientes para poder evaluar de manera eficaz las tareas que lleven a cabo agentes externos en su nombre. El organismo notificado dispondrá permanentemente de suficiente personal administrativo, técnico, jurídico y científico que tenga experiencia y conocimientos relativos a los tipos de sistemas de IA, los datos y la computación de datos pertinentes y a los requisitos establecidos en la sección 2.
11. Ilmoitetuilla laitoksilla on oltava riittävästi sisäistä osaamista, jotta ne voivat tehokkaasti arvioida ulkoisten osapuolten niiden puolesta suorittamat tehtävät. Ilmoitetulla laitoksella on oltava pysyvästi käytettävissään riittävä määrä hallinnollista, teknistä, oikeudellista ja tieteellistä henkilöstöä, jolla on asiaankuuluviin tekoälyjärjestelmätyyppeihin, dataan ja datalaskentaan sekä 2 jaksossa vahvistettuihin vaatimuksiin liittyvää kokemusta ja tietämystä.
12. Los organismos notificados participarán en las actividades de coordinación según lo previsto en el artículo 38. Asimismo, tomarán parte directamente o mediante representación en organizaciones europeas de normalización, o se asegurarán de mantenerse al corriente de la situación actualizada de las normas pertinentes.
12. Ilmoitettujen laitosten on osallistuttava 38 artiklassa tarkoitettuihin koordinointitoimiin. Niiden on myös osallistuttava suoraan tai oltava edustettuina eurooppalaisissa standardointiorganisaatioissa tai varmistettava, että ne ovat tietoisia asiaa koskevista standardeista ja ajan tasalla niiden suhteen.
Obligaciones operativas de los organismos notificados
Ilmoitettujen laitosten toimintaan liittyvät velvoitteet
1. Los organismos notificados verificarán la conformidad de los sistemas de IA de alto riesgo siguiendo los procedimientos de evaluación de la conformidad establecidos en el artículo 43.
1. Ilmoitettujen laitosten on tarkastettava suuririskisen tekoälyjärjestelmien vaatimustenmukaisuus 43 artiklassa olevien vaatimustenmukaisuuden arviointimenettelyjen mukaisesti.
2. Los organismos notificados evitarán cargas innecesarias para los proveedores cuando desempeñen sus actividades, y tendrán debidamente en cuenta el tamaño del proveedor, el sector en que opera, su estructura y el grado de complejidad del sistema de IA de alto riesgo de que se trate, en particular con vistas a reducir al mínimo las cargas administrativas y los costes del cumplimiento para las microempresas y pequeñas empresas en el sentido de la Recomendación 2003/361/CE. El organismo notificado respetará, sin embargo, el grado de rigor y el nivel de protección requeridos para que el sistema de IA de alto riesgo cumpla los requisitos del presente Reglamento.
2. Ilmoitettujen laitosten on vältettävä tarpeetonta rasitetta tarjoajille niiden toteuttaessa toimintaansa ja otettava asianmukaisesti huomioon tarjoajan koko, toimiala, sen rakenne ja kyseisen suuririskisen tekoälyjärjestelmän monimutkaisuus, erityisesti jotta voidaan minimoida suosituksessa 2003/361/EY tarkoitetuille mikroyrityksille ja pienille yrityksille aiheutuvat hallinnolliset rasitteet ja säännösten noudattamisesta aiheutuvat kustannukset. Ilmoitetun laitoksen on kuitenkin noudatettava sellaista tarkkuutta ja suojelun tasoa, jota suuririskisen tekoälyjärjestelmän vaatimustenmukaisuudelta edellytetään tämän asetuksen mukaisesti.
3. Los organismos notificados pondrán a disposición de la autoridad notificante mencionada en el artículo 28, y le presentarán cuando se les pida, toda la documentación pertinente, incluida la documentación de los proveedores, a fin de que dicha autoridad pueda llevar a cabo sus actividades de evaluación, designación, notificación y supervisión, y de facilitar la evaluación descrita en la presente sección.
3. Ilmoitettujen laitosten on asetettava saataville ja pyynnöstä toimitettava kaikki asiaankuuluvat asiakirjat, myös tarjoajien dokumentaatio, 28 artiklassa tarkoitetulle ilmoittamisesta vastaavalle viranomaiselle, jotta kyseinen viranomainen voisi suorittaa arviointi-, nimeämis-, ilmoitus- ja seurantatoimensa ja jotta helpotetaan tässä jaksossa kuvattua arviointia.
Cambios en las notificaciones
Ilmoituksiin tehtävät muutokset
1. La autoridad notificante notificará a la Comisión y a los demás Estados miembros cualquier cambio pertinente en la notificación de un organismo notificado a través del sistema de notificación electrónica a que se refiere el artículo 30, apartado 2.
1. Ilmoittamisesta vastaava viranomainen ilmoittaa komissiolle ja muille jäsenvaltioille merkityksellisistä muutoksista ilmoitettua laitosta koskevaan ilmoitukseen käyttäen 30 artiklan 2 kohdassa tarkoitettua sähköistä ilmoitusvälinettä.
2. Los procedimientos establecidos en los artículos 29 y 30 se aplicarán a las ampliaciones del ámbito de aplicación de la notificación.
2. Edellä 29 ja 30 artiklassa vahvistettuja menettelyjä on sovellettava ilmoituksen soveltamisalan laajentamisiin.
Para modificaciones de la notificación distintas de las ampliaciones de su ámbito de aplicación, se aplicarán los procedimientos establecidos en los apartados 3 a 9.
Jäljempänä 3–9 kohdassa vahvistettuja menettelyjä on sovellettava ilmoitusta koskeviin muutoksiin, jotka eivät koske sen soveltamisalan laajentamista.
3. Cuando un organismo notificado decida poner fin a sus actividades de evaluación de la conformidad, informará de ello a la autoridad notificante y a los proveedores afectados tan pronto como sea posible y, cuando se trate de un cese planeado, al menos un año antes de poner fin a sus actividades. Los certificados del organismo notificado podrán seguir siendo válidos durante un plazo de nueve meses después del cese de las actividades del organismo notificado, siempre que otro organismo notificado haya confirmado por escrito que asumirá la responsabilidad de los sistemas de IA de alto riesgo cubiertos por dichos certificados. Este último organismo notificado realizará una evaluación completa de los sistemas de IA de alto riesgo afectados antes del vencimiento de ese plazo de nueve meses y antes de expedir nuevos certificados para esos sistemas. Si el organismo notificado ha puesto fin a sus actividades, la autoridad notificante retirará la designación.
3. Jos ilmoitettu laitos päättää lopettaa vaatimustenmukaisuuden arviointia koskevat toimensa, sen on tiedotettava asiasta ilmoittamisesta vastaavalle viranomaiselle ja kyseisille tarjoajille mahdollisimman pian ja suunnitellun toimien lopettamisen tapauksessa vähintään yksi vuosi ennen toimien lopettamista. Ilmoitettujen laitosten todistukset voivat pysyä voimassa yhdeksän kuukauden ajan ilmoitetun laitoksen toimien lopettamisesta edellyttäen, että toinen ilmoitettu laitos on kirjallisesti vahvistanut, että se ottaa vastuulleen kyseisten todistusten kattamat suuririskiset tekoälyjärjestelmät. Viimeksi mainitun ilmoitetun laitoksen on saatettava suuririskisten tekoälyjärjestelmien täydellinen arviointi päätökseen kyseisen yhdeksän kuukauden jakson loppuun mennessä ennen uusien todistusten myöntämistä kyseisille järjestelmille. Jos ilmoitettu laitos on lopettanut toimintansa, ilmoittamisesta vastaava viranomainen peruuttaa nimeämisen.
4. Si una autoridad notificante tiene motivo suficiente para considerar que un organismo notificado ya no cumple los requisitos establecidos en el artículo 31 o no está cumpliendo sus obligaciones, la autoridad notificante investigará el asunto sin demora y con la máxima diligencia. En ese contexto, informará al organismo notificado de que se trate acerca de las objeciones formuladas y le ofrecerá la posibilidad de exponer sus puntos de vista. Si la autoridad notificante llega a la conclusión de que el organismo notificado ya no cumple los requisitos establecidos en el artículo 31 o no está cumpliendo sus obligaciones, dicha autoridad limitará, suspenderá o retirará la designación, según el caso, dependiendo de la gravedad del incumplimiento de dichos requisitos u obligaciones. Asimismo, informará de ello inmediatamente a la Comisión y a los demás Estados miembros.
4. Jos ilmoittamisesta vastaavalla viranomaisella on riittävä syy katsoa, ettei ilmoitettu laitos enää täytä 31 artiklassa säädettyjä vaatimuksia tai ettei se täytä velvollisuuksiaan, ilmoittamisesta vastaavan viranomaisen on tutkittava asia viipymättä ja perinpohjaisesti. Sen on tässä yhteydessä ilmoitettava asianomaiselle ilmoitetulle laitokselle esitetyistä väitteistä ja annettava sille mahdollisuus esittää näkemyksensä. Jos ilmoittamisesta vastaava viranomainen tulee johtopäätökseen, ettei ilmoitettu laitos enää täytä 31 artiklassa säädettyjä vaatimuksia tai ettei se täytä velvollisuuksiaan, sen on kyseisten vaatimusten tai velvollisuuksien täyttämisen laiminlyönnin vakavuudesta riippuen rajoitettava nimeämistä taikka peruutettava se toistaiseksi tai kokonaan. Sen on ilmoitettava tästä viipymättä komissiolle ja muille jäsenvaltioille.
5. Cuando su designación haya sido suspendida, limitada o retirada total o parcialmente, el organismo notificado informará a los proveedores afectados a más en un plazo de diez días.
5. Jos sen nimeäminen on peruutettu määräaikaisesti, sitä on rajoitettu tai se on peruutettu kokonaan tai osittain, ilmoitetun laitoksen on tiedotettava asiasta asianomaisille tarjoajille 10 päivän kuluessa.
6. En caso de la limitación, suspensión o retirada de una designación, la autoridad notificante adoptará las medidas oportunas para garantizar que los archivos del organismo notificado de que se trate se conserven, y para ponerlos a disposición de las autoridades notificantes de otros Estados miembros y de las autoridades de vigilancia del mercado, a petición de estas.
6. Jos nimeämistä rajoitetaan tai se peruutetaan määräaikaisesti tai kokonaan, ilmoittamisesta vastaavan viranomaisen on toteutettava asianmukaiset toimenpiteet sen varmistamiseksi, että kyseisen ilmoitetun laitoksen asiakirja-aineistot säilytetään ja pidetään muiden jäsenvaltioiden ilmoittamisesta vastaavien viranomaisten ja markkinavalvontaviranomaisten saatavilla näiden pyynnöstä;
7. En caso de la limitación, suspensión o retirada de una designación, la autoridad notificante:
7. Kun kyseessä on nimeämisen rajoittaminen, peruuttaminen määräaikaisesti tai peruuttaminen kokonaan, ilmoittamisesta vastaavan viranomaisen on
a)
evaluará las repercusiones en los certificados expedidos por el organismo notificado;
a)
arvioitava vaikutusta ilmoitetun laitoksen antamiin todistuksiin;
b)
presentará a la Comisión y a los demás Estados miembros un informe con sus conclusiones en un plazo de tres meses a partir de la notificación de los cambios en la designación;
b)
toimitettava havainnoistaan raportti komissiolle ja muille jäsenvaltioille kolmen kuukauden kuluessa siitä, kun se on ilmoittanut nimeämiseen tehtävistä muutoksista;
c)
exigirá al organismo notificado que suspenda o retire, en un plazo razonable determinado por la autoridad, todo certificado indebidamente expedido, a fin de garantizar la conformidad continua de los sistemas de IA de alto riesgo en el mercado;
c)
vaadittava ilmoitettua laitosta peruuttamaan määräaikaisesti tai kokonaan todistukset, jotka on annettu perusteettomasti, viranomaisen määrittelemän kohtuullisen ajanjakson kuluessa markkinoilla olevien suuririskisten tekoälyjärjestelmien jatkuvan vaatimustenmukaisuuden varmistamiseksi;
d)
informará a la Comisión y a los Estados miembros de los certificados cuya suspensión o retirada haya exigido;
d)
ilmoitettava komissiolle ja jäsenvaltioille todistuksista, joiden peruuttamista määräaikaisesti tai peruuttamista kokonaan se on vaatinut.
e)
facilitará a las autoridades nacionales competentes del Estado miembro en el que el proveedor tenga su domicilio social toda la información pertinente sobre los certificados cuya suspensión o retirada haya exigido; dicha autoridad tomará las medidas oportunas, cuando sea necesario, para evitar un riesgo para la salud, la seguridad o los derechos fundamentales.
e)
annettava sen jäsenvaltion kansallisille toimivaltaisille viranomaisille, jossa tarjoajalla on sääntömääräinen kotipaikkansa, kaikki asiaankuuluvat tiedot todistuksista, joiden peruuttamista määräaikaisesti tai kokonaan se on vaatinut. kyseisen viranomaisen on tarvittaessa toteutettava asianmukaiset toimenpiteet terveyteen, turvallisuuteen tai perusoikeuksiin kohdistuvan mahdollisen riskin välttämiseksi.
8. Salvo en el caso de los certificados expedidos indebidamente, y cuando una designación haya sido suspendida o limitada, los certificados mantendrán su validez en una de las circunstancias siguientes:
8. Lukuun ottamatta perusteettomasti annettuja todistuksia ja jos nimeäminen on peruttu määräaikaisesti tai sitä on rajoitettu, todistukset pysyvät edelleen voimassa jonkin seuraavan edellytyksen toteutuessa:
a)
cuando, en el plazo de un mes a partir de la suspensión o la limitación, la autoridad notificante haya confirmado que no existe riesgo alguno para la salud, la seguridad o los derechos fundamentales en relación con los certificados afectados por la suspensión o la limitación y haya fijado un calendario de acciones para subsanar la suspensión o la limitación, o
a)
ilmoittamisesta vastaava viranomainen on vahvistanut kuukauden kuluessa määräaikaisesta peruuttamisesta tai rajoittamisesta, että todistuksiin, joihin määräaikainen peruuttaminen tai rajoittaminen vaikuttaa, ei liity terveydelle, turvallisuudelle tai perusoikeuksille aiheutuvaa riskiä, ja ilmoittamisesta vastaava viranomainen on esittänyt aikataulun ja toimet määräaikaisen peruuttamisen tai rajoittamisen korjaamiseksi; tai
b)
cuando la autoridad notificante haya confirmado que no se expedirán, modificarán ni volverán a expedir certificados relacionados con la suspensión mientras dure la suspensión o limitación, y declare si el organismo notificado tiene o no la capacidad, durante el período de la suspensión o limitación, de seguir supervisando los certificados expedidos y siendo responsable de ellos; cuando la autoridad notificante determine que el organismo notificado no tiene la capacidad de respaldar los certificados expedidos, el proveedor del sistema cubierto por el certificado deberá confirmar por escrito a las autoridades nacionales competentes del Estado miembro en que tenga su domicilio social, en un plazo de tres meses a partir de la suspensión o limitación, que otro organismo notificado cualificado va a asumir temporalmente las funciones del organismo notificado para supervisar los certificados y ser responsable de ellos durante el período de la suspensión o limitación.
b)
ilmoittamisesta vastaava viranomainen on vahvistanut, että määräaikaisen peruuttamisen kannalta merkityksellisiä todistuksia ei myönnetä, muuteta tai uusita määräaikaisen peruuttamisen tai rajoittamisen aikana ja toteaa, pystyykö ilmoitettu laitos edelleen seuraamaan olemassa olevia myönnettyjä todistuksia määräaikaisen peruuttamisen tai rajoittamisen aikana ja ottamaan niistä vastuun; jos ilmoittamisesta vastaava viranomainen toteaa, että ilmoitettu laitos ei pysty ottamaan vastuuta olemassa olevista myönnetyistä todistuksista, on todistuksen kattaman järjestelmän tarjoajan vahvistettava kirjallisesti sen jäsenvaltion kansallisille toimivaltaisille viranomaisille, jossa sillä on sääntömääräinen kotipaikkansa, kolmen kuukauden kuluessa määräaikaisesta peruuttamisesta tai rajoittamisesta, että toinen pätevä ilmoitettu laitos ottaa väliaikaisesti hoitaakseen ilmoitetun laitoksen tehtävät seurata todistuksia ja ottaa niistä vastuu määräaikaisen peruuttamisen tai rajoittamisen aikana.
9. Salvo en el caso de los certificados expedidos indebidamente, y cuando se haya retirado una designación, los certificados mantendrán su validez durante nueve meses en las circunstancias siguientes:
9. Lukuun ottamatta perusteettomasti annettuja todistuksia ja jos nimeäminen on peruttu, todistukset pysyvät voimassa yhdeksän kuukauden ajan seuraavin edellytyksin:
a)
la autoridad nacional competente del Estado miembro en el que tiene su domicilio social el proveedor del sistema de IA de alto riesgo cubierto por el certificado ha confirmado que no existe ningún riesgo para la salud, la seguridad o los derechos fundamentales asociado al sistema de IA de alto riesgo de que se trate, y
a)
sen jäsenvaltion kansallinen toimivaltainen viranomainen, jossa todistuksen kattaman suuririskisen tekoälyjärjestelmän tarjoajalla on sääntömääräinen kotipaikkansa, on vahvistanut, että kyseisiin suuririskisiin tekoälyjärjestelmiin ei liity terveyteen, turvallisuuteen tai perusoikeuksiin kohdistuvia riskejä; sekä
b)
otro organismo notificado ha confirmado por escrito que asumirá la responsabilidad inmediata de dichos sistemas de IA y completa su evaluación en el plazo de doce meses a partir de la retirada de la designación.
b)
toinen ilmoitettu laitos on kirjallisesti vahvistanut, että se ottaa välittömästi vastuulleen kyseiset tekoälyjärjestelmät ja saattaa niiden arvioinnin päätöksen 12 kuukauden kuluessa nimeämisen peruuttamisesta.
En las circunstancias a que se refiere el párrafo primero, la autoridad nacional competente del Estado miembro en el que tenga su domicilio social el proveedor del sistema cubierto por el certificado podrá prorrogar la validez provisional de los certificados por plazos adicionales de tres meses, sin exceder de doce meses en total.
Ensimmäisessä alakohdassa tarkoitetuissa olosuhteissa sen jäsenvaltion kansallinen toimivaltainen viranomainen, jossa todistuksen kattaman järjestelmän tarjoajalla on kotipaikkansa, voi jatkaa todistusten väliaikaista voimassaoloa kolmen kuukauden pituisilla ajanjaksoilla, joiden kokonaiskesto ei saa ylittää 12:ta kuukautta.
La autoridad nacional competente o el organismo notificado que asuman las funciones del organismo notificado afectado por el cambio de la designación informarán de ello inmediatamente a la Comisión, a los demás Estados miembros y a los demás organismos notificados.
Kansallisen toimivaltaisen viranomaisen tai ilmoitetun laitoksen, joka ottaa hoitaakseen nimeämismuutoksen kohteena olevan ilmoitetun laitoksen tehtävät, on viipymättä ilmoitettava asiasta komissiolle, muille jäsenvaltioille ja muille ilmoitetuille laitoksille.
Cuestionamiento de la competencia de los organismos notificados
Ilmoitettujen laitosten pätevyyden riitauttaminen
1. La Comisión investigará, cuando sea necesario, todos los casos en los que existan razones para dudar de la competencia de un organismo notificado o del cumplimiento continuo, por parte de un organismo notificado, de los requisitos establecidos en el artículo 31 y de sus responsabilidades aplicables.
1. Komissio tutkii tarvittaessa kaikki tapaukset, joissa on syytä epäillä laitoksen pätevyyttä tai sitä, täyttääkö ilmoitettu laitos edelleen 31 artiklassa vahvistetut vaatimukset ja siihen sovellettavat velvollisuudet.
2. La autoridad notificante facilitará a la Comisión, a petición de esta, toda la información pertinente relativa a la notificación o el mantenimiento de la competencia del organismo notificado de que se trate.
2. Ilmoittamisesta vastaavan viranomaisen on toimitettava komissiolle pyynnöstä kaikki merkitykselliset tiedot, jotka koskevat kyseisen ilmoitetun laitoksen ilmoittamista tai sen pätevyyden ylläpitoa.
3. La Comisión garantizará el tratamiento confidencial de acuerdo con el artículo 78 de toda la información delicada recabada en el transcurso de sus investigaciones en virtud del presente artículo.
3. Komissio varmistaa, että kaikkia sen tämän artiklan mukaisten tutkimusten yhteydessä saamia arkaluontoisia tietoja käsitellään luottamuksellisesti 78 artiklan mukaisesti.
4. Cuando la Comisión determine que un organismo notificado no cumple o ha dejado de cumplir los requisitos para su notificación, informará al Estado miembro notificante en consecuencia y le solicitará que adopte las medidas correctoras necesarias, incluidas la suspensión o la retirada de la designación en caso necesario. Si el Estado miembro no adopta las medidas correctoras necesarias, la Comisión, mediante un acto de ejecución, podrá suspender, limitar o retirar la designación. Dicho acto de ejecución se adoptará con arreglo al procedimiento de examen contemplado en el artículo 98, apartado 2.
4. Jos komissio toteaa, että ilmoitettu laitos ei täytä tai ei enää täytä sen ilmoittamiselle asetettuja vaatimuksia, se ilmoittaa asiasta ilmoituksen tehneelle jäsenvaltiolle asianmukaisesti ja pyytää sitä ryhtymään tarvittaviin korjaaviin toimenpiteisiin, mukaan lukien tarvittaessa ilmoituksen peruuttaminen toistaiseksi tai kokonaan. Jos jäsenvaltio ei toteuta tarvittavia korjaavia toimenpiteitä, komissio voi täytäntöönpanosäädöksellä peruuttaa nimeämisen toistaiseksi, rajoittaa sitä tai peruuttaa sen kokonaan. Tämä täytäntöönpanosäädös hyväksytään 98 artiklan 2 kohdassa tarkoitettua tarkastelumenettelyä noudattaen.
Normas armonizadas y documentos de normalización
Yhdenmukaistetut standardit ja standardointituotteet
1. Los sistemas de IA de alto riesgo o los modelos de IA de uso general que sean conformes con normas armonizadas, o partes de estas, cuyas referencias estén publicadas en el Diario Oficial de la Unión Europea de conformidad con el Reglamento (UE) n.o 1025/2012 se presumirá que son conformes con los requisitos establecidos en la sección 2 del presente capítulo o, en su caso, con las obligaciones establecidas en el capítulo V, secciones 2 y 3, del presente Reglamento, en la medida en que dichas normas contemplen estos requisitos u obligaciones.
1. Suuririskisiä tekoälyjärjestelmiä tai yleiskäyttöisiä tekoälymalleja, jotka ovat sellaisten yhdenmukaistettujen standardien tai niiden osien mukaisia, joiden viitetiedot on julkaistu Euroopan unionin virallisessa lehdessä asetuksen (EU) N:o 1025/2012 mukaisesti, on pidettävä tämän luvun 2 jaksossa vahvistettujen vaatimusten mukaisina tai tapauksen mukaan tämän asetuksen V luvun 2 ja 3 jaksossa vahvistettujen velvoitteiden mukaisina siltä osin kuin kyseiset standardit kattavat nämä vaatimukset tai velvoitteet.
2. De conformidad con el artículo 10 del Reglamento (UE) n.o 1025/2012, la Comisión formulará, sin demora indebida, peticiones de normalización que contemplen todos los requisitos establecidos en la sección 2 del presente capítulo y, según proceda, las peticiones de normalización que contemplen las obligaciones establecidas en el capítulo V, secciones 2 y 3, del presente Reglamento. La petición de normalización también incluirá la solicitud de documentos sobre los procesos de presentación de información y documentación a fin de mejorar el funcionamiento de los de los sistemas de IA desde el punto de vista de los recursos, como la reducción del consumo de energía y de otros recursos del sistema de IA de alto riesgo durante su ciclo de vida, así como sobre el desarrollo eficiente desde el punto de vista energético de los modelos de IA de uso general. Cuando prepare una petición de normalización, la Comisión consultará al Consejo de IA y a las partes interesadas pertinentes, incluido el foro consultivo.
2. Asetuksen (EU) N:o 1025/2012 10 artiklan mukaisesti komissio esittää ilman aiheetonta viivytystä standardointipyyntöjä, jotka kattavat kaikki tämän luvun 2 jaksossa vahvistetut vaatimukset, ja tapauksen mukaan standardointipyyntöjä, jotka kattavat tämän asetuksen V luvun 2 ja 3 jaksossa säädetyt velvoitteet. Standardointipyynnössä on myös pyydettävä tuotteita raportointi- ja dokumentointiprosesseista, joilla parannetaan tekoälyjärjestelmien resurssitehokkuutta, kuten vähennetään suuririskisen tekoälyjärjestelmän energian ja muiden resurssien kulutusta sen elinkaaren aikana sekä kehitetään energiatehokkaasti yleiskäyttöisiä tekoälymalleja. Standardointipyyntöä valmistellessaan komissio kuulee tekoälylautakuntaa ja asiaankuuluvia sidosryhmiä, myös neuvoa-antavaa foorumia.
Cuando dirija una petición de normalización a las organizaciones europeas de normalización, la Comisión especificará que las normas deben ser claras, coherentes —también con las normas elaboradas en diversos sectores para los productos regulados por los actos legislativos de armonización de la Unión vigentes enumerados en el anexo I— y destinadas a garantizar que los sistemas de IA de alto riesgo o los modelos de IA de uso general introducidos en el mercado o puestos en servicio en la Unión cumplan los requisitos u obligaciones pertinentes establecidos en el presente Reglamento.
Esittäessään standardointipyynnön eurooppalaisille standardointiorganisaatioille komissio täsmentää, että standardien on oltava selkeitä, yhdenmukaisia, myös eri aloilla kehitetyt standardit liitteessä I luetellun voimassa olevan unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluville tuotteille, ja niillä on pyrittävä varmistamaan, että unionissa markkinoille saatetut tai käyttöön otetut suuririskiset tekoälyjärjestelmät tai yleiskäyttöiset tekoälymallit täyttävät tässä asetuksessa säädetyt asiaankuuluvat vaatimukset tai velvoitteet.
La Comisión solicitará a las organizaciones europeas de normalización que aporten pruebas de que han hecho todo lo posible por cumplir los objetivos a que se refieren los párrafos primero y segundo del presente apartado, de conformidad con el artículo 24 del Reglamento (UE) n.o 1025/2012.
Komissio pyytää eurooppalaisia standardointiorganisaatioita esittämään asetuksen (EU) N:o 1025/2012 24 artiklan mukaisesti näyttöä siitä, että ne ovat parhaansa mukaan pyrkineet saavuttamaan tämän kohdan ensimmäisessä ja toisessa alakohdassa tarkoitetut tavoitteet.
3. Los participantes en el proceso de normalización tratarán de promover la inversión y la innovación en IA, también incrementando la seguridad jurídica, así como la competitividad y el crecimiento del mercado de la Unión, de contribuir al refuerzo de la cooperación mundial en pro de la normalización, teniendo en cuenta las normas internacionales existentes en el ámbito de la IA que son coherentes con los valores, derechos fundamentales e intereses de la Unión, y de mejorar la gobernanza multilateral, garantizando una representación equilibrada de los intereses y la participación efectiva de todas las partes interesadas pertinentes de conformidad con los artículos 5, 6 y 7 del Reglamento (UE) n.o 1025/2012.
3. Standardointiprosessiin osallistuvien on pyrittävä edistämään tekoälyalan investointeja ja innovointia, myös lisäämällä oikeusvarmuutta, sekä unionin markkinoiden kilpailukykyä ja kasvua sekä osaltaan edistämään maailmanlaajuisen standardointiyhteistyön lujittamista ja sellaisten olemassa olevien tekoälyalan kansainvälisten standardien huomioon ottamista, jotka ovat unionin arvojen, perusoikeuksien ja etujen mukaisia, ja edistämään monisidosryhmäistä hallintoa varmistaen etujen tasapainoinen edustus ja kaikkien asiaankuuluvien sidosryhmien tosiasiallinen osallistuminen asetuksen (EU) N:o 1025/2012 5, 6 ja 7 artiklan mukaisesti.
1. La Comisión podrá adoptar actos de ejecución por los que se establezcan especificaciones comunes para los requisitos establecidos en la sección 2 del presente capítulo o, según corresponda, para las obligaciones establecidas en el capítulo V, secciones 2 y 3, siempre que se hayan cumplido las siguientes condiciones:
1. Komissio voi antaa täytäntöönpanosäädöksiä, joilla vahvistetaan yhteiset eritelmät tämän luvun 2 jaksossa säädettyjä vaatimuksia tai tapauksen mukaan V luvun 2 ja 3 jaksossa säädettyjä velvoitteita varten, jos seuraavat edellytykset täyttyvät:
a)
la Comisión ha solicitado, de conformidad con el artículo 10, apartado 1, del Reglamento (UE) n.o 1025/2012, a una o varias organizaciones europeas de normalización que elaboren una norma armonizada para los requisitos establecidos en la sección 2 del presente capítulo, o según corresponda, para las obligaciones establecidas en el capítulo V, secciones 2 y 3, y:
a)
komissio on pyytänyt asetuksen (EU) N:o 1025/2012 10 artiklan 1 kohdan nojalla yhtä tai useampaa eurooppalaista standardointiorganisaatiota laatimaan yhdenmukaistetun standardin tämän luvun 2 jaksossa vahvistettuja vaatimuksia varten tai tapauksen mukaan V luvun 2 ja 3 jaksossa säädettyjä velvoitteita varten:
i)
la solicitud no ha sido aceptada por ninguna de las organizaciones europeas de normalización, o
i)
yksikään eurooppalainen standardointiorganisaatio ei ole hyväksynyt pyyntöä; tai
ii)
las normas armonizadas que responden a dicha solicitud no se han entregado en el plazo establecido de conformidad con el artículo 10, apartado 1, del Reglamento (UE) n.o 1025/2012, o
ii)
kyseiseen pyyntöön liittyviä eurooppalaisia yhdenmukaistettuja standardeja ei ole toimitettu asetuksen (EU) N:o 1025/2012 10 artiklan 1 kohdan mukaisesti asetetussa määräajassa; tai
iii)
las normas armonizadas pertinentes responden de forma insuficiente a las preocupaciones en materia de derechos fundamentales, o
iii)
asiaankuuluvissa yhdenmukaistetuissa standardeissa ei oteta riittävästi huomioon perusoikeuksiin liittyviä huolenaiheita; tai
iv)
las normas armonizadas no se ajustan a la solicitud, y
iv)
yhdenmukaistetut standardit eivät ole pyynnön mukaisia; ja
b)
no se ha publicado en el Diario Oficial de la Unión Europea ninguna referencia a normas armonizadas que regulen los requisitos establecidos en la sección 2 del presente capítulo, o según proceda, las obligaciones a que se refiere el capítulo V, secciones 2 y 3, de conformidad con el Reglamento (UE) n.o 1025/2012 y no se prevé la publicación de tal referencia en un plazo razonable.
b)
tämän luvun 2 jaksossa tarkoitetut vaatimukset tai tapauksen mukaan V luvun 2 ja 3 jaksossa säädetyt velvoitteet kattavien yhdenmukaistettujen standardien viitetietoja ei ole julkaistu Euroopan unionin virallisessa lehdessä asetuksen (EU) N:o 1025/2012 mukaisesti, eikä ole odotettavissa, että tällaiset viitetiedot julkaistaan kohtuullisen ajan kuluessa.
Al elaborar las disposiciones comunes, la Comisión consultará al foro consultivo a que se refiere el artículo 67.
Yhteisiä eritelmiä laatiessaan komissio kuulee 67 artiklassa tarkoitettua neuvoa-antavaa ryhmää.
Los actos de ejecución a que se refiere el párrafo primero del presente apartado se adoptarán de conformidad con el procedimiento de examen contemplado en el artículo 98, apartado 2.
Tämän kohdan ensimmäisessä alakohdassa tarkoitetut täytäntöönpanosäädökset hyväksytään 98 artiklan 2 kohdassa tarkoitettua tarkastelumenettelyä noudattaen.
2. Antes de elaborar un proyecto de acto de ejecución, la Comisión informará al comité a que se refiere el artículo 22 del Reglamento (UE) n.o 1025/2012 de que considera que se cumplen las condiciones establecidas en el apartado 1 del presente artículo.
2. Ennen kuin komissio laatii ehdotuksen täytäntöönpanosäädökseksi, se ilmoittaa asetuksen (EU) N:o 1025/2012 22 artiklassa tarkoitetulle komitealle katsovansa, että tämän artiklan 1 kohdassa säädetyt edellytykset täyttyvät.
3. Se presumirá que los sistemas de IA de alto riesgo o los modelos de IA de uso general que sean conformes con las especificaciones comunes a que se refiere el apartado 1, o partes de dichas especificaciones, son conformes con los requisitos establecidos en la sección 2 del presente capítulo o, según corresponda, para cumplir con las obligaciones a que se refiere el capítulo V, secciones 2 y 3, en la medida en que dichas especificaciones comunes contemplen esos requisitos o esas obligaciones.
3. Suuririskisiä tekoälyjärjestelmiä ja yleiskäyttöisiä tekoälymalleja, jotka ovat 1 kohdassa tarkoitettujen yhteisten eritelmien tai kyseisten eritelmien osien mukaisia, on pidettävä tämän luvun 2 jaksossa vahvistettujen vaatimusten tai tapauksen mukaan V luvun 2 ja 3 jaksossa tarkoitettujen velvoitteiden mukaisina siltä osin kuin kyseiset yhteiset eritelmät kattavat nämä vaatimukset tai velvoitteet.
4. Cuando una norma armonizada sea adoptada por una organización europea de normalización y propuesta a la Comisión con el fin de publicar su referencia en el Diario Oficial de la Unión Europea, la Comisión evaluará la norma armonizada de conformidad con el Reglamento (UE) n.o 1025/2012. Cuando la referencia a una norma armonizada se publique en el Diario Oficial de la Unión Europea, la Comisión derogará los actos de ejecución a que se refiere el apartado 1, o las partes de dichos actos que contemplen los mismos requisitos establecidos en la sección 2 del presente capítulo o, según corresponda, las mismas obligaciones establecidas en el capítulo V, secciones 2 y 3.
4. Jos eurooppalainen standardointiorganisaatio vahvistaa yhdenmukaistetun standardin ja ehdottaa komissiolle sen viitetietojen julkaisemista Euroopan unionin virallisessa lehdessä, komissio arvioi yhdenmukaistetun standardin asetuksen (EU) N:o 1025/2012 mukaisesti. Kun yhdenmukaistetun standardin viitetiedot julkaistaan Euroopan unionin virallisessa lehdessä, komissio kumoaa 1 kohdassa tarkoitetut täytäntöönpanosäädökset tai niiden osat, jotka kattavat samat tämän luvun 2 jaksossa vahvistetut vaatimukset tai tapauksen mukaan samat V luvun 2 ja 3 jaksossa säädetyt velvoitteet.
5. Cuando los proveedores de sistemas de IA de alto riesgo o los modelos de IA de uso general no cumplan las especificaciones comunes mencionadas en el apartado 1, justificarán debidamente que han adoptado soluciones técnicas que cumplan los requisitos a que se refiere la sección 2 del presente capítulo o, según corresponda, cumplan con las obligaciones establecidas en el capítulo V, secciones 2 y 3, en un nivel como mínimo equivalente a aquellos.
5. Jos suuririskisten tekoälyjärjestelmien tai yleiskäyttöisten tekoälymallien tarjoajat eivät noudata 1 kohdassa tarkoitettuja yhteisiä eritelmiä, niiden on perusteltava asianmukaisesti, että ne ovat ottaneet käyttöön tämän luvun 2 jaksossa vahvistetut vaatimukset tai tapauksen mukaan V luvun 2 ja 3 jaksossa säädetyt velvoitteet täyttäviä, vähintään vastaavan tasoisia teknisiä ratkaisuja.
6. Cuando un Estado miembro considere que una especificación común no cumple plenamente los requisitos establecidos en la sección 2, o, según corresponda, no cumple con las obligaciones establecidas en el capítulo V, secciones 2 y 3, informará de ello a la Comisión con una explicación detallada. La Comisión evaluará dicha información y, en su caso, modificará el acto de ejecución por el que se establece la especificación común de que se trate.
6. Jos jäsenvaltio katsoo, että yhteinen eritelmä ei täysin täytä 2 jaksossa vahvistettuja vaatimuksia tai tapauksen mukaan V luvun 2 ja 3 jaksossa säädettyjä velvoitteita, sen on ilmoitettava asiasta komissiolle toimittamalla yksityiskohtainen selvitys. Komissio arvioi kyseiset tiedot ja muuttaa tarvittaessa täytäntöönpanosäädöstä, jolla kyseinen yhteinen eritelmä vahvistetaan.
Evaluación de la conformidad
Vaatimustenmukaisuuden arviointi
1. En el caso de los sistemas de IA de alto riesgo enumerados en el anexo III, punto 1, cuando, al demostrar el cumplimiento de los requisitos establecidos en la sección 2 por parte de un sistema de IA de alto riesgo, el proveedor haya aplicado las normas armonizadas a que se refiere el artículo 40, o bien, en su caso, las especificaciones comunes a que se refiere el artículo 41, el proveedor optará por uno de los procedimientos de evaluación de la conformidad siguientes:
1. Kun tarjoaja on liitteessä III olevassa 1 kohdassa lueteltujen suuririskisten tekoälyjärjestelmien osalta soveltanut 40 artiklassa tarkoitettuja yhdenmukaistettuja standardeja tai mahdollisuuksien mukaan 41 artiklassa tarkoitettuja yhteisiä eritelmiä osoittaakseen, että suuririskinen tekoälyjärjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen, tarjoajan on valittava jompikumpi seuraavista vaatimustenmukaisuuden arviointimenettelyistä, jotka perustuvat seuraaviin:
a)
el fundamentado en el control interno, mencionado en el anexo VI, o
a)
liitteessä VI tarkoitettu sisäinen valvonta; tai
b)
el fundamentado en la evaluación del sistema de gestión de la calidad y la evaluación de la documentación técnica, con la participación de un organismo notificado, mencionado en el anexo VII.
b)
liitteessä VII tarkoitettu laadunhallintajärjestelmän ja teknisen dokumentaation arviointi, johon osallistuu ilmoitettu laitos.
Al demostrar el cumplimiento de los requisitos establecidos en la sección 2 por parte de un sistema de IA de alto riesgo, el proveedor se atendrá al procedimiento de evaluación de la conformidad establecido en el anexo VII cuando:
Osoittaessaan, että suuririskinen tekoälyjärjestelmä on 2 jaksossa vahvistettujen vaatimusten mukainen, tarjoajan on noudatettava liitteessä VII vahvistettua vaatimustenmukaisuuden arviointimenettelyä, jos
a)
las normas armonizadas a que se refiere el artículo 40 no existan, y no se disponga de las especificaciones comunes a que se refiere el artículo 41;
a)
40 artiklassa tarkoitettuja yhdenmukaistettuja standardeja ei ole olemassa eikä 41 artiklassa tarkoitettuja yhteisiä eritelmiä ole saatavilla;
b)
el proveedor no haya aplicado la norma armonizada, o solo haya aplicado parte de esta;
b)
tarjoaja ei ole soveltanut tai on soveltanut vain osaa yhdenmukaistetusta standardista;
c)
existan las especificaciones comunes a que se refiere la letra a), pero el proveedor no las haya aplicado;
c)
edellä a alakohdassa tarkoitetut yhteiset eritelmät ovat olemassa, mutta tarjoaja ei ole soveltanut niitä;
d)
una o varias de las normas armonizadas a que se refiere la letra a) se hayan publicado con una limitación, y únicamente en la parte de la norma objeto de la limitación.
d)
yksi tai useampi a alakohdassa tarkoitetuista yhdenmukaistetuista standardeista on julkaistu rajoitetusti ja vain standardin siltä osin, jota rajoitus koskee.
A efectos del procedimiento de evaluación de la conformidad mencionado en el anexo VII, el proveedor podrá escoger cualquiera de los organismos notificados. No obstante, cuando se prevea la puesta en servicio del sistema de IA de alto riesgo por parte de las autoridades garantes del cumplimiento del Derecho, las autoridades de inmigración o las autoridades de asilo, o por las instituciones, órganos u organismos de la Unión, la autoridad de vigilancia del mercado mencionada en el artículo 74, apartado 8 o 9, según proceda, actuará como organismo notificado.
Tarjoaja voi valita minkä tahansa ilmoitetuista laitoksista liitteessä VII tarkoitettua vaatimustenmukaisuuden arviointimenettelyä varten. Kuitenkin jos lainvalvonta-, maahanmuutto- tai turvapaikkaviranomaisten tai unionin toimielinten, elinten, toimistojen tai virastojen on tarkoitus ottaa suuririskinen tekoälyjärjestelmä käyttöön, ilmoitettuna laitoksena toimii tapauksen mukaan 74 artiklan 8 tai 9 kohdassa tarkoitettu markkinavalvontaviranomainen.
2. En el caso de los sistemas de IA de alto riesgo mencionados en el anexo III, puntos 2 a 8, los proveedores se atendrán al procedimiento de evaluación de la conformidad fundamentado en un control interno a que se refiere el anexo VI, que no contempla la participación de un organismo notificado.
2. Liitteessä III olevassa 2–8 kohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta tarjoajien on noudatettava liitteessä VI tarkoitettua sisäiseen valvontaan perustuvaa vaatimustenmukaisuuden arviointimenettelyä, jossa ei edellytetä ilmoitetun laitoksen osallistumista.
3. En el caso de los sistemas de IA de alto riesgo regulados por los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, el proveedor se atendrá al procedimiento de evaluación de la conformidad pertinente exigida por dichos actos legislativos. Los requisitos establecidos en la sección 2 del presente capítulo se aplicarán a dichos sistemas de IA de alto riesgo y formarán parte de dicha evaluación. Asimismo, se aplicarán los puntos 4.3, 4.4 y 4.5 del anexo VII, así como el punto 4.6, párrafo quinto, de dicho anexo.
3. Sellaisten suuririskisten tekoälyjärjestelmien osalta, joihin sovelletaan liitteessä I olevassa A jaksossa lueteltua unionin yhdenmukaistamislainsäädäntöä, tarjoajan on noudatettava kyseisissä säädöksissä edellytettyä asiaankuuluvaa vaatimustenmukaisuuden arviointimenettelyä. Kyseisiin suuririskisiin tekoälyjärjestelmiin sovelletaan tämän luvun 2 jaksossa vahvistettuja vaatimuksia, ja niiden on oltava osa tätä arviointia. Lisäksi sovelletaan liitteessä VII olevaa 4.3, 4.4 ja 4.5 kohtaa sekä 4.6 kohdan viidettä kohtaa.
A efectos de dicha evaluación, los organismos notificados que hayan sido notificados con arreglo a dichos actos legislativos dispondrán de la facultad de controlar la conformidad de los sistemas de IA de alto riesgo con los requisitos establecidos en la sección 2, a condición de que se haya evaluado el cumplimiento por parte de dichos organismos notificados de los requisitos establecidos en el artículo 31, apartados 4, 5, 10 y 11, en el contexto del procedimiento de notificación con arreglo a dichos actos legislativos.
Tätä arviointia varten ilmoitetuilla laitoksilla, jotka on ilmoitettu kyseisten säädösten mukaisesti, on oikeus valvoa, että suuririskiset tekoälyjärjestelmät ovat 2 jaksossa vahvistettujen vaatimusten mukaisia, edellyttäen, että sitä, että kyseiset ilmoitut laitokset täyttävät 31 artiklan 4, 5, 10 ja 11 kohdassa vahvistetut vaatimukset, on arvioitu kyseisten säädösten mukaisen ilmoitusmenettelyn yhteydessä.
Cuando un acto legislativo enumerado en el anexo I, sección A, permita al fabricante del producto prescindir de una evaluación de la conformidad de terceros, a condición de que el fabricante haya aplicado todas las normas armonizadas que contemplan todos los requisitos pertinentes, dicho fabricante solamente podrá recurrir a esta opción si también ha aplicado las normas armonizadas o, en su caso, las especificaciones comunes a que se refiere el artículo 41 que contemplan todos los requisitos establecidos en la sección 2 del presente capítulo.
Jos liitteessä I olevassa A jaksossa luetellun säädöksen nojalla tuotteen valmistaja voi olla soveltamatta kolmannen osapuolen suorittamaa vaatimustenmukaisuuden arviointia ja edellyttäen, että kyseinen valmistaja on soveltanut kaikkia yhdenmukaistettuja standardeja, jotka kattavat kaikki asiaankuuluvat vaatimukset, kyseinen valmistaja voi käyttää tätä vaihtoehtoa ainoastaan, jos se on myös soveltanut yhdenmukaistettuja standardeja tai mahdollisuuksien mukaan 41 artiklassa tarkoitettuja yhteisiä eritelmiä, jotka kattavat kaikki tämän luvun 2 jaksossa vahvistetut vaatimukset.
4. Los sistemas de IA de alto riesgo que ya hayan sido objeto de un procedimiento de evaluación de la conformidad se someterán a un nuevo procedimiento de evaluación de la conformidad en caso de modificación sustancial, con independencia de si está prevista una distribución posterior del sistema modificado o de si este continúa siendo utilizado por el responsable del despliegue actual.
4. Suuririskisille tekoälyjärjestelmille, joille on jo tehty vaatimustenmukaisuuden arviointimenettely, on tehtävä uusi vaatimustenmukaisuuden arviointimenettely silloin, kun niitä muutetaan merkittävästi, riippumatta siitä, onko muutettua järjestelmää tarkoitus jaella edelleen vai jatkaako nykyinen käyttöönottaja sen käyttöä.
En el caso de los sistemas de IA de alto riesgo que continúen aprendiendo tras su introducción en el mercado o su puesta en servicio, los cambios en el sistema de IA de alto riesgo y su funcionamiento que hayan sido predeterminados por el proveedor en el momento de la evaluación inicial de la conformidad y figuren en la información recogida en la documentación técnica mencionada en el anexo IV, punto 2, letra f), no constituirán modificaciones sustanciales.
Sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen, suuririskiseen tekoälyjärjestelmään ja sen suorituskykyyn tehtävät muutokset, jotka tarjoaja on määritellyt ennalta ensimmäisen vaatimustenmukaisuuden arvioinnin yhteydessä ja jotka ovat osa liitteessä IV olevan 2 kohdan f alakohdassa tarkoitettuja tekniseen dokumentaatioon sisältyviä tietoja, eivät muodosta merkittävää muutosta.
5. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar los anexos VI y VII actualizándolos a la luz del progreso técnico.
5. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti liitteiden VI ja VII muuttamiseksi niiden saattamiseksi ajan tasalle tekniikan kehityksen huomioon ottamiseksi.
6. La Comisión estará facultada para adoptar actos delegados de conformidad con el artículo 97 al objeto de modificar los apartados 1 y 2 del presente artículo a fin de someter a los sistemas de IA de alto riesgo mencionados en el anexo III, puntos 2 a 8, al procedimiento de evaluación de la conformidad a que se refiere el anexo VII o a partes de este. La Comisión adoptará dichos actos delegados teniendo en cuenta la eficacia del procedimiento de evaluación de la conformidad fundamentado en un control interno mencionado en el anexo VI para prevenir o reducir al mínimo los riesgos para la salud, la seguridad y la protección de los derechos fundamentales que plantean estos sistemas, así como la disponibilidad de capacidades y recursos adecuados por parte de los organismos notificados.
6. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti tämän artiklan 1 ja 2 kohdan muuttamiseksi, jotta liitteessä III olevassa 2–8 kohdassa tarkoitettuihin suuririskisiin tekoälyjärjestelmiin voidaan soveltaa liitteessä VII tarkoitettua vaatimustenmukaisuuden arviointimenettelyä tai sen osia. Komissio ottaa tällaisia delegoituja säädöksiä hyväksyessään huomioon liitteessä VI tarkoitetun sisäiseen valvontaan perustuvan vaatimustenmukaisuuden arviointimenettelyn tehokkuuden tällaisista järjestelmistä terveydelle ja turvallisuudelle sekä perusoikeuksien suojelulle aiheutuvien riskien ehkäisemisessä tai minimoimisessa sekä riittävien valmiuksien ja resurssien saatavuuden ilmoitetuissa laitoksissa.
1. Los certificados expedidos por los organismos notificados con arreglo al anexo VII se redactarán en una lengua que las autoridades pertinentes del Estado miembro en el que esté establecido el organismo notificado puedan entender fácilmente.
1. Ilmoitettujen laitosten liitteen VII mukaisesti antamien todistusten on oltava laadittu kielellä, jota sen jäsenvaltion, johon ilmoitettu laitos on sijoittautunut, asiaankuuluvat viranomaiset ymmärtävät helposti.
2. Los certificados serán válidos para el período que indiquen, que no excederá de cinco años para los sistemas de IA contemplados en el anexo I, y cuatro años para los sistemas de IA contemplados en el anexo III. A solicitud del proveedor, la validez de un certificado podrá prorrogarse por períodos adicionales no superiores a cinco años para los sistemas de IA contemplados en el anexo I, y cuatro años para los sistemas de IA contemplados en el anexo III, sobre la base de una nueva evaluación con arreglo a los procedimientos de evaluación de la conformidad aplicables. Todo suplemento de un certificado mantendrá su validez a condición de que el certificado al que complementa sea válido.
2. Todistukset ovat voimassa niissä mainitun ajan, joka saa olla enintään viisi vuotta liitteen I soveltamisalaan kuuluvien tekoälyjärjestelmien osalta ja enintään neljä vuotta liitteen III soveltamisalaan kuuluvien tekoälyjärjestelmien osalta. Tarjoajan pyynnöstä todistuksen voimassaoloa voidaan jatkaa uusilla, enintään viiden vuoden pituisilla jaksoilla liitteen I soveltamisalaan kuuluvien tekoälyjärjestelmien osalta ja enintään neljän vuoden pituisilla jaksoilla liitteen III soveltamisalaan kuuluvien tekoälyjärjestelmien osalta, uudelleenarvioinnin perusteella, joka suoritetaan sovellettavien vaatimustenmukaisuuden arviointimenettelyjen mukaisesti. Todistusten mahdolliset täydennykset ovat voimassa, jos todistus, johon täydennys on tehty, on voimassa.
3. Si un organismo notificado observa que un sistema de IA ya no cumple los requisitos establecidos en la sección 2, suspenderá o retirará, teniendo en cuenta el principio de proporcionalidad, el certificado expedido o le impondrá restricciones, a menos que se garantice el cumplimiento de dichos requisitos mediante medidas correctoras adecuadas adoptadas por el proveedor del sistema en un plazo adecuado determinado por el organismo notificado. El organismo notificado motivará su decisión.
3. Jos ilmoitettu laitos toteaa, ettei suuririskinen tekoälyjärjestelmä enää täytä 2 jaksossa vahvistettuja vaatimuksia, sen on suhteellisuusperiaate huomioon ottaen peruutettava todistus määräaikaisesti tai kokonaan tai asetettava sille rajoituksia, jollei kyseisten vaatimusten noudattamista ole varmistettu siten, että tarjoaja toteuttaa asianmukaiset korjaavat toimenpiteet ilmoitetun laitoksen asettamassa asianmukaisessa määräajassa. Ilmoitetun laitoksen on perusteltava päätöksensä.
Existirá un procedimiento de recurso frente a las decisiones de los organismos notificados, también respecto a los certificados de conformidad expedidos.
Ilmoitettujen laitosten päätöksiä koskeva muutoksenhakumenettely, myös annettujen vaatimustenmukaisuuta koskevien todistusten osalta, on oltava käytössä.
Exención del procedimiento de evaluación de la conformidad
Poikkeus vaatimustenmukaisuuden arviointimenettelystä
1. Como excepción a lo dispuesto en el artículo 43 y previa solicitud debidamente motivada, cualquier autoridad de vigilancia del mercado podrá autorizar la introducción en el mercado o la puesta en servicio de sistemas de IA de alto riesgo específicos en el territorio del Estado miembro de que se trate por motivos excepcionales de seguridad pública o con el fin de proteger la vida y la salud de las personas, el medio ambiente o activos fundamentales de la industria y de las infraestructuras. Dicha autorización se concederá por un período limitado, mientras se lleven a cabo los procedimientos de evaluación de la conformidad necesarios, teniendo en cuenta los motivos excepcionales que justifiquen la exención. La conclusión de los procedimientos de que se trate se alcanzará sin demora indebida.
1. Poiketen siitä, mitä 43 artiklassa säädetään, ja asianmukaisesti perustellusta pyynnöstä mikä tahansa markkinavalvontaviranomainen voi antaa luvan tiettyjen suuririskisten tekoälyjärjestelmien markkinoille saattamiseen tai käyttöönottoon asianomaisen jäsenvaltion alueella poikkeuksellisista yleiseen turvallisuuteen tai ihmisten elämän ja terveyden suojeluun, ympäristönsuojeluun tai keskeisten teollisten resurssien ja infrastruktuurien suojaamiseen liittyvistä syistä. Lupa on voimassa rajallisen ajanjakson, kun tarvittavia vaatimustenmukaisuuden arviointimenettelyjä suoritetaan, ottaen huomioon poikkeuksen perusteena olevat poikkeukselliset syyt. Nämä menettelyt on saatettava päätökseen ilman aiheetonta viivytystä.
2. En una situación de urgencia debidamente justificada por motivos excepcionales de seguridad pública o en caso de amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas, las autoridades garantes del cumplimiento del Derecho o las autoridades de protección civil podrán poner en servicio un sistema de IA de alto riesgo específico sin la autorización a que se refiere el apartado 1, siempre que se solicite dicha autorización durante o después de la utilización sin demora indebida. Si se deniega la autorización a que se refiere el apartado 1, se suspenderá el uso del sistema de IA de alto riesgo con efecto inmediato y se desecharán inmediatamente todos los resultados y toda la información de salida producidos por dicho uso.
2. Asianmukaisesti perustellussa kiireellisessä tilanteessa, joka johtuu poikkeuksellisista yleiseen turvallisuuteen liittyvistä syistä, tai kun kyseessä on erityinen, merkittävä ja välitön uhka luonnollisten henkilöiden elämälle tai fyysiselle turvallisuudelle, lainvalvontaviranomaiset tai pelastuspalveluviranomaiset voivat ottaa käyttöön tietyn suuririskisen tekoälyjärjestelmän ilman 1 kohdassa tarkoitettua lupaa edellyttäen, että tällainen lupa pyydetään ilman aiheetonta viivytystä tekoälyjärjestelmän käytön aikana tai sen jälkeen. Jos 1 kohdassa tarkoitettu lupa evätään, suuririskisen tekoälyjärjestelmän käyttö on lopetettava välittömästi ja kaikki tällaisen käytön tulokset ja tuotokset on välittömästi hylättävä.
3. La autorización a que se refiere el apartado 1 solo se expedirá si la autoridad de vigilancia del mercado llega a la conclusión de que el sistema de IA de alto riesgo cumple los requisitos establecidos en la sección 2. La autoridad de vigilancia del mercado informará a la Comisión y a los demás Estados miembros de toda autorización expedida de conformidad con los apartados 1 y 2. Esta obligación no comprenderá los datos operativos sensibles relativos a las actividades de las autoridades garantes del cumplimiento del Derecho.
3. Edellä 1 kohdassa tarkoitettu lupa voidaan myöntää ainoastaan, jos markkinavalvontaviranomainen toteaa, että suuririskinen tekoälyjärjestelmä täyttää 2 jakson vaatimukset. Markkinavalvontaviranomaisen on ilmoitettava komissiolle ja muille jäsenvaltioille 1 ja 2 kohdan mukaisesti annetuista luvista. Tätä velvoitetta ei sovelleta arkaluonteiseen operatiiviseen tietoon, joka liittyy lainvalvontaviranomaisten toimiin.
4. Si, en el plazo de quince días naturales tras la recepción de la información indicada en el apartado 3, ningún Estado miembro ni la Comisión presentan objeción alguna sobre una autorización expedida por una autoridad de vigilancia del mercado de un Estado miembro con arreglo al apartado 1, la autorización se considerará justificada.
4. Jos mikään jäsenvaltio tai komissio ei ole 15 kalenteripäivän kuluessa 3 kohdassa tarkoitetun ilmoituksen vastaanottamisesta esittänyt vastalausetta jäsenvaltion markkinavalvontaviranomaisen 1 kohdan mukaisesti antamasta luvasta, luvan katsotaan olevan perusteltu.
5. Si, en el plazo de quince días naturales tras la recepción de la notificación a que se refiere el apartado 3, un Estado miembro formula objeciones contra una autorización expedida por una autoridad de vigilancia del mercado de otro Estado miembro, o si la Comisión considera que la autorización vulnera el Derecho de la Unión o que la conclusión de los Estados miembros relativa al cumplimiento del sistema a que se refiere el apartado 3 es infundada, la Comisión celebrará consultas con el Estado miembro pertinente sin demora. Se consultará a los operadores de que se trate y se les ofrecerá la posibilidad de exponer sus puntos de vista. En vista de todo ello, la Comisión decidirá si la autorización está justificada o no. La Comisión enviará su decisión al Estado miembro afectado y a los operadores pertinentes.
5. Jos 15 kalenteripäivän kuluessa 3 kohdassa tarkoitetun ilmoituksen vastaanottamisesta jokin jäsenvaltio esittää vastalauseita toisen jäsenvaltion markkinavalvontaviranomaisen antamasta luvasta tai jos komissio katsoo, että lupa on unionin oikeuden vastainen tai että 3 kohdassa tarkoitettu järjestelmän vaatimustenmukaisuutta koskeva jäsenvaltioiden päätelmä on perusteeton, komissio aloittaa viipymättä asianomaisen jäsenvaltion kuulemisen; asianomaisia toimijoita on kuultava, ja niillä on oltava mahdollisuus esittää näkemyksensä. Komissio päättää kuulemisten perusteella, onko lupa perusteltu vai ei. Komissio osoittaa päätöksensä asianomaiselle jäsenvaltiolle sekä asianomaiselle toimijalle tai asianomaisille toimijoille.
6. Si la Comisión considera que la autorización no está justificada, la autoridad de vigilancia del mercado del Estado miembro de que se trate la retirará.
6. Jos komissio katsoo luvan perusteettomaksi, asianomaisen jäsenvaltion markkinavalvontaviranomaisen on peruutettava se.
7. En el caso de los sistemas de IA de alto riesgo asociados a productos regulados por los actos legislativos de armonización de la Unión enumerados en el anexo I, sección A, solo se aplicarán las exenciones de la evaluación de la conformidad establecidas en dichos actos legislativos de armonización de la Unión.
7. Suuririskisiin tekoälyjärjestelmiin, jotka liittyvät liitteessä I olevassa A jaksossa lueteltuihin unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluviin tuotteisiin, sovelletaan ainoastaan kyseisessä unionin yhdenmukaistamislainsäädännössä vahvistettuja poikkeuksia vaatimustenmukaisuuden arvioinnista.
Declaración UE de conformidad
EU-vaatimustenmukaisuusvakuutus
1. El proveedor redactará una declaración UE de conformidad por escrito en un formato legible por máquina, con firma electrónica o manuscrita, para cada sistema de IA de alto riesgo y la mantendrá a disposición de las autoridades nacionales competentes durante un período de diez años a contar desde la introducción del sistema de IA de alto riesgo en el mercado o su puesta en servicio. En la declaración UE de conformidad se especificará el sistema de IA de alto riesgo para el que ha sido redactada. Se entregará una copia de la declaración UE de conformidad a las autoridades nacionales competentes pertinentes que lo soliciten.
1. Tarjoajan on laadittava kirjallinen koneluettava, fyysinen tai sähköisesti allekirjoitettu EU-vaatimustenmukaisuusvakuutus kullekin tekoälyjärjestelmälle ja pidettävä se kansallisten toimivaltaisten viranomaisten saatavilla 10 vuoden ajan sen jälkeen, kun suuririskinen tekoälyjärjestelmä on saatettu markkinoille tai otettu käyttöön. EU-vaatimustenmukaisuusvakuutuksessa on yksilöitävä suuririskinen tekoälyjärjestelmä, jota varten se on laadittu. Jäljennös EU-vaatimustenmukaisuusvakuutuksesta on pyynnöstä toimitettava asiaankuuluville kansallisille toimivaltaisille viranomaisille.
2. En la declaración UE de conformidad constará que el sistema de IA de alto riesgo de que se trate cumple los requisitos establecidos en la sección 2. La declaración UE de conformidad contendrá la información indicada en el anexo V y se traducirá a una lengua que puedan entender fácilmente las autoridades nacionales competentes del Estado o Estados miembros en que se introduzca en el mercado o comercialice el sistema de IA de alto riesgo.
2. EU-vaatimustenmukaisuusvakuutuksessa on ilmoitettava, että kyseinen suuririskinen tekoälyjärjestelmä täyttää tämän osaston 2 jaksossa vahvistetut vaatimukset. EU-vaatimustenmukaisuusvakuutuksen on sisällettävä liitteessä V esitetyt tiedot, ja se on käännettävä kielelle, jota niiden jäsenvaltioiden kansalliset toimivaltaiset viranomaiset, joissa suuririskinen tekoälyjärjestelmä asetetaan markkinoille tai saataville, voivat ymmärtää helposti.
3. Cuando los sistemas de IA de alto riesgo estén sujetos a otros actos legislativos de armonización de la Unión que también exijan una declaración UE de conformidad, se elaborará una única declaración UE de conformidad con respecto a todos el Derecho de la Unión aplicable al sistema de IA de alto riesgo. La declaración contendrá toda la información necesaria para determinar los actos legislativos de armonización de la Unión a los que se refiere la declaración.
3. Jos suuririskisiin tekoälyjärjestelmiin sovelletaan muuta unionin yhdenmukaistamislainsäädäntöä, jossa myös edellytetään EU-vaatimustenmukaisuusvakuutusta, kaiken suuririskiseen tekoälyjärjestelmään sovellettavan unionin oikeuden osalta on laadittava yksi ainoa EU-vaatimustenmukaisuusvakuutus. Kyseisen vaatimustenmukaisuusvakuutuksen on sisällettävä kaikki tiedot, jotka vaaditaan sen unionin yhdenmukaistamislainsäädännön yksilöimiseksi, johon kyseinen vaatimustenmukaisuusvakuutus liittyy.
4. Al elaborar la declaración UE de conformidad, el proveedor asumirá la responsabilidad del cumplimiento de los requisitos establecidos en la sección 2. El proveedor mantendrá actualizada la declaración UE de conformidad según proceda.
4. Laatimalla EU-vaatimustenmukaisuusvakuutuksen tarjoaja ottaa vastuun 2 jaksossa vahvistettujen vaatimusten noudattamisesta. Tarjoajan on pidettävä EU-vaatimustenmukaisuusvakuutus tarvittaessa ajan tasalla.
5. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 al objeto de modificar el anexo V actualizando el contenido de la declaración UE de conformidad establecida en dicho anexo, con el fin de introducir elementos que resulten necesarios a la luz del progreso técnico.
5. Siirretään komissiolle valta antaa delegoituja säädöksiä 97 artiklan mukaisesti liitteen V muuttamiseksi päivittämällä kyseisessä liitteessä vahvistetun EU-vaatimustenmukaisuusvakuutuksen sisältö, jotta siihen voidaan lisätä osatekijöitä, jotka ovat tarpeen tekniikan kehityksen huomioon ottamiseksi.