Notice: This is a Juremy.com rendered version. Only European Union documents published in the Official Journal of the European Union are deemed authentic. Juremy accepts no responsibility or liability whatsoever with regard to the content of this document.
Base data © European Union, 1998-2024. Postprocessed and marked-up data © 2019-2024 Juremy.com, all rights reserved.
Render version: 0.1, render date: 2024-07-24
Official Journal
of the European Union
EN
Europos Sąjungos
oficialusis leidinys
LT
L series
L serija
2024/1689
12.7.2024
2024/1689
2024 7 12
REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL
EUROPOS PARLAMENTO IR TARYBOS REGLAMENTAS (ES) 2024/1689
of 13 June 2024
2024 m. birželio 13 d.
laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act)
kuriuo nustatomos suderintos dirbtinio intelekto taisyklės ir iš dalies keičiami reglamentai (EB) Nr. 300/2008, (ES) Nr. 167/2013, (ES) Nr. 168/2013, (ES) 2018/858, (ES) 2018/1139 ir (ES) 2019/2144 ir direktyvos 2014/90/ES, (ES) 2016/797 ir (ES) 2020/1828 (Dirbtinio intelekto aktas)
(Text with EEA relevance)
(Tekstas svarbus EEE)
THE EUROPEAN PARLIAMENT AND THE COUNCIL OF THE EUROPEAN UNION,
EUROPOS PARLAMENTAS IR EUROPOS SĄJUNGOS TARYBA,
Having regard to the Treaty on the Functioning of the European Union, and in particular Articles 16 and 114 thereof,
atsižvelgdami į Sutartį dėl Europos Sąjungos veikimo, ypač į jos 16 ir 114 straipsnius,
Having regard to the proposal from the European Commission,
atsižvelgdami į Europos Komisijos pasiūlymą,
After transmission of the draft legislative act to the national parliaments,
teisėkūros procedūra priimamo akto projektą perdavus nacionaliniams parlamentams,
Having regard to the opinion of the European Economic and Social Committee (1),
atsižvelgdami į Europos ekonomikos ir socialinių reikalų komiteto nuomonę (1),
Having regard to the opinion of the European Central Bank (2),
atsižvelgdami į Europos Centrinio Banko nuomonę (2),
Having regard to the opinion of the Committee of the Regions (3),
atsižvelgdami į Regionų komiteto nuomonę (3),
Acting in accordance with the ordinary legislative procedure (4),
laikydamiesi įprastos teisėkūros procedūros (4),
Whereas:
kadangi:
(1)
The purpose of this Regulation is to improve the functioning of the internal market by laying down a uniform legal framework in particular for the development, the placing on the market, the putting into service and the use of artificial intelligence systems (AI systems) in the Union, in accordance with Union values, to promote the uptake of human centric and trustworthy artificial intelligence (AI) while ensuring a high level of protection of health, safety, fundamental rights as enshrined in the Charter of Fundamental Rights of the European Union (the ‘Charter’), including democracy, the rule of law and environmental protection, to protect against the harmful effects of AI systems in the Union, and to support innovation. This Regulation ensures the free movement, cross-border, of AI-based goods and services, thus preventing Member States from imposing restrictions on the development, marketing and use of AI systems, unless explicitly authorised by this Regulation.
(1)
šio reglamento paskirtis – pagerinti vidaus rinkos veikimą nustatant vienodą teisinę sistemą, visų pirma skirtą dirbtinio intelekto sistemų (toliau – DI sistemos) kūrimui, pateikimui rinkai, pradėjimui naudoti ir naudojimui Sąjungoje paisant Sąjungos vertybių, skatinti į žmogų orientuoto ir patikimo dirbtinio intelekto (toliau – DI) įsisavinimą kartu užtikrinant aukšto lygio sveikatos, saugumo, pagrindinių teisių, įtvirtintų Europos Sąjungos pagrindinių teisių chartijoje (toliau – Chartija), apsaugą, įskaitant demokratijos, teisinės valstybės ir aplinkos apsaugą, saugoti nuo žalingo DI sistemų poveikio Sąjungoje ir remti inovacijas. Šiuo reglamentu užtikrinamas laisvas DI grindžiamų prekių ir paslaugų tarpvalstybinis judėjimas, taip užkertant kelią valstybėms narėms nustatyti apribojimus DI sistemų kūrimui, teikimui rinkai ir naudojimui, nebent tai aiškiai leidžiama pagal šį reglamentą;
(2)
This Regulation should be applied in accordance with the values of the Union enshrined as in the Charter, facilitating the protection of natural persons, undertakings, democracy, the rule of law and environmental protection, while boosting innovation and employment and making the Union a leader in the uptake of trustworthy AI.
(2)
šis reglamentas turėtų būti taikomas vadovaujantis Chartijoje įtvirtintomis Sąjungos vertybėmis, palengvinti fizinių asmenų, įmonių, demokratijos, teisės viršenybės ir aplinkos apsaugą, kartu skatinti inovacijas ir užimtumą ir užtikrinti, kad Sąjunga taptų patikimo DI įsisavinimo lydere;
(3)
AI systems can be easily deployed in a large variety of sectors of the economy and many parts of society, including across borders, and can easily circulate throughout the Union. Certain Member States have already explored the adoption of national rules to ensure that AI is trustworthy and safe and is developed and used in accordance with fundamental rights obligations. Diverging national rules may lead to the fragmentation of the internal market and may decrease legal certainty for operators that develop, import or use AI systems. A consistent and high level of protection throughout the Union should therefore be ensured in order to achieve trustworthy AI, while divergences hampering the free circulation, innovation, deployment and the uptake of AI systems and related products and services within the internal market should be prevented by laying down uniform obligations for operators and guaranteeing the uniform protection of overriding reasons of public interest and of rights of persons throughout the internal market on the basis of Article 114 of the Treaty on the Functioning of the European Union (TFEU). To the extent that this Regulation contains specific rules on the protection of individuals with regard to the processing of personal data concerning restrictions of the use of AI systems for remote biometric identification for the purpose of law enforcement, of the use of AI systems for risk assessments of natural persons for the purpose of law enforcement and of the use of AI systems of biometric categorisation for the purpose of law enforcement, it is appropriate to base this Regulation, in so far as those specific rules are concerned, on Article 16 TFEU. In light of those specific rules and the recourse to Article 16 TFEU, it is appropriate to consult the European Data Protection Board.
(3)
DI sistemos gali būti lengvai įdiegiamos labai įvairiuose ekonomikos sektoriuose ir lengvai plisti visose visuomenės grupėse, taip pat tarpvalstybiniu mastu, ir jos gali lengvai cirkuliuoti visoje Sąjungoje. Tam tikros valstybės narės jau išnagrinėjo galimybę priimti nacionalines taisykles, siekdamos užtikrinti, kad DI būtų patikimas bei saugus ir kuriamas bei naudojamas laikantis su pagrindinėmis teisėmis susijusių pareigų. Skirtingos nacionalinės taisyklės gali lemti vidaus rinkos susiskaidymą ir gali sumažinti teisinį tikrumą DI sistemas kuriantiems, importuojantiems ar naudojantiems veiklos vykdytojams. Todėl, siekiant užtikrinti patikimą DI, visoje Sąjungoje reikėtų užtikrinti nuoseklią ir aukšto lygio apsaugą ir užkirsti kelią skirtumams, trukdantiems DI sistemoms ir susijusiems gaminiams ir paslaugoms laisvai cirkuliuoti vidaus rinkoje, taip pat jų inovacijoms, diegimui ir įsisavinimui vidaus rinkoje, nustatant vienodas pareigas veiklos vykdytojams ir garantuojant vienodą svarbių viešojo intereso tikslų ir asmenų teisių apsaugą visoje vidaus rinkoje, remiantis Sutarties dėl Europos Sąjungos (toliau – SESV) veikimo 114 straipsniu. Tiek, kiek šiame reglamente yra konkrečių taisyklių dėl asmenų apsaugos asmens duomenų tvarkymo srityje, susijusių su DI sistemų naudojimo apribojimais, taikomais nuotoliniam biometriniam tapatybės nustatymui teisėsaugos tikslu, DI sistemų naudojimu fizinių asmenų rizikos vertinimams teisėsaugos tikslu ir biometrinio kategorizavimo DI sistemų naudojimu teisėsaugos tikslu, tikslinga, kad šio reglamento pagrindas tų konkrečių taisyklių atžvilgiu būtų SESV 16 straipsnis; Atsižvelgiant į tas konkrečias taisykles ir rėmimusi SESV 16 straipsniu, tikslinga konsultuotis su Europos duomenų apsaugos valdyba;
(4)
AI is a fast evolving family of technologies that contributes to a wide array of economic, environmental and societal benefits across the entire spectrum of industries and social activities. By improving prediction, optimising operations and resource allocation, and personalising digital solutions available for individuals and organisations, the use of AI can provide key competitive advantages to undertakings and support socially and environmentally beneficial outcomes, for example in healthcare, agriculture, food safety, education and training, media, sports, culture, infrastructure management, energy, transport and logistics, public services, security, justice, resource and energy efficiency, environmental monitoring, the conservation and restoration of biodiversity and ecosystems and climate change mitigation and adaptation.
(4)
DI – tai grupė greitai besivystančių technologijų, kurios duoda visokeriopą ekonominę, aplinkosauginę ir visuomeninę naudą įvairiose pramonės šakose ir socialinės veiklos srityse. Patobulinus predikciją, optimizavus operacijas ir išteklių paskirstymą, taip pat personalizavus asmenims ir organizacijoms prieinamus skaitmeninius sprendimus DI naudojimas įmonėms gali suteikti esminių konkurencinių pranašumų ir padėti siekti socialiniu požiūriu ir aplinkai naudingų rezultatų, pavyzdžiui, sveikatos priežiūros, žemės ūkio, maisto saugumo, švietimo ir mokymo, žiniasklaidos, sporto, kultūros, infrastruktūros valdymo, energetikos, transporto ir logistikos, viešųjų paslaugų, saugumo, teisingumo, išteklių ir energijos vartojimo efektyvumo, aplinkos stebėsenos, biologinės įvairovės ir ekosistemų išsaugojimo ir atkūrimo, klimato kaitos švelninimo ir prisitaikymo prie jos srityse;
(5)
At the same time, depending on the circumstances regarding its specific application, use, and level of technological development, AI may generate risks and cause harm to public interests and fundamental rights that are protected by Union law. Such harm might be material or immaterial, including physical, psychological, societal or economic harm.
(5)
kartu, priklausomai nuo aplinkybių, susijusių su konkrečiu DI taikymu, naudojimu, ir technologinės plėtros lygmeniu, DI gali kelti riziką ir padaryti žalos viešiesiems interesams ir pagrindinėms teisėms, kurių apsauga užtikrinama Sąjungos teisėje. Tokia žala gali būti turtinė arba neturtinė, įskaitant fizinę, psichologinę, visuomeninę ar ekonominę žalą;
(6)
Given the major impact that AI can have on society and the need to build trust, it is vital for AI and its regulatory framework to be developed in accordance with Union values as enshrined in Article 2 of the Treaty on European Union (TEU), the fundamental rights and freedoms enshrined in the Treaties and, pursuant to Article 6 TEU, the Charter. As a prerequisite, AI should be a human-centric technology. It should serve as a tool for people, with the ultimate aim of increasing human well-being.
(6)
atsižvelgiant į didžiulį poveikį, kurį DI gali daryti visuomenei, ir poreikį didinti pasitikėjimą, labai svarbu, kad DI ir jo reglamentavimo sistema būtų plėtojami vadovaujantis Sąjungos vertybėmis, įtvirtintomis Europos Sąjungos sutarties (toliau – ES sutartis) 2 straipsnyje, pagrindinėmis teisėmis ir laisvėmis, įtvirtintomis Sutartyse ir, pagal ES sutarties 6 straipsnį, Chartijoje. Būtina sąlyga – DI turėtų būti į žmogų orientuota technologija. Ji turėtų būti žmonėms skirta priemonė, kurios pagrindinis tikslas – didinti žmonių gerovę;
(7)
In order to ensure a consistent and high level of protection of public interests as regards health, safety and fundamental rights, common rules for high-risk AI systems should be established. Those rules should be consistent with the Charter, non-discriminatory and in line with the Union’s international trade commitments. They should also take into account the European Declaration on Digital Rights and Principles for the Digital Decade and the Ethics guidelines for trustworthy AI of the High-Level Expert Group on Artificial Intelligence (AI HLEG).
(7)
siekiant užtikrinti nuoseklią ir aukšto lygio viešųjų interesų, susijusių su sveikata, saugumu ir pagrindinėmis teisėmis, apsaugą, reikėtų nustatyti bendrąsias taisykles, taikomas didelės rizikos DI sistemoms. Tos taisyklės turėtų atitikti Chartiją, būti nediskriminacinės ir atitikti Sąjungos tarptautinės prekybos įsipareigojimus. Jomis taip pat turėtų būti atsižvelgiama į Europos deklaraciją dėl skaitmeninio dešimtmečio skaitmeninių teisių ir principų ir į Aukšto lygio ekspertų grupės dirbtinio intelekto klausimams (toliau – AI HLEG) parengtas patikimo DI etikos gaires;
(8)
A Union legal framework laying down harmonised rules on AI is therefore needed to foster the development, use and uptake of AI in the internal market that at the same time meets a high level of protection of public interests, such as health and safety and the protection of fundamental rights, including democracy, the rule of law and environmental protection as recognised and protected by Union law. To achieve that objective, rules regulating the placing on the market, the putting into service and the use of certain AI systems should be laid down, thus ensuring the smooth functioning of the internal market and allowing those systems to benefit from the principle of free movement of goods and services. Those rules should be clear and robust in protecting fundamental rights, supportive of new innovative solutions, enabling a European ecosystem of public and private actors creating AI systems in line with Union values and unlocking the potential of the digital transformation across all regions of the Union. By laying down those rules as well as measures in support of innovation with a particular focus on small and medium enterprises (SMEs), including startups, this Regulation supports the objective of promoting the European human-centric approach to AI and being a global leader in the development of secure, trustworthy and ethical AI as stated by the European Council (5), and it ensures the protection of ethical principles, as specifically requested by the European Parliament (6).
(8)
todėl reikia Sąjungos teisinės sistemos, kuria būtų nustatytos suderintos DI taisyklės, siekiant vidaus rinkoje skatinti kurti, naudoti ir įsisavinti DI, ir kuria tuo pat metu būtų užtikrinta viešųjų interesų, pavyzdžiui, sveikatos ir saugos, aukšto lygio apsauga ir pagrindinių teisių, įskaitant demokratiją, teisinę valstybę ir aplinkosaugą, apsauga, kaip pripažįstama ir saugoma Sąjungos teisėje. Kad toks tikslas būtų pasiektas, reikėtų nustatyti taisykles, kuriomis reglamentuojamas tam tikrų DI sistemų pateikimas rinkai, pradėjimas naudoti ir naudojimas, taip užtikrinant sklandų vidaus rinkos veikimą ir sudarant sąlygas tam, kad laisvo prekių ir paslaugų judėjimo principas suteiktų toms sistemoms naudos. Tos taisyklės turėtų būti aiškios ir tvirtos, kad būtų apsaugotos pagrindinės teisės, jomis turėtų būti remiami nauji novatoriški sprendimai, sudaromos sąlygos sukurti Europos viešųjų ir privačiųjų subjektų, kuriančių Sąjungos vertybes atitinkančias DI sistemas, ekosistemą ir išnaudoti skaitmeninės transformacijos potencialą visuose Sąjungos regionuose. Šiuo reglamentu, kuriuo nustatomos tokios taisyklės, taip pat priemonės, kuriomis remiamos inovacijos, ypatingą dėmesį skiriant mažosioms ir vidutinėms įmonėms (toliau – MVĮ), įskaitant startuolius, remiamas tikslas skatinti europinį į žmogų orientuotą DI ir tikslas pirmauti pasaulyje kuriant saugų, patikimą ir etišką DI, kaip nurodė Europos Vadovų Taryba (5), ir užtikrinama etikos principų apsauga, atsižvelgiant į specialų Europos Parlamento prašymą (6);
(9)
Harmonised rules applicable to the placing on the market, the putting into service and the use of high-risk AI systems should be laid down consistently with Regulation (EC) No 765/2008 of the European Parliament and of the Council (7), Decision No 768/2008/EC of the European Parliament and of the Council (8) and Regulation (EU) 2019/1020 of the European Parliament and of the Council (9) (New Legislative Framework). The harmonised rules laid down in this Regulation should apply across sectors and, in line with the New Legislative Framework, should be without prejudice to existing Union law, in particular on data protection, consumer protection, fundamental rights, employment, and protection of workers, and product safety, to which this Regulation is complementary. As a consequence, all rights and remedies provided for by such Union law to consumers, and other persons on whom AI systems may have a negative impact, including as regards the compensation of possible damages pursuant to Council Directive 85/374/EEC (10) remain unaffected and fully applicable. Furthermore, in the context of employment and protection of workers, this Regulation should therefore not affect Union law on social policy and national labour law, in compliance with Union law, concerning employment and working conditions, including health and safety at work and the relationship between employers and workers. This Regulation should also not affect the exercise of fundamental rights as recognised in the Member States and at Union level, including the right or freedom to strike or to take other action covered by the specific industrial relations systems in Member States as well as the right to negotiate, to conclude and enforce collective agreements or to take collective action in accordance with national law. This Regulation should not affect the provisions aiming to improve working conditions in platform work laid down in a Directive of the European Parliament and of the Council on improving working conditions in platform work. Moreover, this Regulation aims to strengthen the effectiveness of such existing rights and remedies by establishing specific requirements and obligations, including in respect of the transparency, technical documentation and record-keeping of AI systems. Furthermore, the obligations placed on various operators involved in the AI value chain under this Regulation should apply without prejudice to national law, in compliance with Union law, having the effect of limiting the use of certain AI systems where such law falls outside the scope of this Regulation or pursues legitimate public interest objectives other than those pursued by this Regulation. For example, national labour law and law on the protection of minors, namely persons below the age of 18, taking into account the UNCRC General Comment No 25 (2021) on children’s rights in relation to the digital environment, insofar as they are not specific to AI systems and pursue other legitimate public interest objectives, should not be affected by this Regulation.
(9)
didelės rizikos DI sistemų pateikimui rinkai, pradėjimui naudoti ir naudojimui taikytinos suderintos taisyklės turėtų būti nustatytos taip, kad derėtų su Europos Parlamento ir Tarybos reglamentu (EB) Nr. 765/2008 (7), Europos Parlamento ir Tarybos sprendimu 768/2008/EB (8) ir Europos Parlamento ir Tarybos reglamentu (ES) 2019/1020 (9) (t. y. naująja teisės aktų sistema). Šiame reglamente nustatytos suderintos taisyklės turėtų būti taikomos visuose sektoriuose ir, laikantis naujosios teisės aktų sistemos, neturėtų daryti poveikio esamiems Sąjungos teisės aktams, visų pirma dėl duomenų apsaugos, vartotojų apsaugos, pagrindinių teisių, užimtumo, darbuotojų apsaugos ir gaminių saugos, kuriuos šis reglamentas papildo. Todėl jokioms teisėms ir teisių gynimo priemonėms, pagal tokius Sąjungos teisės aktus numatytoms vartotojams ir kitiems asmenims, kuriems DI sistemos gali turėti neigiamą poveikį, be kita ko, kiek tai susiję su galimos žalos atlyginimu pagal Tarybos direktyvą 85/374/EEB (10), poveikis nedaromas ir jos visos yra visapusiškai taikomos. Be to, užimtumo ir darbuotojų apsaugos srityje šiuo reglamentu neturėtų būti daromas poveikis Sąjungos socialinės politikos teisei ir nacionalinei darbo teisei, atitinkančiai Sąjungos teisę, susijusią su įdarbinimu ir darbo sąlygomis, įskaitant profesinę saugą ir sveikatą ir darbdavių bei darbuotojų santykius. Šiuo reglamentu taip pat neturėtų būti daromas poveikis naudojimuisi valstybėse narėse ir Sąjungos lygmeniu pripažįstamomis pagrindinėmis teisėmis, įskaitant teisę ar laisvę streikuoti arba imtis kitų veiksmų, numatytų konkrečiose valstybių narių darbo santykių sistemose, taip pat derėtis dėl kolektyvinių susitarimų, juos sudaryti ir užtikrinti jų vykdymą ar imtis kolektyvinių veiksmų pagal nacionalinę teisę. Šiuo reglamentu neturėtų būti daroma poveikio nuostatoms, kuriomis siekiama pagerinti darbo skaitmeninėse platformose sąlygas, nustatytoms Europos Parlamento ir Tarybos direktyvoje dėl darbo skaitmeninėse platformose sąlygų gerinimo. Be to, šiuo reglamentu siekiama padidinti tokių esamų teisių ir teisių gynimo priemonių veiksmingumą nustatant konkrečius reikalavimus ir pareigas, be kita ko, susijusius su DI sistemų skaidrumu, techniniais dokumentais ir įrašų tvarkymu. Be to, įvairiems DI vertės grandinėje dalyvaujantiems veiklos vykdytojams pagal šį reglamentą nustatytos pareigos turėtų būti taikomos nedarant poveikio nacionalinei teisei, atitinkančiai Sąjungos teisę, kuria ribojamas tam tikrų DI sistemų naudojimas, kai tokia teisė nepatenka į šio reglamento taikymo sritį arba ja siekiama kitų teisėtų viešojo intereso tikslų nei tie, kurių siekiama šiuo reglamentu. Pavyzdžiui, šiuo reglamentu neturėtų būti daromas poveikis nacionalinei darbo teisei ir nepilnamečių (t. y. jaunesnių nei 18 metų asmenų) apsaugos teisei, atsižvelgiant į JT VTK bendrąją pastabą Nr. 25 (2021) dėl vaikų teisių, susijusiai su skaitmenine aplinka, jei ji nėra konkrečiai taikoma DI sistemoms ir ja siekiama kitų teisėtų viešojo intereso tikslų;
(10)
The fundamental right to the protection of personal data is safeguarded in particular by Regulations (EU) 2016/679 (11) and (EU) 2018/1725 (12) of the European Parliament and of the Council and Directive (EU) 2016/680 of the European Parliament and of the Council (13). Directive 2002/58/EC of the European Parliament and of the Council (14) additionally protects private life and the confidentiality of communications, including by way of providing conditions for any storing of personal and non-personal data in, and access from, terminal equipment. Those Union legal acts provide the basis for sustainable and responsible data processing, including where data sets include a mix of personal and non-personal data. This Regulation does not seek to affect the application of existing Union law governing the processing of personal data, including the tasks and powers of the independent supervisory authorities competent to monitor compliance with those instruments. It also does not affect the obligations of providers and deployers of AI systems in their role as data controllers or processors stemming from Union or national law on the protection of personal data in so far as the design, the development or the use of AI systems involves the processing of personal data. It is also appropriate to clarify that data subjects continue to enjoy all the rights and guarantees awarded to them by such Union law, including the rights related to solely automated individual decision-making, including profiling. Harmonised rules for the placing on the market, the putting into service and the use of AI systems established under this Regulation should facilitate the effective implementation and enable the exercise of the data subjects’ rights and other remedies guaranteed under Union law on the protection of personal data and of other fundamental rights.
(10)
pagrindinė teisė į asmens duomenų apsaugą visų pirma užtikrinama Europos Parlamento ir Tarybos reglamentais (ES) 2016/679 (11) ir (ES) 2018/1725 (12) ir Europos Parlamento ir Tarybos direktyva (ES) 2016/680 (13). Europos Parlamento ir Tarybos direktyva 2002/58/EB (14) dar papildomai saugomas privatus gyvenimas ir ryšių konfidencialumas, be kita ko, nustatant asmens ir ne asmens duomenų saugojimo galiniuose įrenginiuose ir prieigos prie jų sąlygos. Tais Sąjungos teisės aktais nustatomas tvaraus ir atsakingo duomenų tvarkymo pagrindas, įskaitant atvejus, kai duomenų rinkiniuose yra asmens ir ne asmens duomenų derinys. Šiuo reglamentu nesiekiama daryti poveikio esamų Sąjungos teisės aktų, kuriais reglamentuojamas asmens duomenų tvarkymas, taikymui, įskaitant nepriklausomų priežiūros institucijų, kompetentingų stebėti, kaip laikomasi tų priemonių, užduotis ir įgaliojimus. Juo taip pat nedaromas poveikis DI sistemų tiekėjų ir diegėjų, kaip duomenų valdytojų ar tvarkytojų, pareigoms, kylančioms iš Sąjungos arba nacionalinės teisės dėl asmens duomenų apsaugos, tiek, kiek DI sistemų projektavimas, kūrimas ar naudojimas apima asmens duomenų tvarkymą. Taip pat tikslinga paaiškinti, kad duomenų subjektai ir toliau naudojasi visomis teisėmis ir garantijomis, kurios jiems suteikiamos pagal tokią Sąjungos teisę, įskaitant teises, susijusias tik su automatizuotu individualių sprendimų priėmimu, įskaitant profiliavimą. Šiuo reglamentu nustatytos DI sistemų pateikimo rinkai, pradėjimo naudoti ir naudojimo suderintos taisyklės turėtų palengvinti veiksmingą įgyvendinimą ir sudaryti sąlygas naudotis duomenų subjektų teisėmis ir kitomis teisių gynimo priemonėmis, garantuojamomis pagal Sąjungos teisę dėl asmens duomenų ir kitų pagrindinių teisių apsaugos;
(11)
This Regulation should be without prejudice to the provisions regarding the liability of providers of intermediary services as set out in Regulation (EU) 2022/2065 of the European Parliament and of the Council (15).
(11)
šiuo reglamentu neturėtų būti daromas poveikis nuostatoms dėl tarpininkavimo paslaugų teikėjų atsakomybės, išdėstytoms Europos Parlamento ir Tarybos reglamente (ES) 2022/2065 (15);
(12)
The notion of ‘AI system’ in this Regulation should be clearly defined and should be closely aligned with the work of international organisations working on AI to ensure legal certainty, facilitate international convergence and wide acceptance, while providing the flexibility to accommodate the rapid technological developments in this field. Moreover, the definition should be based on key characteristics of AI systems that distinguish it from simpler traditional software systems or programming approaches and should not cover systems that are based on the rules defined solely by natural persons to automatically execute operations. A key characteristic of AI systems is their capability to infer. This capability to infer refers to the process of obtaining the outputs, such as predictions, content, recommendations, or decisions, which can influence physical and virtual environments, and to a capability of AI systems to derive models or algorithms, or both, from inputs or data. The techniques that enable inference while building an AI system include machine learning approaches that learn from data how to achieve certain objectives, and logic- and knowledge-based approaches that infer from encoded knowledge or symbolic representation of the task to be solved. The capacity of an AI system to infer transcends basic data processing by enabling learning, reasoning or modelling. The term ‘machine-based’ refers to the fact that AI systems run on machines. The reference to explicit or implicit objectives underscores that AI systems can operate according to explicit defined objectives or to implicit objectives. The objectives of the AI system may be different from the intended purpose of the AI system in a specific context. For the purposes of this Regulation, environments should be understood to be the contexts in which the AI systems operate, whereas outputs generated by the AI system reflect different functions performed by AI systems and include predictions, content, recommendations or decisions. AI systems are designed to operate with varying levels of autonomy, meaning that they have some degree of independence of actions from human involvement and of capabilities to operate without human intervention. The adaptiveness that an AI system could exhibit after deployment, refers to self-learning capabilities, allowing the system to change while in use. AI systems can be used on a stand-alone basis or as a component of a product, irrespective of whether the system is physically integrated into the product (embedded) or serves the functionality of the product without being integrated therein (non-embedded).
(12)
DI sistemos sąvoka šiame reglamente turėtų būti aiškiai apibrėžta ir glaudžiai suderinta su tarptautinių organizacijų, dirbančių DI srityje, veikla, siekiant užtikrinti teisinį tikrumą, sudaryti palankesnes sąlygas konvergencijai tarptautiniu lygmeniu ir plačiam pripažinimui, kartu suteikiant lankstumo prisitaikyti prie sparčių technologinių pokyčių šioje srityje. Be to, apibrėžtis turėtų būti grindžiama pagrindinėmis DI sistemų charakteristikomis, pagal kurias ji skiriasi nuo paprastesnių įprastų programinės įrangos sistemų ar programavimo metodų, ir neturėtų apimti sistemų, kurios grindžiamos tik fizinių asmenų nustatytomis taisyklėmis, skirtomis automatiškai vykdyti operacijas. Pagrindinė DI sistemų savybė yra jų gebėjimas daryti išvadas. Šis gebėjimas daryti išvadas yra procesas, kuriam vykstant gaunami išvediniai, pavyzdžiui, predikcijos, turinys, rekomendacijos ar sprendimai, kurie gali turėti įtakos fizinei ir virtualiai aplinkai, ir tai, kad DI sistemos geba išvesti modelius arba algoritmus (arba juos abu) iš įvedinių ar duomenų. Metodai, leidžiantys daryti išvadas kuriant DI sistemą, apima mašininio mokymosi metodus, pagal kuriuos iš duomenų mokomasi, kaip pasiekti tam tikrus tikslus, ir logika bei žiniomis grindžiamus metodus, kuriuos taikant daromos išvados iš užkoduotų žinių arba atliktinos užduoties simbolinio vaizdavimo. DI sistemos gebėjimas daryti išvadas apima daugiau nei bazinį duomenų apdorojimą ir sudaro sąlygas mokytis, argumentuoti ar modeliuoti. Sąvoka „mašina grindžiamas“ reiškia, kad DI sistemos veikia naudojant mašinas. Nuoroda į aiškius ar numanomus tikslus pabrėžiama tai, kad DI sistemos gali veikti pagal aiškius nustatytus arba numanomus tikslus. Konkrečiomis aplinkybėmis DI sistemos tikslai gali skirtis nuo numatytos DI sistemos paskirties. Šio reglamento tikslais aplinka turėtų būti suprantama kaip aplinkybės, kuriomis veikia DI sistemos, o DI sistemos sugeneruoti išvediniai atspindi skirtingas DI sistemų atliekamas funkcijas ir apima predikcijas, turinį, rekomendacijas ar sprendimus. DI sistemos projektuojamos taip, kad veiktų įvairiais autonomijos lygmenimis, t. y. kad jų veiksmai būtų tam tikru laipsniu nepriklausomi nuo žmogaus įsitraukimo ir kad jos galėtų veikti be žmogaus įsikišimo. Gebėjimas prisitaikyti, kurį DI sistema galėtų pademonstruoti ją įdiegus, reiškia savarankiško mokymosi pajėgumus, leidžiančius sistemai keistis jos naudojimo metu. DI sistemos gali būti naudojamos atskirai arba kaip gaminio komponentas, nepaisant to, ar sistema yra fiziškai integruota (įterpta) į gaminį ar padeda atlikti gaminio funkciją, tačiau į jį neintegruota (neįterpta);
(13)
The notion of ‘deployer’ referred to in this Regulation should be interpreted as any natural or legal person, including a public authority, agency or other body, using an AI system under its authority, except where the AI system is used in the course of a personal non-professional activity. Depending on the type of AI system, the use of the system may affect persons other than the deployer.
(13)
šiame reglamente nurodyta sąvoka „diegėjas“ turėtų būti aiškinama kaip bet kuris fizinis arba juridinis asmuo, įskaitant valdžios instituciją, agentūrą ar kitą įstaigą, naudojantis DI sistemą pagal savo įgaliojimus, išskyrus atvejus, kai DI sistema naudojama asmeniniais neprofesinės veiklos tikslais. Priklausomai nuo DI sistemos rūšies, sistemos naudojimas gali daryti poveikį ne tik diegėjui, bet ir kitiems asmenims;
(14)
The notion of ‘biometric data’ used in this Regulation should be interpreted in light of the notion of biometric data as defined in Article 4, point (14) of Regulation (EU) 2016/679, Article 3, point (18) of Regulation (EU) 2018/1725 and Article 3, point (13) of Directive (EU) 2016/680. Biometric data can allow for the authentication, identification or categorisation of natural persons and for the recognition of emotions of natural persons.
(14)
šiame reglamente vartojama sąvoka „biometriniai duomenys“ turėtų būti aiškinama atsižvelgiant į biometrinių duomenų sąvoką, apibrėžtą Reglamento (ES) 2016/679 4 straipsnio 14 punkte, Reglamento (ES) 2018/1725 3 straipsnio 18 punkte ir Direktyvos (ES) 2016/680 3 straipsnio 13 punkte. Biometriniai duomenys gali padėti patvirtinti ar nustatyti fizinių asmenų tapatybę arba juos suskirstyti į kategorijas ir atpažinti fizinių asmenų emocijas;
(15)
The notion of ‘biometric identification’ referred to in this Regulation should be defined as the automated recognition of physical, physiological and behavioural human features such as the face, eye movement, body shape, voice, prosody, gait, posture, heart rate, blood pressure, odour, keystrokes characteristics, for the purpose of establishing an individual’s identity by comparing biometric data of that individual to stored biometric data of individuals in a reference database, irrespective of whether the individual has given its consent or not. This excludes AI systems intended to be used for biometric verification, which includes authentication, whose sole purpose is to confirm that a specific natural person is the person he or she claims to be and to confirm the identity of a natural person for the sole purpose of having access to a service, unlocking a device or having security access to premises.
(15)
šiame reglamente nurodyta sąvoka „biometrinis tapatybės nustatymas“ turėtų būti apibrėžiama kaip automatinis žmogaus fizinių, fiziologinių ir elgsenos požymių, pvz., veido, akių judėjimo, kūno formos, balso, kalbėsenos, eisenos, laikysenos, pulso dažnumo, kraujo spaudimo, kvapo, klavišų paspaudimų, atpažinimas, siekiant nustatyti asmens tapatybę, palyginant to asmens biometrinius duomenis su informacinėje duomenų bazėje saugomais asmenų biometriniais duomenimis, neatsižvelgiant į tai, ar asmuo davė sutikimą, ar ne. Tai neapima DI sistemų, skirtų naudoti biometriniam tikrinimui, kuris apima autentifikavimą, kurių vienintelis tikslas – patvirtinti, kad konkretus fizinis asmuo yra tas asmuo, kuriuo jis prisistato, ir patvirtinti fizinio asmens tapatybę vieninteliu – prieigos prie paslaugos, prietaiso atrakinimo ar saugaus patekimo į patalpas – tikslu;
(16)
The notion of ‘biometric categorisation’ referred to in this Regulation should be defined as assigning natural persons to specific categories on the basis of their biometric data. Such specific categories can relate to aspects such as sex, age, hair colour, eye colour, tattoos, behavioural or personality traits, language, religion, membership of a national minority, sexual or political orientation. This does not include biometric categorisation systems that are a purely ancillary feature intrinsically linked to another commercial service, meaning that the feature cannot, for objective technical reasons, be used without the principal service, and the integration of that feature or functionality is not a means to circumvent the applicability of the rules of this Regulation. For example, filters categorising facial or body features used on online marketplaces could constitute such an ancillary feature as they can be used only in relation to the principal service which consists in selling a product by allowing the consumer to preview the display of the product on him or herself and help the consumer to make a purchase decision. Filters used on online social network services which categorise facial or body features to allow users to add or modify pictures or videos could also be considered to be ancillary feature as such filter cannot be used without the principal service of the social network services consisting in the sharing of content online.
(16)
šiame reglamente nurodyta sąvoka „biometrinis kategorizavimas“ turėtų būti apibrėžiama kaip fizinių asmenų priskyrimas konkrečioms kategorijoms remiantis jų biometriniais duomenimis. Tokios konkrečios kategorijos gali būti susijusios su tokiais aspektais kaip lytis, amžius, plaukų spalva, akių spalva, tatuiruotės, elgesio ar asmenybės bruožai, kalba, religija, priklausymas tautinei mažumai, seksualinė ar politinė orientacija. Tai neapima tų biometrinio kategorizavimo sistemų, kurios yra tik papildoma savybė, neatsiejamai susijusi su kita komercine paslauga, t. y. savybė, kuri dėl objektyvių techninių priežasčių negali būti naudojama be pagrindinės paslaugos, o tos savybės ar funkcijos integravimas nėra būdas išvengti šio reglamento taisyklių taikymo. Pavyzdžiui, internetinėse prekyvietėse naudojami filtrai, skirti suskirstyti į kategorijas pagal veido bruožus ar kūno savybes, galėtų reikšti tokią papildomą funkciją, nes jie gali būti naudojami tik teikiant pagrindinę paslaugą, kurią sudaro gaminio pardavimas, leidžiant vartotojui pačiam peržiūrėti, kaip atitinkamas gaminys ant jo atrodo, ir padėti vartotojui priimti sprendimą pirkti ar ne. Papildoma funkcija taip pat galėtų būti laikomi filtrai, naudojami teikiant internetines socialinių tinklų paslaugas, kategorizuojantys veido bruožus ar kūno savybes ir skirti tam, kad naudotojai galėtų pridėti ar pakeisti nuotraukas ar vaizdo įrašus, nes tokie filtrai negali būti naudojami be pagrindinės socialinių tinklų paslaugų teikiamos paslaugos – dalijimosi turiniu internete;
(17)
The notion of ‘remote biometric identification system’ referred to in this Regulation should be defined functionally, as an AI system intended for the identification of natural persons without their active involvement, typically at a distance, through the comparison of a person’s biometric data with the biometric data contained in a reference database, irrespectively of the particular technology, processes or types of biometric data used. Such remote biometric identification systems are typically used to perceive multiple persons or their behaviour simultaneously in order to facilitate significantly the identification of natural persons without their active involvement. This excludes AI systems intended to be used for biometric verification, which includes authentication, the sole purpose of which is to confirm that a specific natural person is the person he or she claims to be and to confirm the identity of a natural person for the sole purpose of having access to a service, unlocking a device or having security access to premises. That exclusion is justified by the fact that such systems are likely to have a minor impact on fundamental rights of natural persons compared to the remote biometric identification systems which may be used for the processing of the biometric data of a large number of persons without their active involvement. In the case of ‘real-time’ systems, the capturing of the biometric data, the comparison and the identification occur all instantaneously, near-instantaneously or in any event without a significant delay. In this regard, there should be no scope for circumventing the rules of this Regulation on the ‘real-time’ use of the AI systems concerned by providing for minor delays. ‘Real-time’ systems involve the use of ‘live’ or ‘near-live’ material, such as video footage, generated by a camera or other device with similar functionality. In the case of ‘post’ systems, in contrast, the biometric data has already been captured and the comparison and identification occur only after a significant delay. This involves material, such as pictures or video footage generated by closed circuit television cameras or private devices, which has been generated before the use of the system in respect of the natural persons concerned.
(17)
šiame reglamente nurodyta nuotolinio biometrinio tapatybės nustatymo sistemos sąvoka turėtų būti apibrėžiama funkciniu požiūriu, kaip DI sistema, skirta fizinių asmenų tapatybei nustatyti, jiems aktyviai nedalyvaujant, paprastai nuotoliniu būdu, palyginant asmens biometrinius duomenis su informacinėje duomenų bazėje esančiais biometriniais duomenimis, nepriklausomai nuo naudojamos konkrečios technologijos, procesų arba biometrinių duomenų rūšies. Tokios nuotolinio biometrinio tapatybės nustatymo sistemos paprastai tam, kad vienu metu būtų galima pastebėti kelis asmenis arba suvokti jų elgesį, kad būtų gerokai lengviau nustatyti asmenų tapatybę jiems aktyviai nedalyvaujant. Tai neapima DI sistemų, skirtų naudoti biometriniam tikrinimui, kuris apima autentifikavimą, kurių vienintelis tikslas – patvirtinti, kad konkretus fizinis asmuo yra tas asmuo, kuriuo jis prisistato, ir patvirtinti fizinio asmens tapatybę vieninteliu – prieigos prie paslaugos, prietaiso atrakinimo ar saugaus patekimo į patalpas – tikslu. Ta išimtis grindžiama tuo, kad tokios sistemos, tikėtina, daro nedidelį poveikį fizinių asmenų pagrindinėms teisėms, palyginti su nuotolinio biometrinio tapatybės nustatymo sistemomis, kurios gali būti naudojamos daugelio asmenų biometriniams duomenims tvarkyti jiems aktyviai nedalyvaujant. Jeigu naudojamos tikralaikės sistemos, biometrinių duomenų rinkimas, lyginimas ir tapatybės nustatymas vyksta momentiškai, beveik momentiškai arba bet kuriuo atveju be didesnės delsos. Šiuo atžvilgiu neturėtų būti jokių galimybių apeiti šio reglamento taisykles dėl tikralaikio atitinkamų DI sistemų naudojimo numatant nedidelę delsą. Tikralaikės sistemos yra susijusios su medžiagos naudojimu tiesiogiai arba beveik tiesiogiai, pavyzdžiui, filmuotos medžiagos, sukurtos naudojant kamerą arba kitą panašią funkciją atliekantį prietaisą, naudojimu. Netikralaikių sistemų atveju, atvirkščiai, biometriniai duomenys jau buvo surinkti ir palyginimas bei tapatybės nustatymas atliekami po ilgos delsos. Ji apima medžiagą, pavyzdžiui, nuotraukas arba vaizdo medžiagą, sukurtą naudojant apsaugines vaizdo stebėjimo sistemas arba asmeninius prietaisus prieš pradedant naudoti sistemą atitinkamų fizinių asmenų atžvilgiu;
(18)
The notion of ‘emotion recognition system’ referred to in this Regulation should be defined as an AI system for the purpose of identifying or inferring emotions or intentions of natural persons on the basis of their biometric data. The notion refers to emotions or intentions such as happiness, sadness, anger, surprise, disgust, embarrassment, excitement, shame, contempt, satisfaction and amusement. It does not include physical states, such as pain or fatigue, including, for example, systems used in detecting the state of fatigue of professional pilots or drivers for the purpose of preventing accidents. This does also not include the mere detection of readily apparent expressions, gestures or movements, unless they are used for identifying or inferring emotions. Those expressions can be basic facial expressions, such as a frown or a smile, or gestures such as the movement of hands, arms or head, or characteristics of a person’s voice, such as a raised voice or whispering.
(18)
šiame reglamente nurodyta sąvoka „emocijų atpažinimo sistema“ sąvoka turėtų būti apibrėžiama kaip DI sistema, kurios paskirtis – atpažinti arba nuspėti fizinių asmenų emocijas ar ketinimus remiantis jų biometriniais duomenimis. Ši sąvoka apima tokias emocijas ar intencijas kaip laimė, liūdesys, pyktis, nustebimas, bjaurėjimasis, sumišimas, susijaudinimas, gėda, panieka, pasitenkinimas ir linksmumas. Ji neapima fizinių būklių, pavyzdžiui, skausmo ar nuovargio, įskaitant sistemas, naudojamas profesionalių pilotų ar vairuotojų nuovargiui nustatyti, siekiant užkirsti kelią nelaimingiems atsitikimams. Tai taip pat neapima paprasčiausio aiškiai matomų išraiškų, gestų ar judesių nustatymo, išskyrus atvejus, kai tai naudojama emocijoms atpažinti ar nuspėti. Šios išraiškos gali būti paprastos veido išraiškos, pavyzdžiui, suraukti antakiai ar šypsena, arba gestai, pavyzdžiui, plaštakų, rankų ar galvos judesiai, arba asmens balso savybės, pavyzdžiui, pakeltas balsas ar šnibždėjimas;
(19)
For the purposes of this Regulation the notion of ‘publicly accessible space’ should be understood as referring to any physical space that is accessible to an undetermined number of natural persons, and irrespective of whether the space in question is privately or publicly owned, irrespective of the activity for which the space may be used, such as for commerce, for example, shops, restaurants, cafés; for services, for example, banks, professional activities, hospitality; for sport, for example, swimming pools, gyms, stadiums; for transport, for example, bus, metro and railway stations, airports, means of transport; for entertainment, for example, cinemas, theatres, museums, concert and conference halls; or for leisure or otherwise, for example, public roads and squares, parks, forests, playgrounds. A space should also be classified as being publicly accessible if, regardless of potential capacity or security restrictions, access is subject to certain predetermined conditions which can be fulfilled by an undetermined number of persons, such as the purchase of a ticket or title of transport, prior registration or having a certain age. In contrast, a space should not be considered to be publicly accessible if access is limited to specific and defined natural persons through either Union or national law directly related to public safety or security or through the clear manifestation of will by the person having the relevant authority over the space. The factual possibility of access alone, such as an unlocked door or an open gate in a fence, does not imply that the space is publicly accessible in the presence of indications or circumstances suggesting the contrary, such as. signs prohibiting or restricting access. Company and factory premises, as well as offices and workplaces that are intended to be accessed only by relevant employees and service providers, are spaces that are not publicly accessible. Publicly accessible spaces should not include prisons or border control. Some other spaces may comprise both publicly accessible and non-publicly accessible spaces, such as the hallway of a private residential building necessary to access a doctor’s office or an airport. Online spaces are not covered, as they are not physical spaces. Whether a given space is accessible to the public should however be determined on a case-by-case basis, having regard to the specificities of the individual situation at hand.
(19)
šiame reglamente sąvoka „viešai prieinama erdvė“ turėtų būti suprantama kaip reiškianti bet kokią fizinę erdvę, prieinamą nenustatytam skaičiui fizinių asmenų ir, neatsižvelgiant į tai, ar ta erdvė priklauso viešam ar privačiam subjektui, neatsižvelgiant į veiklą, kuriai vykdyti ta erdvė gali būti naudojama, – kaip antai, prekyba, pavyzdžiui, parduotuvės, restoranai, kavinės, paslaugos, pavyzdžiui, bankai, profesinė veikla, svetingumo paslaugos, sportas, pavyzdžiui, baseinai, sporto salės, stadionai, transportas, pavyzdžiui, autobusai, metro ir geležinkelio stotys, oro uostai, transporto priemonės, pramogos, pavyzdžiui, kino teatrai, teatrai, muziejai, koncertų ir konferencijų salės), arba laisvalaikio ar kitokia veikla, pavyzdžiui, viešieji keliai ir aikštės, parkai, miškai, žaidimų aikštelės. Erdvė taip pat turėtų būti priskiriama viešai prieinamai erdvei ir tuo atveju, jei, nepaisant galimų pajėgumų ar saugumo apribojimų, tam, kad į ją patektum, taikomos tam tikros iš anksto numatytos sąlygos, kurias gali įvykdyti nenustatytas skaičius asmenų, pvz., reikia įsigyti bilietą ar teisę naudotis transportu, iš anksto registruotis arba būti tam tikro amžiaus. Tačiau erdvė neturėtų būti laikoma viešai prieinama, jei į ją patekti gali tik konkretūs ir apibrėžti fiziniai asmenys pagal Sąjungos arba nacionalinę teisę, tiesiogiai susijusią su viešuoju ar visuomenės saugumu, arba įgaliojimus dėl atitinkamos erdvė turinčiam asmeniui aiškiai išreiškus savo valią. Vien faktinė patekimo galimybė, pavyzdžiui, atrakintos durys ar atviri vartai užtvaroje, nereiškia, kad vieta yra viešai prieinama, jei esama požymių ar aplinkybių, pavyzdžiui, ženklų, kuriais prieiga draudžiama arba ribojama, iš kurių galima spręsti, kad yra kitaip. Įmonių ir gamyklų patalpos, taip pat biurai ir darbo vietos, į kuriuos turėtų patekti tik atitinkami darbuotojai ir paslaugų teikėjai, – tai vietos, kurios nėra viešai prieinamos. Kalėjimai ar pasienio kontrolės zonos neturėtų būti laikomi viešai prieinamomis erdvėmis. Kai kurias kitas erdves gali sudaryti ir viešai prieinamos, ir viešai neprieinamos erdvės, pavyzdžiui, privataus gyvenamojo pastato koridorius, per kurį galima patekti į gydytojo kabinetą, arba oro uostas. Tai netaikoma internetinėms erdvėms, nes jos nėra fizinės erdvės. Tačiau tai, ar atitinkama erdvė yra viešai prieinama, turėtų būti nustatyta kiekvienu konkrečiu atveju atsižvelgiant į konkrečios nagrinėjamos situacijos ypatumus;
(20)
In order to obtain the greatest benefits from AI systems while protecting fundamental rights, health and safety and to enable democratic control, AI literacy should equip providers, deployers and affected persons with the necessary notions to make informed decisions regarding AI systems. Those notions may vary with regard to the relevant context and can include understanding the correct application of technical elements during the AI system’s development phase, the measures to be applied during its use, the suitable ways in which to interpret the AI system’s output, and, in the case of affected persons, the knowledge necessary to understand how decisions taken with the assistance of AI will have an impact on them. In the context of the application this Regulation, AI literacy should provide all relevant actors in the AI value chain with the insights required to ensure the appropriate compliance and its correct enforcement. Furthermore, the wide implementation of AI literacy measures and the introduction of appropriate follow-up actions could contribute to improving working conditions and ultimately sustain the consolidation, and innovation path of trustworthy AI in the Union. The European Artificial Intelligence Board (the ‘Board’) should support the Commission, to promote AI literacy tools, public awareness and understanding of the benefits, risks, safeguards, rights and obligations in relation to the use of AI systems. In cooperation with the relevant stakeholders, the Commission and the Member States should facilitate the drawing up of voluntary codes of conduct to advance AI literacy among persons dealing with the development, operation and use of AI.
(20)
siekiant gauti didžiausią DI sistemų teikiamą naudą, kartu apsaugant pagrindines teises, sveikatą ir saugą, ir sudaryti sąlygas demokratinei kontrolei, tiekėjai, diegėjai ir asmenys, kuriems daromas poveikis, turėtų būti raštingi DI srityje, kad žinotų reikiamas sąvokas ir galėtų priimti informacija pagrįstus sprendimus dėl DI sistemų. Tos sąvokos gali skirtis atsižvelgiant į atitinkamas aplinkybes ir gali apimti supratimą apie tinkamą techninių elementų taikymą DI sistemos kūrimo etape, priemones, taikytinas jos naudojimo metu, tinkamus DI sistemos išvedinių aiškinimo būdus, o asmenų, kuriems daromas poveikis, atveju – žinias, būtinas norint suprasti, kokį poveikį jiems darys sprendimai, priimti naudojantis DI. Taikant šį reglamentą, raštingumas DI srityje turėtų suteikti visiems atitinkamiems DI vertės grandinės subjektams įžvalgų, kurių reikia siekiant užtikrinti tinkamą šio reglamento laikymąsi ir vykdymo užtikrinimą. Be to, platus raštingumo DI srityje priemonių įgyvendinimas ir ėmimasis tinkamų tolesnių susijusių veiksmų galėtų padėti gerinti darbo sąlygas ir galiausiai palaikyti patikimo DI konsolidavimą ir inovacijų trajektoriją Sąjungoje. Europos dirbtinio intelekto valdyba (toliau – Valdyba) turėtų remti Komisiją, kad paskatintų raštingumo DI srityje priemones, visuomenės informuotumą ir supratimą apie DI sistemų naudojimo naudą, riziką, apsaugos priemones ir teises bei pareigas. Bendradarbiaudamos su atitinkamais suinteresuotaisiais subjektais, Komisija ir valstybės narės turėtų padėti rengti savanoriškus elgesio kodeksus, kuriais būtų didinamas su DI kūrimu, veikimu ir naudojimu susijusių asmenų raštingumas DI srityje;
(21)
In order to ensure a level playing field and an effective protection of rights and freedoms of individuals across the Union, the rules established by this Regulation should apply to providers of AI systems in a non-discriminatory manner, irrespective of whether they are established within the Union or in a third country, and to deployers of AI systems established within the Union.
(21)
siekiant užtikrinti vienodas sąlygas ir veiksmingą asmenų teisių ir laisvių apsaugą visoje Sąjungoje, šiame reglamente nustatytos taisyklės turėtų būti taikomos DI sistemų tiekėjams jų nediskriminuojant, nepaisant to, ar jie įsisteigę Sąjungoje, ar trečiojoje valstybėje, taip pat Sąjungoje įsisteigusiems DI sistemų diegėjams;
(22)
In light of their digital nature, certain AI systems should fall within the scope of this Regulation even when they are not placed on the market, put into service, or used in the Union. This is the case, for example, where an operator established in the Union contracts certain services to an operator established in a third country in relation to an activity to be performed by an AI system that would qualify as high-risk. In those circumstances, the AI system used in a third country by the operator could process data lawfully collected in and transferred from the Union, and provide to the contracting operator in the Union the output of that AI system resulting from that processing, without that AI system being placed on the market, put into service or used in the Union. To prevent the circumvention of this Regulation and to ensure an effective protection of natural persons located in the Union, this Regulation should also apply to providers and deployers of AI systems that are established in a third country, to the extent the output produced by those systems is intended to be used in the Union. Nonetheless, to take into account existing arrangements and special needs for future cooperation with foreign partners with whom information and evidence is exchanged, this Regulation should not apply to public authorities of a third country and international organisations when acting in the framework of cooperation or international agreements concluded at Union or national level for law enforcement and judicial cooperation with the Union or the Member States, provided that the relevant third country or international organisation provides adequate safeguards with respect to the protection of fundamental rights and freedoms of individuals. Where relevant, this may cover activities of entities entrusted by the third countries to carry out specific tasks in support of such law enforcement and judicial cooperation. Such framework for cooperation or agreements have been established bilaterally between Member States and third countries or between the European Union, Europol and other Union agencies and third countries and international organisations. The authorities competent for supervision of the law enforcement and judicial authorities under this Regulation should assess whether those frameworks for cooperation or international agreements include adequate safeguards with respect to the protection of fundamental rights and freedoms of individuals. Recipient national authorities and Union institutions, bodies, offices and agencies making use of such outputs in the Union remain accountable to ensure their use complies with Union law. When those international agreements are revised or new ones are concluded in the future, the contracting parties should make utmost efforts to align those agreements with the requirements of this Regulation.
(22)
tam tikros DI sistemos, atsižvelgiant į jų skaitmeninį pobūdį, turėtų patekti į šio reglamento taikymo sritį net jei jos neteikiamos rinkai, nepradedamos naudoti ir nenaudojamos Sąjungoje. Taip, pavyzdžiui, yra tuo atveju, kai Sąjungoje įsisteigęs veiklos vykdytojas sudaro sutartis su trečiojoje valstybėje įsisteigusiu veiklos vykdytoju dėl tam tikrų paslaugų, susijusių su veikla, kurią turi atlikti DI sistema, laikoma didelę riziką keliančia sistema. Šiomis aplinkybėmis veiklos vykdytojo trečiojoje valstybėje naudojama DI sistema galėtų tvarkyti duomenis, kurie buvo teisėtai surinkti Sąjungoje ir iš jos perduoti, ir pateikti Sąjungoje esančiam pagal sutartį veikiančiam veiklos vykdytojui, tos DI sistemos, kuri nebuvo pateikta rinkai, nebuvo pradėta naudoti ir nenaudota Sąjungoje, išvedinį, gautą tvarkant tuos duomenis. Siekiant užkirsti kelią šio reglamento reikalavimų apėjimui ir užtikrinti veiksmingą Sąjungoje esančių fizinių asmenų apsaugą, šis reglamentas turėtų būti taikomas ir trečiojoje valstybėje įsisteigusiems DI sistemų tiekėjams ir diegėjams (tiek, kiek šių sistemų sugeneruotus išvedinius ketinama naudoti Sąjungoje). Vis dėlto, siekiant atsižvelgti į dabartines taisykles ir specialius būsimo bendradarbiavimo su užsienio partneriais, su kuriais keičiamasi informacija ir įrodymais, poreikius, šis reglamentas neturėtų būti taikomas trečiosios valstybės valdžios institucijoms ir tarptautinėms organizacijoms, kai veikiama pagal Sąjungos arba nacionaliniu lygmeniu sudarytus bendradarbiavimo arba tarptautinius susitarimus teisėsaugos ir teisminio bendradarbiavimo su Sąjunga arba valstybėmis narėmis tikslais, jei atitinkama trečioji valstybė arba tarptautinės organizacijos užtikrina tinkamas su asmenų pagrindinių teisių ir laisvių apsauga susijusias apsaugos priemones. Kai aktualu, tai gali apimti subjektų, kuriems trečiosios valstybės pavedė atlikti konkrečias užduotis remiant tokį teisėsaugos ir teisminį bendradarbiavimą, veiklą. Toks bendradarbiavimo pagrindas arba susitarimai yra nustatyti dvišaliu pagrindu tarp valstybių narių ir trečiųjų valstybių arba tarp Europos Sąjungos, Europolo, kitų Sąjungos agentūrų ir trečiųjų valstybių bei tarptautinių organizacijų. Institucijos, pagal šį reglamentą kompetentingos vykdyti teisėsaugos ir teisminių institucijų priežiūrą, turėtų įvertinti, ar į tą bendradarbiavimo pagrindą ar tarptautinius susitarimus yra įtrauktos tinkamos su asmenų pagrindinių teisių ir laisvių apsauga susijusios apsaugos priemonės. Gavėjos nacionalinės institucijos ir Sąjungos institucijos, įstaigos, organai ir agentūros, kurie Sąjungoje naudojasi tokiais išvediniais, lieka atsakingi už tai, kad jų naudojimasis atitiktų Sąjungos teisę. Kai tie tarptautiniai susitarimai peržiūrimi arba ateityje sudaromi nauji susitarimai, susitariančiosios šalys turėtų dėti visas pastangas, kad tie susitarimai būtų suderinti su šio reglamento reikalavimais;
(23)
This Regulation should also apply to Union institutions, bodies, offices and agencies when acting as a provider or deployer of an AI system.
(23)
šis reglamentas taip pat turėtų būti taikomas Sąjungos institucijoms, įstaigoms, organams ir agentūroms, kai jie veikia kaip DI sistemos tiekėjai arba diegėjai;
(24)
If, and insofar as, AI systems are placed on the market, put into service, or used with or without modification of such systems for military, defence or national security purposes, those should be excluded from the scope of this Regulation regardless of which type of entity is carrying out those activities, such as whether it is a public or private entity. As regards military and defence purposes, such exclusion is justified both by Article 4(2) TEU and by the specificities of the Member States’ and the common Union defence policy covered by Chapter 2 of Title V TEU that are subject to public international law, which is therefore the more appropriate legal framework for the regulation of AI systems in the context of the use of lethal force and other AI systems in the context of military and defence activities. As regards national security purposes, the exclusion is justified both by the fact that national security remains the sole responsibility of Member States in accordance with Article 4(2) TEU and by the specific nature and operational needs of national security activities and specific national rules applicable to those activities. Nonetheless, if an AI system developed, placed on the market, put into service or used for military, defence or national security purposes is used outside those temporarily or permanently for other purposes, for example, civilian or humanitarian purposes, law enforcement or public security purposes, such a system would fall within the scope of this Regulation. In that case, the entity using the AI system for other than military, defence or national security purposes should ensure the compliance of the AI system with this Regulation, unless the system is already compliant with this Regulation. AI systems placed on the market or put into service for an excluded purpose, namely military, defence or national security, and one or more non-excluded purposes, such as civilian purposes or law enforcement, fall within the scope of this Regulation and providers of those systems should ensure compliance with this Regulation. In those cases, the fact that an AI system may fall within the scope of this Regulation should not affect the possibility of entities carrying out national security, defence and military activities, regardless of the type of entity carrying out those activities, to use AI systems for national security, military and defence purposes, the use of which is excluded from the scope of this Regulation. An AI system placed on the market for civilian or law enforcement purposes which is used with or without modification for military, defence or national security purposes should not fall within the scope of this Regulation, regardless of the type of entity carrying out those activities.
(24)
jei ir tokiu mastu, kokiu DI sistemos pateikiamos rinkai, pradedamos naudoti arba naudojamos, tokios sistemos, su pakeitimais kariniais, gynybos ar nacionalinio saugumo tikslais arba be jų, neturėtų patekti į šio reglamento taikymo sritį, neatsižvelgiant į tai, kokios rūšies subjektas vykdo tą veiklą, pavyzdžiui, ar jis yra viešasis ar privatus subjektas. Kalbant apie karinius ir gynybos tikslus, tokia išimtis pagrįsta tiek atsižvelgiant į ES sutarties 4 straipsnio 2 dalį, tiek į valstybių narių ir bendros Sąjungos gynybos politikos, kuriai taikomas ES sutarties V antraštinės dalies 2 skyrius, ypatumus, kuriems taikoma tarptautinė viešoji teisė, todėl tai yra tinkamesnė teisinė sistema DI sistemoms reguliuoti, kai naudojama mirtina jėga, ir kitoms DI sistemoms reguliuoti, kai vykdoma karinė ir gynybos veikla. Kiek tai susiję su nacionalinio saugumo tikslais, išimtis pagrįsta tiek atsižvelgiant į tai, kad pagal ES sutarties 4 straipsnio 2 dalį už nacionalinį saugumą atsakingos išlieka išimtinai valstybės narės, tiek į specifinį nacionalinio saugumo veiklos pobūdį bei veiklos poreikius ir tai veiklai taikomas konkrečias nacionalines taisykles. Vis dėlto, jei DI sistema, sukurta, pateikta rinkai, pradėta naudoti ar naudojama kariniais, gynybos ar nacionalinio saugumo tikslais, yra laikinai arba nuolat naudojama kitais tikslais pavyzdžiui, civiliniais ar humanitariniais tikslais, teisėsaugos ar visuomenės saugumo tikslais, tokia sistema patektų į šio reglamento taikymo sritį. Tokiu atveju subjektas, kuris DI sistemą naudoja ne kariniais, gynybos ar nacionalinio saugumo tikslais, turėtų užtikrinti, kad DI sistema atitiktų šį reglamentą, nebent ji jau atitinka šį reglamentą. Į šio reglamento taikymo sritį patenka DI sistemos, pateiktos rinkai arba pradėtos naudoti tikslu, kuriam netaikomas šis reglamentas, t. y. kariniu, gynybos ar nacionalinio saugumo tikslu, ir vienu ar daugiau tikslų, kuriems netaikomas šis reglamentas, pavyzdžiui, civilinių arba teisėsaugos tikslų, o tų sistemų tiekėjai turėtų užtikrinti, kad sistemos atitiktų šį reglamentą. Tais atvejais tai, kad DI sistema gali patekti į šio reglamento taikymo sritį, neturėtų daryti poveikio nacionalinio saugumo, gynybos ir karinę veiklą vykdančių subjektų (neatsižvelgiant į jų rūšį) galimybei nacionalinio saugumo, kariniais ir gynybos tikslais naudoti DI sistemas, kurių naudojimui šis reglamentas netaikomas. DI sistema, pateikta rinkai civiliniais ar teisėsaugos tikslais, kuri su pakeitimais arba be jų naudojama kariniais, gynybos ar nacionalinio saugumo tikslais, neturėtų patekti į šio reglamento taikymo sritį, neatsižvelgiant į tokią veiklą vykdančio subjekto rūšį;
(25)
This Regulation should support innovation, should respect freedom of science, and should not undermine research and development activity. It is therefore necessary to exclude from its scope AI systems and models specifically developed and put into service for the sole purpose of scientific research and development. Moreover, it is necessary to ensure that this Regulation does not otherwise affect scientific research and development activity on AI systems or models prior to being placed on the market or put into service. As regards product-oriented research, testing and development activity regarding AI systems or models, the provisions of this Regulation should also not apply prior to those systems and models being put into service or placed on the market. That exclusion is without prejudice to the obligation to comply with this Regulation where an AI system falling into the scope of this Regulation is placed on the market or put into service as a result of such research and development activity and to the application of provisions on AI regulatory sandboxes and testing in real world conditions. Furthermore, without prejudice to the exclusion of AI systems specifically developed and put into service for the sole purpose of scientific research and development, any other AI system that may be used for the conduct of any research and development activity should remain subject to the provisions of this Regulation. In any event, any research and development activity should be carried out in accordance with recognised ethical and professional standards for scientific research and should be conducted in accordance with applicable Union law.
(25)
šiuo reglamentu turėtų būti remiamos inovacijos, turėtų būti gerbiama mokslo laisvė ir neturėtų būti pakenkta mokslinių tyrimų ir plėtros veiklai. Todėl į jo taikymo sritį reikia neįtraukti DI sistemų ir modelių, specialiai sukurtų ir pradėtų naudoti vien tik mokslinių tyrimų ir plėtros tikslu. Be to, būtina užtikrinti, kad šis reglamentas kitaip nedarytų poveikio su DI sistemomis arba modeliais susijusiai mokslinių tyrimų ir plėtros veiklai prieš juos pateikiant rinkai arba pradedant naudoti. Į gaminius orientuotų mokslinių tyrimų, bandymų ir plėtros veiklai, susijusiai su DI sistemomis arba modeliais, šio reglamento nuostatos taip pat neturėtų būti taikomos prieš tas sistemas ir modelius pradedant naudoti arba pateikiant rinkai. Tas netaikymas nedaro poveikio pareigai laikytis šio reglamento, kai DI sistema, patenkanti į šio reglamento taikymo sritį, kaip tokios mokslinių tyrimų ir plėtros veiklos rezultatas pateikiama rinkai arba pradedama naudoti, ir nuostatų dėl apribotų DI bandomųjų reglamentavimo aplinkų ir bandymų realiomis sąlygomis taikymui. Be to, nedarant poveikio netaikymui DI sistemoms, specialiai sukurtoms ir pradėtoms naudoti tik mokslinių tyrimų ir plėtros tikslu, šio reglamento nuostatos ir toliau turėtų būti taikomos bet kuriai kitai DI sistemai, kuri gali būti naudojama bet kokiai mokslinių tyrimų ir plėtros veiklai vykdyti. Bet kuriuo atveju bet kokia mokslinių tyrimų ir plėtros veikla turėtų būti vykdoma laikantis pripažintų moksliniams tyrimams taikomų etikos ir profesinių standartų ir turėtų būti vykdoma laikantis taikytinos Sąjungos teisės;
(26)
In order to introduce a proportionate and effective set of binding rules for AI systems, a clearly defined risk-based approach should be followed. That approach should tailor the type and content of such rules to the intensity and scope of the risks that AI systems can generate. It is therefore necessary to prohibit certain unacceptable AI practices, to lay down requirements for high-risk AI systems and obligations for the relevant operators, and to lay down transparency obligations for certain AI systems.
(26)
siekiant nustatyti proporcingą ir veiksmingą DI sistemoms taikomų taisyklių rinkinį, reikėtų vadovautis aiškiai apibrėžtu rizika grindžiamu požiūriu. Laikantis to požiūrio tokių taisyklių rūšį ir turinį reikėtų pritaikyti prie rizikos, kurią gali sukelti DI sistemos, intensyvumo ir masto. Todėl būtina uždrausti tam tikrą nepriimtiną su DI susijusią praktiką, nustatyti didelės rizikos DI sistemoms taikomus reikalavimus, o atitinkamiems veiklos vykdytojams – pareigas, taip pat nustatyti skaidrumo pareigas tam tikroms DI sistemoms;
(27)
While the risk-based approach is the basis for a proportionate and effective set of binding rules, it is important to recall the 2019 Ethics guidelines for trustworthy AI developed by the independent AI HLEG appointed by the Commission. In those guidelines, the AI HLEG developed seven non-binding ethical principles for AI which are intended to help ensure that AI is trustworthy and ethically sound. The seven principles include human agency and oversight; technical robustness and safety; privacy and data governance; transparency; diversity, non-discrimination and fairness; societal and environmental well-being and accountability. Without prejudice to the legally binding requirements of this Regulation and any other applicable Union law, those guidelines contribute to the design of coherent, trustworthy and human-centric AI, in line with the Charter and with the values on which the Union is founded. According to the guidelines of the AI HLEG, human agency and oversight means that AI systems are developed and used as a tool that serves people, respects human dignity and personal autonomy, and that is functioning in a way that can be appropriately controlled and overseen by humans. Technical robustness and safety means that AI systems are developed and used in a way that allows robustness in the case of problems and resilience against attempts to alter the use or performance of the AI system so as to allow unlawful use by third parties, and minimise unintended harm. Privacy and data governance means that AI systems are developed and used in accordance with privacy and data protection rules, while processing data that meets high standards in terms of quality and integrity. Transparency means that AI systems are developed and used in a way that allows appropriate traceability and explainability, while making humans aware that they communicate or interact with an AI system, as well as duly informing deployers of the capabilities and limitations of that AI system and affected persons about their rights. Diversity, non-discrimination and fairness means that AI systems are developed and used in a way that includes diverse actors and promotes equal access, gender equality and cultural diversity, while avoiding discriminatory impacts and unfair biases that are prohibited by Union or national law. Social and environmental well-being means that AI systems are developed and used in a sustainable and environmentally friendly manner as well as in a way to benefit all human beings, while monitoring and assessing the long-term impacts on the individual, society and democracy. The application of those principles should be translated, when possible, in the design and use of AI models. They should in any case serve as a basis for the drafting of codes of conduct under this Regulation. All stakeholders, including industry, academia, civil society and standardisation organisations, are encouraged to take into account, as appropriate, the ethical principles for the development of voluntary best practices and standards.
(27)
nors rizika grindžiamas požiūris yra proporcingų ir veiksmingų privalomų taisyklių pagrindas, svarbu priminti 2019 m. Patikimo DI etikos gaires, kurias parengė Komisijos paskirta nepriklausoma AI HLEG. Tose gairėse AI HLEG parengė septynis neprivalomus DI etikos principus, kuriais siekiama padėti užtikrinti, kad DI būtų patikimas ir atitiktų etikos normas. Tie septyni principai apima žmogiškąjį veiksnį ir žmogaus atliekamą priežiūrą, techninį patvarumą ir saugumą, privatumą ir duomenų valdymą, skaidrumą, įvairovę, nediskriminavimą ir teisingumą, visuomenės ir aplinkos gerovę, ir atskaitomybę. Nedarant poveikio teisiškai privalomiems šio reglamento ir bet kurios kitos taikytinos Sąjungos teisės reikalavimams, tomis gairėmis prisidedama prie nuoseklaus, patikimo ir į žmogų orientuoto DI projektavimo, laikantis Chartijos ir vertybių, kuriomis grindžiama Sąjunga. Pagal AI HLEG gaires žmogiškasis veiksnys ir žmogaus atliekama priežiūra reiškia, kad DI sistemos kuriamos ir naudojamos kaip priemonė, kuri tarnauja žmonėms, kuria gerbiamas žmogaus orumas ir asmens autonomiškumas ir kuri veikia taip, kad ją galėtų kontroliuoti ir prižiūrėti žmonės. Techninis patvarumas ir saugumas reiškia, kad DI sistemos kuriamos ir naudojamos taip, kad būtų užtikrintas patvarumas kilus problemoms ir atsparumas mėginimams pakeisti DI sistemos naudojimą ar veikimo efektyvumą, kad trečiosios šalys galėtų ją neteisėtai naudoti, ir kad būtų kuo labiau sumažinta nenumatyta žala. Privatumas ir duomenų valdymas reiškia, kad DI sistemos kuriamos ir naudojamos laikantis privatumo ir duomenų apsaugos taisyklių, kartu tvarkant aukštus kokybės ir vientisumo standartus atitinkančius duomenis. Skaidrumas reiškia, kad DI sistemos kuriamos ir naudojamos taip, kad būtų sudarytos sąlygos tinkamam atsekamumui ir paaiškinamumui, kartu informuojant žmones apie tai, kad jie bendrauja ar sąveikauja su DI sistema, taip pat tinkamai informuojant diegėjus apie šios DI sistemos pajėgumus ir ribotumus, o asmenis, kuriems daromas poveikis – apie jų teises. Įvairovė, nediskriminavimas ir teisingumas reiškia, kad DI sistemos kuriamos ir naudojamos taip, kad šiame procese dalyvautų įvairūs subjektai, ir kad būtų skatinama vienoda prieiga, lyčių lygybė ir kultūrų įvairovė, kartu išvengiant pagal Sąjungos ar nacionalinę teisę draudžiamo diskriminacinio poveikio ir nepagrįsto šališkumo. Visuomenės ir aplinkos gerovė reiškia, kad DI sistemos kuriamos ir naudojamos tvariu ir palankiu aplinkai būdu ir taip, kad jos būtų naudingos visiems žmonėms, kartu stebint ir vertinant ilgalaikį poveikį asmenims, visuomenei ir demokratijai. Tų principų taikymas, kai įmanoma, turėtų būti perkeltas į DI modelių projektavimą ir naudojimą. Bet kuriuo atveju jais turėtų būti remiamasi rengiant elgesio kodeksus pagal šį reglamentą. Visi suinteresuotieji subjektai, įskaitant pramonę, akademinę bendruomenę, pilietinę visuomenę ir standartizacijos organizacijas, raginami rengiant savanorišką geriausią praktiką ir standartus atitinkamai atsižvelgti į etikos principus;
(28)
Aside from the many beneficial uses of AI, it can also be misused and provide novel and powerful tools for manipulative, exploitative and social control practices. Such practices are particularly harmful and abusive and should be prohibited because they contradict Union values of respect for human dignity, freedom, equality, democracy and the rule of law and fundamental rights enshrined in the Charter, including the right to non-discrimination, to data protection and to privacy and the rights of the child.
(28)
be daugybės naudingų DI panaudojimo būdų, juo taip pat gali būti piktnaudžiaujama ir ji gali suteikti naujoviškų ir galingų manipuliavimo, išnaudojimo ir socialinės kontrolės praktikos įrankių. Tokia praktika yra ypač žalinga, ja lengva piktnaudžiauti ir ji turėtų būti draudžiama, nes prieštarauja Sąjungos vertybėms, susijusioms su pagarba žmogaus orumui, laisve, lygybe, demokratija ir teisine valstybe ir su Chartijoje įtvirtintomis pagrindinėmis teisėmis, be kita ko, teisėmis į nediskriminavimą, duomenų apsaugą bei privatumą ir vaiko teisėmis;
(29)
AI-enabled manipulative techniques can be used to persuade persons to engage in unwanted behaviours, or to deceive them by nudging them into decisions in a way that subverts and impairs their autonomy, decision-making and free choices. The placing on the market, the putting into service or the use of certain AI systems with the objective to or the effect of materially distorting human behaviour, whereby significant harms, in particular having sufficiently important adverse impacts on physical, psychological health or financial interests are likely to occur, are particularly dangerous and should therefore be prohibited. Such AI systems deploy subliminal components such as audio, image, video stimuli that persons cannot perceive, as those stimuli are beyond human perception, or other manipulative or deceptive techniques that subvert or impair person’s autonomy, decision-making or free choice in ways that people are not consciously aware of those techniques or, where they are aware of them, can still be deceived or are not able to control or resist them. This could be facilitated, for example, by machine-brain interfaces or virtual reality as they allow for a higher degree of control of what stimuli are presented to persons, insofar as they may materially distort their behaviour in a significantly harmful manner. In addition, AI systems may also otherwise exploit the vulnerabilities of a person or a specific group of persons due to their age, disability within the meaning of Directive (EU) 2019/882 of the European Parliament and of the Council (16), or a specific social or economic situation that is likely to make those persons more vulnerable to exploitation such as persons living in extreme poverty, ethnic or religious minorities. Such AI systems can be placed on the market, put into service or used with the objective to or the effect of materially distorting the behaviour of a person and in a manner that causes or is reasonably likely to cause significant harm to that or another person or groups of persons, including harms that may be accumulated over time and should therefore be prohibited. It may not be possible to assume that there is an intention to distort behaviour where the distortion results from factors external to the AI system which are outside the control of the provider or the deployer, namely factors that may not be reasonably foreseeable and therefore not possible for the provider or the deployer of the AI system to mitigate. In any case, it is not necessary for the provider or the deployer to have the intention to cause significant harm, provided that such harm results from the manipulative or exploitative AI-enabled practices. The prohibitions for such AI practices are complementary to the provisions contained in Directive 2005/29/EC of the European Parliament and of the Council (17), in particular unfair commercial practices leading to economic or financial harms to consumers are prohibited under all circumstances, irrespective of whether they are put in place through AI systems or otherwise. The prohibitions of manipulative and exploitative practices in this Regulation should not affect lawful practices in the context of medical treatment such as psychological treatment of a mental disease or physical rehabilitation, when those practices are carried out in accordance with the applicable law and medical standards, for example explicit consent of the individuals or their legal representatives. In addition, common and legitimate commercial practices, for example in the field of advertising, that comply with the applicable law should not, in themselves, be regarded as constituting harmful manipulative AI-enabled practices.
(29)
DI grindžiami manipuliavimo metodai gali būti naudojami siekiant įtikinti asmenis atlikti nepageidaujamus veiksmus arba juos apgauti, skatinant juos priimti sprendimus taip, kad būtų trukdoma ir kenkiama jų autonomiškumui, sprendimų priėmimui ir laisvam pasirinkimui. Tam tikrų DI sistemų pateikimas rinkai, pradėjimas naudoti arba naudojimas siekiant iš esmės iškreipti arba iškreipiant žmogaus elgesį, galbūt sukeliant didelę žalą, visų pirma darančią pakankamai didelį neigiamą poveikį fizinei, psichologinei sveikatai ar finansiniams interesams, yra ypač pavojingas ir todėl turėtų būti draudžiamas. Tokiose DI sistemose naudojami pasąmonę veikiantys komponentai, pavyzdžiui, garso, paveikslėlių, judamo vaizdo stimuliacijos, kurių žmonės negali suvokti, nes tos stimuliacijos priemonės yra žmogui nesuvokiamos, arba kiti manipuliavimo ar apgaulės metodai, kuriais trukdoma arba kenkiama asmens autonomiškumui, sprendimų priėmimui ar laisvam pasirinkimui tokiais būdais, kad žmonės sąmoningai nesuvokia tų priemonių, jei jas ir suvokia, vis tiek yra apgaunami arba negali jų kontroliuoti ar joms pasipriešinti. Tą galėtų palengvinti, pavyzdžiui, mašinos ir smegenų sąsajos arba virtualioji realybė, nes jos leidžia geriau kontroliuoti, kokios stimuliacijos pateikiamos žmonėms, tiek, kiek jos gali iš esmės iškreipti jų elgesį labai žalingu būdu. Be to, DI sistemos taip pat gali kitaip išnaudoti asmens arba konkrečios asmenų grupės pažeidžiamumą dėl jų amžiaus, negalios, kaip tai suprantama Europos Parlamento ir Tarybos direktyvoje (ES) 2019/882 (16), arba konkrečios socialinės ar ekonominės padėties, dėl kurios tuos asmenis yra lengviau išnaudoti, pavyzdžiui, ypač skurdžiai gyvenančius asmenis, etnines ar religines mažumas. Tokios DI sistemos gali būti pateiktos rinkai, pradėtos naudoti arba naudojamos siekiant iš esmės iškreipti arba iškreipiant asmens elgesį tokiu būdu, kuris sukelia arba pagrįstai manoma, kad gali sukelti didelę žalą tam ar kitam asmeniui arba asmenų grupėms, įskaitant žalą, kuri laikui bėgant gali didėti, ir todėl turėtų būti draudžiamos. Gali būti neįmanoma daryti prielaidos, kad ketinama iškreipti elgesį, kai iškreipimą lemia su DI sistema nesusiję veiksniai, kurių tiekėjas ar diegėjas negali kontroliuoti, t. y. veiksniai, kurių DI sistemos tiekėjas ar diegėjas negali pagrįstai numatyti ir dėl to negali sušvelninti jų poveikio. Bet kuriuo atveju nebūtina, kad tiekėjas ar diegėjas ketintų sukelti didelę žalą, jeigu tokia žala vis tiek atsiranda dėl manipuliavimo ar išnaudojimo pasitelkiant DI grindžiamas praktiką. Tokios DI praktikos draudimai papildo Europos Parlamento ir Tarybos direktyvos 2005/29/EB (17) nuostatas, visų pirma tai, kad nesąžininga komercinė praktika, daranti ekonominę ar finansinę žalą vartotojams, yra draudžiama bet kokiomis aplinkybėmis, nepaisant to, ar ji vykdoma naudojant DI sistemas ar kitaip. Šiame reglamente nustatyti manipuliavimo ir išnaudojimo praktikos draudimai neturėtų daryti poveikio teisėtai praktikai, susijusiai su medicininiu gydymu, pavyzdžiui, psichologiniu psichikos ligos gydymu ar fizine reabilitacija, kai tokia praktika vykdoma laikantis taikytinos teisės ir medicinos standartų, pavyzdžiui, gavus aiškų asmenų arba jų teisinių atstovų sutikimą. Be to, įprasta ir teisėta komercinė praktika, pavyzdžiui, reklamos srityje, kuri atitinka taikytiną teisę, neturėtų būti savaime laikoma DI grindžiama žalinga manipuliavimo praktika;
(30)
Biometric categorisation systems that are based on natural persons’ biometric data, such as an individual person’s face or fingerprint, to deduce or infer an individuals’ political opinions, trade union membership, religious or philosophical beliefs, race, sex life or sexual orientation should be prohibited. That prohibition should not cover the lawful labelling, filtering or categorisation of biometric data sets acquired in line with Union or national law according to biometric data, such as the sorting of images according to hair colour or eye colour, which can for example be used in the area of law enforcement.
(30)
turėtų būti draudžiamos biometrinio kategorizavimo sistemos, grindžiamos fizinių asmenų biometriniais duomenimis, pavyzdžiui, asmens veidu ar pirštų atspaudu, siekiant nuspręsti dėl ar padaryti išvadas dėl asmens politinių pažiūrų, narystės profesinėse sąjungose, religinių ar filosofinių įsitikinimų, rasės, lytinio gyvenimo ar seksualinės orientacijos. Tas draudimas neturėtų būti taikomas pagal Sąjungos ar nacionalinę teisę gautų biometrinių duomenų rinkinių teisėtam ženklinimui, filtravimui ar kategorizavimui pagal biometrinius duomenis, pavyzdžiui, paveikslėlių rūšiavimui pagal plaukų arba akių spalvą, kurie, pavyzdžiui, gali būti naudojami teisėsaugos srityje;
(31)
AI systems providing social scoring of natural persons by public or private actors may lead to discriminatory outcomes and the exclusion of certain groups. They may violate the right to dignity and non-discrimination and the values of equality and justice. Such AI systems evaluate or classify natural persons or groups thereof on the basis of multiple data points related to their social behaviour in multiple contexts or known, inferred or predicted personal or personality characteristics over certain periods of time. The social score obtained from such AI systems may lead to the detrimental or unfavourable treatment of natural persons or whole groups thereof in social contexts, which are unrelated to the context in which the data was originally generated or collected or to a detrimental treatment that is disproportionate or unjustified to the gravity of their social behaviour. AI systems entailing such unacceptable scoring practices and leading to such detrimental or unfavourable outcomes should therefore be prohibited. That prohibition should not affect lawful evaluation practices of natural persons that are carried out for a specific purpose in accordance with Union and national law.
(31)
viešų arba privačių subjektų naudojimasis DI sistemomis, kurių paskirtis yra vykdyti fizinių asmenų socialinį reitingavimą, gali duoti diskriminuojančių rezultatų, o tam tikros grupės gali patirti atskirtį. Taip gali būti pažeista teisė į orumą ir nediskriminavimą ir lygybės bei teisingumo vertybės. Tokios DI sistemos vertina arba klasifikuoja fizinius asmenis arba jų grupes remdamosi daugybe duomenų taškų, susijusių su jų socialiniu elgesiu įvairiomis aplinkybėmis arba žinomomis, numanomomis ar nuspėjamais asmeniniais arba asmenybės bruožais tam tikrais laikotarpiais. Tokių DI sistemų sukurtas socialinio reitingavimo rezultatas gali lemti žalingą arba nepalankų elgesį su fiziniais asmenimis arba ištisomis jų grupėmis ir tai gali būti daroma socialinėmis aplinkybėmis, kurios nėra susijusios su aplinkybėmis, kuriomis duomenys buvo iš pradžių sugeneruoti arba surinkti, arba žalingą elgesį, kuris yra neproporcingas arba nepagrįstas atsižvelgiant į jų socialinio elgesio rimtumą. Todėl DI sistemos, taikančios tokią nepriimtiną reitingavimo praktiką ir lemiančios tokius žalingus ar nepalankius rezultatus, turėtų būti draudžiamos. Tas draudimas neturėtų daryti poveikio teisėtai fizinių asmenų vertinimo praktikai, vykdomai konkrečiu tikslu laikantis Sąjungos ir nacionalinės teisės;
(32)
The use of AI systems for ‘real-time’ remote biometric identification of natural persons in publicly accessible spaces for the purpose of law enforcement is particularly intrusive to the rights and freedoms of the concerned persons, to the extent that it may affect the private life of a large part of the population, evoke a feeling of constant surveillance and indirectly dissuade the exercise of the freedom of assembly and other fundamental rights. Technical inaccuracies of AI systems intended for the remote biometric identification of natural persons can lead to biased results and entail discriminatory effects. Such possible biased results and discriminatory effects are particularly relevant with regard to age, ethnicity, race, sex or disabilities. In addition, the immediacy of the impact and the limited opportunities for further checks or corrections in relation to the use of such systems operating in real-time carry heightened risks for the rights and freedoms of the persons concerned in the context of, or impacted by, law enforcement activities.
(32)
DI sistemų naudojimas dėl tikralaikio nuotolinio biometrinio fizinių asmenų tapatybės nustatymo viešai prieinamose erdvėse teisėsaugos tikslu itin riboja atitinkamų asmenų teises ir laisves, nes tai gali daryti poveikį didelės gyventojų dalies privačiam gyvenimui, sukelti nuolatinį sekimo jausmą ir netiesiogiai atgrasyti nuo naudojimosi susirinkimų teise ir kitomis pagrindinėmis teisėmis. DI sistemų, skirtų nuotoliniam fizinių asmenų biometriniam tapatybės nustatymui, techniniai netikslumai gali lemti šališkus rezultatus ir daryti diskriminacinį poveikį. Tokie galimi šališki rezultatai ir diskriminacinis poveikis yra ypač svarbūs amžiaus, etninės kilmės, rasės, lyties arba negalios atžvilgiu. Be to, poveikio betarpiškumas ir ribotos galimybės atlikti tolesnes patikras ar taisymus, susijusius su tokiomis tikruoju laiku veikiančiomis sistemomis, kelia didesnę riziką atitinkamų asmenų, kurių atžvilgiu vykdoma teisėsaugos veikla arba kuriems ji daro poveikį, teisėms ir laisvėms;
(33)
The use of those systems for the purpose of law enforcement should therefore be prohibited, except in exhaustively listed and narrowly defined situations, where the use is strictly necessary to achieve a substantial public interest, the importance of which outweighs the risks. Those situations involve the search for certain victims of crime including missing persons; certain threats to the life or to the physical safety of natural persons or of a terrorist attack; and the localisation or identification of perpetrators or suspects of the criminal offences listed in an annex to this Regulation, where those criminal offences are punishable in the Member State concerned by a custodial sentence or a detention order for a maximum period of at least four years and as they are defined in the law of that Member State. Such a threshold for the custodial sentence or detention order in accordance with national law contributes to ensuring that the offence should be serious enough to potentially justify the use of ‘real-time’ remote biometric identification systems. Moreover, the list of criminal offences provided in an annex to this Regulation is based on the 32 criminal offences listed in the Council Framework Decision 2002/584/JHA (18), taking into account that some of those offences are, in practice, likely to be more relevant than others, in that the recourse to ‘real-time’ remote biometric identification could, foreseeably, be necessary and proportionate to highly varying degrees for the practical pursuit of the localisation or identification of a perpetrator or suspect of the different criminal offences listed and having regard to the likely differences in the seriousness, probability and scale of the harm or possible negative consequences. An imminent threat to life or the physical safety of natural persons could also result from a serious disruption of critical infrastructure, as defined in Article 2, point (4) of Directive (EU) 2022/2557 of the European Parliament and of the Council (19), where the disruption or destruction of such critical infrastructure would result in an imminent threat to life or the physical safety of a person, including through serious harm to the provision of basic supplies to the population or to the exercise of the core function of the State. In addition, this Regulation should preserve the ability for law enforcement, border control, immigration or asylum authorities to carry out identity checks in the presence of the person concerned in accordance with the conditions set out in Union and national law for such checks. In particular, law enforcement, border control, immigration or asylum authorities should be able to use information systems, in accordance with Union or national law, to identify persons who, during an identity check, either refuse to be identified or are unable to state or prove their identity, without being required by this Regulation to obtain prior authorisation. This could be, for example, a person involved in a crime, being unwilling, or unable due to an accident or a medical condition, to disclose their identity to law enforcement authorities.
(33)
todėl šių sistemų naudojimas teisėsaugos tikslu turėtų būti draudžiamas, išskyrus išsamiai išvardytas ir tiksliai apibrėžtas situacijas, kai sistemas naudoti tikrai būtina siekiant apginti esminį viešąjį interesą, kurio svarba nusveria riziką. Šios situacijos apima tam tikrų nusikaltimo aukų, įskaitant dingusius asmenis, paiešką, tam tikras grėsmes fizinių asmenų gyvybei arba fiziniam saugumui arba teroristinio išpuolio grėsmes ir šio reglamento priede išvardytų nusikalstamų veikų vykdytojų arba įtariamųjų buvimo vietos arba tapatybės nustatymą, jei už tas nusikalstamas veikas atitinkamoje valstybėje narėje pagal tos valstybės narės teisę baudžiama laisvės atėmimo bausme arba priimant sprendimą dėl įkalinimo ne trumpiau nei ketveriems metams, ir kaip jos apibrėžtos tos valstybės narės teisėje. Tokia nacionalinėje teisėje nustatyta laisvės atėmimo bausmės arba sprendimo dėl įkalinimo riba padeda užtikrinti, jog tam, kad būtų galima pateisinti tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemų naudojimą, nusikalstama veika turi būti pakankamai rimta. Be to, šio reglamento priede pateiktas nusikalstamų veikų sąrašas yra grindžiamas 32 nusikalstamomis veikomis, išvardytomis Tarybos pamatiniame sprendime 2002/584/TVR (18), atsižvelgiant į tai, kad kai kurios iš tų veikų praktiniu požiūriu gali būti svarbesnės palyginti su kitomis, taigi tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemų naudojimas gali būti būtinas ir proporcingas (labai įvairiu mastu) norint praktiškai nustatyti įvairių išvardytų nusikalstamų veikų vykdytojo arba įtariamojo buvimo vietą arba tapatybę, kartu atsižvelgiant į tikėtinus žalos arba galimų neigiamų pasekmių rimtumo, tikėtinumo ir masto skirtumus. Neišvengiama grėsmė fizinių asmenų gyvybei arba fiziniam saugumui taip pat galėtų kilti dėl didelio ypatingos svarbos infrastruktūros, kaip apibrėžta Europos Parlamento ir Tarybos direktyvos (ES) 2022/2557 (19) 2 straipsnio 4 punkte, sutrikimo, kai tokios ypatingos svarbos infrastruktūros sutrikimas arba sunaikinimas sukeltų neišvengiamą grėsmę asmens gyvybei arba fiziniam saugumui, be kita ko, dėl didelės žalos būtiniausių prekių tiekimui gyventojams arba valstybės pagrindinės funkcijos vykdymui. Be to, šiuo reglamentu turėtų būti išsaugota galimybė teisėsaugos, sienų kontrolės, imigracijos ar prieglobsčio institucijoms atlikti tapatybės patikrinimus dalyvaujant atitinkamam asmeniui, laikantis Sąjungos ir nacionalinėje teisėje tokiems patikrinimams nustatytų sąlygų. Visų pirma teisėsaugos, sienų kontrolės, imigracijos ar prieglobsčio institucijos turėtų turėti galimybę naudotis informacinėmis sistemomis pagal Sąjungos arba nacionalinę teisę, kad nustatytų asmenų, kurie tapatybės patikrinimo metu atsisako leisti nustatyti jų tapatybę arba negali nurodyti ar įrodyti savo tapatybės, tapatybę, nereikalaujant pagal šį reglamentą gauti išankstinį leidimą. Tai galėtų būti, pavyzdžiui, asmuo, dalyvavęs vykdant nusikaltimą, nenorintis arba negalintis dėl nelaimingo atsitikimo ar sveikatos būklės atskleisti savo tapatybės teisėsaugos institucijoms;
(34)
In order to ensure that those systems are used in a responsible and proportionate manner, it is also important to establish that, in each of those exhaustively listed and narrowly defined situations, certain elements should be taken into account, in particular as regards the nature of the situation giving rise to the request and the consequences of the use for the rights and freedoms of all persons concerned and the safeguards and conditions provided for with the use. In addition, the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement should be deployed only to confirm the specifically targeted individual’s identity and should be limited to what is strictly necessary concerning the period of time, as well as the geographic and personal scope, having regard in particular to the evidence or indications regarding the threats, the victims or perpetrator. The use of the real-time remote biometric identification system in publicly accessible spaces should be authorised only if the relevant law enforcement authority has completed a fundamental rights impact assessment and, unless provided otherwise in this Regulation, has registered the system in the database as set out in this Regulation. The reference database of persons should be appropriate for each use case in each of the situations mentioned above.
(34)
siekiant užtikrinti, kad tos sistemos būtų naudojamos atsakingai ir proporcingai, taip pat svarbu nustatyti, kad kiekvienoje iš šių išsamiai nurodytų ir tiksliai apibrėžtų situacijų būtų atsižvelgiama į tam tikrus aspektus, visų pirma susijusius su situacijos, dėl kurios pateikiamas prašymas, pobūdžiu ir tokio naudojimo pasekmėmis visų susijusių asmenų teisėms ir laisvėms, taip pat su tokiu naudojimu susijusiomis apsaugos priemonėmis ir sąlygomis. Be to, tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos viešai prieinamose erdvėse teisėsaugos tikslu turėtų būti diegiamos tik tam, kad būtų patvirtinta konkrečiai tiriamo asmens tapatybė, ir turėtų neviršyti to, kas tikrai būtina, kiek tai susiję su laikotarpiu, taip pat geografine ir subjektine taikymo sritimi, atsižvelgiant visų pirma į įrodymus arba požymius, susijusius su grėsmėmis, aukomis arba nusikalstamos veikos vykdytoju. Tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemą viešai prieinamose erdvėse turėtų būti leidžiama naudoti tik tuo atveju, jei atitinkama teisėsaugos institucija yra atlikusi poveikio pagrindinėms teisėms vertinimą ir, jei šiame reglamente nenumatyta kitaip, yra užregistravusi sistemą duomenų bazėje, kaip nustatyta šiame reglamente. Kiekvienoje iš pirmiau nurodytų situacijų kiekvieno panaudojimo atveju turėtų būti pasirenkama tinkama informacinė asmenų duomenų bazė;
(35)
Each use of a ‘real-time’ remote biometric identification system in publicly accessible spaces for the purpose of law enforcement should be subject to an express and specific authorisation by a judicial authority or by an independent administrative authority of a Member State whose decision is binding. Such authorisation should, in principle, be obtained prior to the use of the AI system with a view to identifying a person or persons. Exceptions to that rule should be allowed in duly justified situations on grounds of urgency, namely in situations where the need to use the systems concerned is such as to make it effectively and objectively impossible to obtain an authorisation before commencing the use of the AI system. In such situations of urgency, the use of the AI system should be restricted to the absolute minimum necessary and should be subject to appropriate safeguards and conditions, as determined in national law and specified in the context of each individual urgent use case by the law enforcement authority itself. In addition, the law enforcement authority should in such situations request such authorisation while providing the reasons for not having been able to request it earlier, without undue delay and at the latest within 24 hours. If such an authorisation is rejected, the use of real-time biometric identification systems linked to that authorisation should cease with immediate effect and all the data related to such use should be discarded and deleted. Such data includes input data directly acquired by an AI system in the course of the use of such system as well as the results and outputs of the use linked to that authorisation. It should not include input that is legally acquired in accordance with another Union or national law. In any case, no decision producing an adverse legal effect on a person should be taken based solely on the output of the remote biometric identification system.
(35)
kiekvieną kartą viešai prieinamose erdvėse teisėsaugos tikslu naudojant tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemą reikėtų gauti aiškų ir konkretų valstybės narės teisminės institucijos arba nepriklausomos administracinės institucijos, kurios sprendimas yra privalomas, leidimą. Toks leidimas iš esmės turėtų būti gautas prieš pradedant naudoti DI sistemą tam, kad būtų nustatyta asmens ar asmenų tapatybė. Turėtų būti leidžiama netaikyti tos taisyklės tinkamai pagrįstose neatidėliotinose situacijose, t. y. situacijose, kuriose poreikis naudoti atitinkamas sistemas yra toks, kad faktiškai ir objektyviai neįmanoma gauti leidimo prieš pradedant naudoti DI sistemą. Tokiose neatidėliotinose situacijose DI sistemos naudojimas turėtų apsiriboti tik tuo, kas absoliučiai minimaliai būtina, ir turėtų būti taikomos tinkamos apsaugos priemonės ir sąlygos, kaip apibrėžta nacionalinėje teisėje ir kaip konkrečiai nurodė pati teisėsaugos institucija, atsižvelgdama į kiekvieną individualų neatidėliotino naudojimo atvejį. Be to, tokiose situacijose teisėsaugos institucija turėtų paprašyti tokio leidimo, kartu nurodydama priežastis, dėl kurių negalėjo leidimo paprašyti anksčiau, nepagrįstai nedelsdama ir ne vėliau kaip per 24 valandas. Jei tokį leidimą atsisakoma išduoti, su tuo leidimu susietų tikralaikio biometrinio tapatybės nustatymo sistemų naudojimas turėtų būti tuojau pat nutrauktas ir visi su tokiu naudojimu susiję duomenys turėtų būti pašalinti ir ištrinti. Tokie duomenys apima įvesties duomenis, kuriuos DI sistema tiesiogiai gauna naudojant tokią sistemą, taip pat su tuo leidimu susieto naudojimo rezultatus ir išvedinius. Jie neturėtų apimti pagal kitą Sąjungos arba nacionalinės teisės aktą teisėtai gautos įvesties. Bet kuriuo atveju, remiantis vien nuotolinio biometrinio tapatybės nustatymo sistemos išvediniu neturėtų būti priimtas joks sprendimas, kuris sukeltų asmeniui nepalankų teisinį poveikį;
(36)
In order to carry out their tasks in accordance with the requirements set out in this Regulation as well as in national rules, the relevant market surveillance authority and the national data protection authority should be notified of each use of the real-time biometric identification system. Market surveillance authorities and the national data protection authorities that have been notified should submit to the Commission an annual report on the use of real-time biometric identification systems.
(36)
kad atitinkama rinkos priežiūros institucija ir nacionalinė duomenų apsaugos institucija galėtų atlikti savo užduotis pagal šiame reglamente ir nacionalinėse taisyklėse nustatytus reikalavimus, joms turėtų būti pranešama apie kiekvieną tikralaikio biometrinio tapatybės nustatymo sistemos naudojimą. Rinkos priežiūros institucijos ir nacionalinės duomenų apsaugos institucijos, kurios buvo notifikuotos, turėtų pateikti Komisijai metinę tikralaikio biometrinio tapatybės nustatymo sistemų naudojimo ataskaitą;
(37)
Furthermore, it is appropriate to provide, within the exhaustive framework set by this Regulation that such use in the territory of a Member State in accordance with this Regulation should only be possible where and in as far as the Member State concerned has decided to expressly provide for the possibility to authorise such use in its detailed rules of national law. Consequently, Member States remain free under this Regulation not to provide for such a possibility at all or to only provide for such a possibility in respect of some of the objectives capable of justifying authorised use identified in this Regulation. Such national rules should be notified to the Commission within 30 days of their adoption.
(37)
be to, laikantis šiame reglamente nustatytos išsamios sistemos, tinkama numatyti, kad toks naudojimas valstybės narės teritorijoje pagal šį reglamentą turėtų būti įmanomas tik tais atvejais ir tik tiek, kiek atitinkama valstybė narė yra nusprendusi savo išsamiose nacionalinės teisės taisyklėse aiškiai numatyti galimybę leisti tokį naudojimą. Todėl valstybės narės pagal šį reglamentą gali apskritai nenumatyti tokios galimybės arba numatyti ją tik kai kuriais tikslais, kuriais būtų galima pagrįsti pagal šį reglamentą nustatytą leistiną naudojimą. Apie tokias nacionalines taisykles Komisijai turėtų būti pranešta per 30 dienų nuo jų priėmimo;
(38)
The use of AI systems for real-time remote biometric identification of natural persons in publicly accessible spaces for the purpose of law enforcement necessarily involves the processing of biometric data. The rules of this Regulation that prohibit, subject to certain exceptions, such use, which are based on Article 16 TFEU, should apply as lex specialis in respect of the rules on the processing of biometric data contained in Article 10 of Directive (EU) 2016/680, thus regulating such use and the processing of biometric data involved in an exhaustive manner. Therefore, such use and processing should be possible only in as far as it is compatible with the framework set by this Regulation, without there being scope, outside that framework, for the competent authorities, where they act for purpose of law enforcement, to use such systems and process such data in connection thereto on the grounds listed in Article 10 of Directive (EU) 2016/680. In that context, this Regulation is not intended to provide the legal basis for the processing of personal data under Article 8 of Directive (EU) 2016/680. However, the use of real-time remote biometric identification systems in publicly accessible spaces for purposes other than law enforcement, including by competent authorities, should not be covered by the specific framework regarding such use for the purpose of law enforcement set by this Regulation. Such use for purposes other than law enforcement should therefore not be subject to the requirement of an authorisation under this Regulation and the applicable detailed rules of national law that may give effect to that authorisation.
(38)
viešai prieinamose erdvėse teisėsaugos tikslu naudojant DI sistemas dėl tikralaikio nuotolinio biometrinio fizinių asmenų tapatybės nustatymo neišvengiamai tvarkomi biometriniai duomenys. Šio reglamento taisyklės, kuriomis, išskyrus tam tikras išimtis, draudžiamas toks naudojimas, grindžiamos SESV 16 straipsniu, turėtų būti taikomos kaip lex specialis, atsižvelgiant į biometrinių duomenų tvarkymo taisykles, nustatytas Direktyvos (ES) 2016/680 10 straipsnyje, taip išsamiai reguliuojant tokį naudojimą ir atitinkamų biometrinių duomenų tvarkymą. Todėl toks naudojimas ir tvarkymas turėtų būti įmanomi tik tiek, kiek tai suderinama su šiuo reglamentu nustatyta sistema, už kurios taikymo ribų kompetentingos institucijos, veikdamos teisėsaugos tikslu, negalėtų naudoti tokių sistemų ir tvarkyti su tuo susijusių tokių duomenų, remdamosi Direktyvos (ES) 2016/680 10 straipsnyje išvardytais pagrindais. Atsižvelgiant į tai šiuo reglamentu nesiekiama nustatyti asmens duomenų tvarkymo pagal Direktyvos (ES) 2016/680 8 straipsnį teisinio pagrindo. Tačiau tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemų naudojimas viešai prieinamose erdvėse kitais nei teisėsaugos tikslu, įskaitant atvejus, kai tai daro kompetentingos institucijos, neturėtų patekti į konkrečios sistemos, susijusios su tokiu naudojimu teisėsaugos tikslu, kuri nustatyta šiame reglamente, taikymo sritį. Todėl tokiam naudojimui kitais nei teisėsaugos tikslais neturėtų būti reikalaujama leidimo pagal šį reglamentą ir taikomas išsamias nacionalinės teisės taisykles, pagal kurias gali būti įgyvendinamas tas leidimas;
(39)
Any processing of biometric data and other personal data involved in the use of AI systems for biometric identification, other than in connection to the use of real-time remote biometric identification systems in publicly accessible spaces for the purpose of law enforcement as regulated by this Regulation, should continue to comply with all requirements resulting from Article 10 of Directive (EU) 2016/680. For purposes other than law enforcement, Article 9(1) of Regulation (EU) 2016/679 and Article 10(1) of Regulation (EU) 2018/1725 prohibit the processing of biometric data subject to limited exceptions as provided in those Articles. In the application of Article 9(1) of Regulation (EU) 2016/679, the use of remote biometric identification for purposes other than law enforcement has already been subject to prohibition decisions by national data protection authorities.
(39)
bet koks biometrinių duomenų ir kitų asmens duomenų, susijusių su DI sistemų naudojimu biometrinio tapatybės nustatymo tikslais, naudojimas, išskyrus atvejus, kai viešai prieinamose erdvėse teisėsaugos tikslu naudojamos tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos, kaip nustatyta šiame reglamente, turėtų ir toliau derėti su visais reikalavimais, taikomais pagal Direktyvos (ES) 2016/680 10 straipsnį. Kitais nei teisėsaugos tikslais pagal Reglamento (ES) 2016/679 9 straipsnio 1 dalį ir Reglamento (ES) 2018/1725 10 straipsnio 1 dalį draudžiama tvarkyti biometrinius duomenis, kuriems taikomos tuose straipsniuose numatytos ribotos išimtys. Taikant Reglamento (ES) 2016/679 9 straipsnio 1 dalį, nuotolinio biometrinio tapatybės nustatymo naudojimui kitais nei teisėsaugos tikslais jau buvo taikomi nacionalinių duomenų apsaugos institucijų sprendimai dėl draudimo;
(40)
In accordance with Article 6a of Protocol No 21 on the position of the United Kingdom and Ireland in respect of the area of freedom, security and justice, as annexed to the TEU and to the TFEU, Ireland is not bound by the rules laid down in Article 5(1), first subparagraph, point (g), to the extent it applies to the use of biometric categorisation systems for activities in the field of police cooperation and judicial cooperation in criminal matters, Article 5(1), first subparagraph, point (d), to the extent it applies to the use of AI systems covered by that provision, Article 5(1), first subparagraph, point (h), Article 5(2) to (6) and Article 26(10) of this Regulation adopted on the basis of Article 16 TFEU which relate to the processing of personal data by the Member States when carrying out activities falling within the scope of Chapter 4 or Chapter 5 of Title V of Part Three of the TFEU, where Ireland is not bound by the rules governing the forms of judicial cooperation in criminal matters or police cooperation which require compliance with the provisions laid down on the basis of Article 16 TFEU.
(40)
pagal prie ES sutarties ir SESV pridėto Protokolo Nr. 21 dėl Jungtinės Karalystės ir Airijos pozicijos dėl laisvės, saugumo ir teisingumo erdvės 6a straipsnį Airijai nėra privalomos šio reglamento 5 straipsnio 1 dalies pirmos pastraipos g punkte, tiek, kiek jis taikomas biometrinio kategorizavimo sistemų naudojimui vykdant veiklą policijos bendradarbiavimo ir teisminio bendradarbiavimo baudžiamosiose bylose srityje, 5 straipsnio 1 dalies pirmos pastraipos d punkte, tiek, kiek jis taikomas DI sistemų naudojimui, kuriam taikoma ta nuostata, 5 straipsnio 1 dalies pirmos pastraipos h punkte, 5 straipsnio 2–6 dalyse ir 26 straipsnio 10 dalyje nustatytos taisyklės, priimtos remiantis SESV 16 straipsniu, kurios yra susijusios su valstybių narių vykdomu asmens duomenų tvarkymu vykdant veiklą, kuriai taikomas SESV trečiosios dalies V antraštinės dalies 4 arba 5 skyrius, tais atvejais, kai Airijai nėra privalomos taisyklės, kuriomis reglamentuojamos teisminio bendradarbiavimo baudžiamosiose bylose ar policijos bendradarbiavimo, kurį vykdant turi būti laikomasi pagal SESV 16 straipsnį nustatytų nuostatų, formos;
(41)
In accordance with Articles 2 and 2a of Protocol No 22 on the position of Denmark, annexed to the TEU and to the TFEU, Denmark is not bound by rules laid down in Article 5(1), first subparagraph, point (g), to the extent it applies to the use of biometric categorisation systems for activities in the field of police cooperation and judicial cooperation in criminal matters, Article 5(1), first subparagraph, point (d), to the extent it applies to the use of AI systems covered by that provision, Article 5(1), first subparagraph, point (h), (2) to (6) and Article 26(10) of this Regulation adopted on the basis of Article 16 TFEU, or subject to their application, which relate to the processing of personal data by the Member States when carrying out activities falling within the scope of Chapter 4 or Chapter 5 of Title V of Part Three of the TFEU.
(41)
pagal prie ES sutarties ir SESV pridėto Protokolo Nr. 22 dėl Danijos pozicijos 2 ir 2a straipsnius Danijai nėra privalomos ar taikomos šio reglamento 5 straipsnio 1 dalies pirmos pastraipos g punkte, tiek, kiek jis taikomas biometrinio kategorizavimo sistemų naudojimui vykdant veiklą policijos bendradarbiavimo ir teisminio bendradarbiavimo baudžiamosiose bylose srityje, 5 straipsnio 1 dalies pirmos pastraipos d punkte, tiek, kiek jis taikomas DI sistemų naudojimui, kuriam taikoma ta nuostata, 5 straipsnio 1 dalies pirmos pastraipos h punkte, 5 straipsnio 2–6 dalyse ir 26 straipsnio 10 dalyje nustatytos taisyklės, priimtos remiantis SESV 16 straipsniu, kurios yra susijusios su valstybių narių vykdomu asmens duomenų tvarkymu atliekant veiklą, kuriai taikomas SESV trečiosios dalies V antraštinės dalies 4 arba 5 skyrius;
(42)
In line with the presumption of innocence, natural persons in the Union should always be judged on their actual behaviour. Natural persons should never be judged on AI-predicted behaviour based solely on their profiling, personality traits or characteristics, such as nationality, place of birth, place of residence, number of children, level of debt or type of car, without a reasonable suspicion of that person being involved in a criminal activity based on objective verifiable facts and without human assessment thereof. Therefore, risk assessments carried out with regard to natural persons in order to assess the likelihood of their offending or to predict the occurrence of an actual or potential criminal offence based solely on profiling them or on assessing their personality traits and characteristics should be prohibited. In any case, that prohibition does not refer to or touch upon risk analytics that are not based on the profiling of individuals or on the personality traits and characteristics of individuals, such as AI systems using risk analytics to assess the likelihood of financial fraud by undertakings on the basis of suspicious transactions or risk analytic tools to predict the likelihood of the localisation of narcotics or illicit goods by customs authorities, for example on the basis of known trafficking routes.
(42)
laikantis nekaltumo prezumpcijos, fiziniai asmenys Sąjungoje visada turėtų būti vertinami pagal jų faktinį elgesį. Fiziniai asmenys niekada neturėtų būti vertinami pagal DI nuspėtą elgesį remiantis vien jų profiliavimu, asmenybės savybėmis ar bruožais, pavyzdžiui, pilietybe, gimimo vieta, gyvenamąja vieta, vaikų skaičiumi, skolos dydžiu ar automobilio modeliu, nesant pagrįsto įtarimo, kad tas asmuo dalyvauja nusikalstamoje veikloje, remiantis objektyviais patikrinamais faktais ir be žmogaus atliekamo vertinimo. Todėl turėtų būti draudžiama atlikti rizikos vertinimus, susijusius su fiziniais asmenimis, siekiant įvertinti tikimybę, kad jie gali padaryti nusikaltimą, arba nuspėti, kad bus padaryta faktinė ar potenciali nusikalstama veika, remiantis vien jų profiliavimu arba asmenybės savybių ir bruožų vertinimu. Bet kuriuo atveju tas draudimas nėra susijęs su rizikos analitika, kuri nėra grindžiama asmenų profiliavimu ar asmenų asmenybės savybėmis ir bruožais, pavyzdžiui, DI sistemomis, kuriose rizikos analitika naudojama įmonių finansinio sukčiavimo tikimybei įvertinti remiantis įtartinais sandoriais arba rizikos analitika, skirta numatyti tikimybę, kad muitinės gali nustatyti narkotikų ar neteisėtų prekių buvimo vietą, pavyzdžiui, remiantis žinomais neteisėtos prekybos maršrutais;
(43)
The placing on the market, the putting into service for that specific purpose, or the use of AI systems that create or expand facial recognition databases through the untargeted scraping of facial images from the internet or CCTV footage, should be prohibited because that practice adds to the feeling of mass surveillance and can lead to gross violations of fundamental rights, including the right to privacy.
(43)
turėtų būti draudžiama pateikti rinkai, pradėti naudoti tuo konkrečiu tikslu arba naudoti DI sistemas, kuriomis kuriamos arba plečiamos veido atpažinimo duomenų bazės, netikslingai renkant veido atvaizdus iš interneto arba apsauginės vaizdo stebėjimo sistemos (AVSS) įrašų, nes ta praktika prisideda prie masinio sekimo jausmo ir gali lemti šiurkščius pagrindinių teisių, įskaitant teisę į privatumą, pažeidimus;
(44)
There are serious concerns about the scientific basis of AI systems aiming to identify or infer emotions, particularly as expression of emotions vary considerably across cultures and situations, and even within a single individual. Among the key shortcomings of such systems are the limited reliability, the lack of specificity and the limited generalisability. Therefore, AI systems identifying or inferring emotions or intentions of natural persons on the basis of their biometric data may lead to discriminatory outcomes and can be intrusive to the rights and freedoms of the concerned persons. Considering the imbalance of power in the context of work or education, combined with the intrusive nature of these systems, such systems could lead to detrimental or unfavourable treatment of certain natural persons or whole groups thereof. Therefore, the placing on the market, the putting into service, or the use of AI systems intended to be used to detect the emotional state of individuals in situations related to the workplace and education should be prohibited. That prohibition should not cover AI systems placed on the market strictly for medical or safety reasons, such as systems intended for therapeutical use.
(44)
didelį susirūpinimą kelia DI sistemų, kuriomis siekiama nustatyti emocijas arba daryti dėl jų išvadas, mokslinis pagrindas, visų pirma dėl to, kad emocijų raiška įvairiose kultūrose ir situacijose, taip pat net ir vieno asmens atveju, labai skiriasi. Vienas iš pagrindinių tokių sistemų trūkumų yra ribotas patikimumas, specifiškumo stoka ir ribotos galimybės apibendrinti. Todėl DI sistemos, pagal kurias nustatomos fizinių asmenų emocijos ar ketinimai arba daromos dėl jų išvados remiantis jų biometriniais duomenimis, gali lemti diskriminuojančius rezultatus ir gali riboti atitinkamų asmenų teises ir laisves. Atsižvelgiant į galios disbalansą darbo arba švietimo srityje ir į tai, kad šios sistemos yra ribojančio pobūdžio, tokios sistemos galėtų lemti žalingą arba nepalankų elgesį su tam tikrais fiziniais asmenimis arba ištisomis jų grupėmis. Todėl turėtų būti draudžiama pateikti rinkai, pradėti naudoti arba naudoti DI sistemas, skirtas naudoti siekiant nustatyti asmenų emocinę būklę situacijose, susijusiose su darbo vieta ir švietimu. Tas draudimas neturėtų būti taikomas DI sistemoms, kurios pateikiamos rinkai tik dėl medicininių ar saugumo priežasčių, pavyzdžiui, sistemoms, skirtoms naudoti terapijoje;
(45)
Practices that are prohibited by Union law, including data protection law, non-discrimination law, consumer protection law, and competition law, should not be affected by this Regulation.
(45)
šiuo reglamentu neturėtų būti daromas poveikis praktikai, kurią draudžia Sąjungos teisė, įskaitant duomenų apsaugos teisės aktus, nediskriminavimo teisės aktus, vartotojų apsaugos teisės aktus ir konkurencijos teisės aktus;
(46)
High-risk AI systems should only be placed on the Union market, put into service or used if they comply with certain mandatory requirements. Those requirements should ensure that high-risk AI systems available in the Union or whose output is otherwise used in the Union do not pose unacceptable risks to important Union public interests as recognised and protected by Union law. On the basis of the New Legislative Framework, as clarified in the Commission notice ‘The “Blue Guide” on the implementation of EU product rules 2022’ (20), the general rule is that more than one legal act of Union harmonisation legislation, such as Regulations (EU) 2017/745 (21) and (EU) 2017/746 (22) of the European Parliament and of the Council or Directive 2006/42/EC of the European Parliament and of the Council (23), may be applicable to one product, since the making available or putting into service can take place only when the product complies with all applicable Union harmonisation legislation. To ensure consistency and avoid unnecessary administrative burdens or costs, providers of a product that contains one or more high-risk AI systems, to which the requirements of this Regulation and of the Union harmonisation legislation listed in an annex to this Regulation apply, should have flexibility with regard to operational decisions on how to ensure compliance of a product that contains one or more AI systems with all applicable requirements of the Union harmonisation legislation in an optimal manner. AI systems identified as high-risk should be limited to those that have a significant harmful impact on the health, safety and fundamental rights of persons in the Union and such limitation should minimise any potential restriction to international trade.
(46)
didelės rizikos DI sistemos Sąjungos rinkai turėtų būti pateikiamos, pradedamos naudoti arba naudojamos tik jeigu jos atitinka tam tikrus privalomus reikalavimus. Šiais reikalavimais turėtų būti užtikrinama, kad Sąjungoje prieinamos didelės rizikos DI sistemos arba sistemos, kurių išvedinys kitaip naudojamas Sąjungoje, nekeltų nepriimtinos rizikos svarbiems Sąjungos interesams, kurie pripažįstami ir saugomi pagal Sąjungos teisę. Remiantis naująja teisės aktų sistema, kaip paaiškinta Komisijos pranešime „2022 m. Mėlynasis vadovas dėl gaminius reglamentuojančių ES taisyklių įgyvendinimo“ (20), bendra taisyklė yra ta, kad vienam gaminiui gali būti taikoma daugiau nei vienas teisės aktas iš Sąjungos derinamųjų teisės aktų, pavyzdžiui, Europos Parlamento ir Tarybos reglamentai (ES) 2017/745 (21) ir (ES) 2017/746 (22) arba Europos Parlamento ir Tarybos direktyva 2006/42/EB (23), nes pateikti rinkai arba pradėti naudoti galima tik tada, kai gaminys atitinka visus taikytinus Sąjungos derinamuosius teisės aktus. Siekiant užtikrinti suderinamumą ir išvengti nereikalingos administracinės naštos ar išlaidų, gaminio, kuriame yra viena ar daugiau didelės rizikos DI sistemų, kurioms taikomi šio reglamento ir šio reglamento priede išvardytų Sąjungos derinamųjų teisės aktų reikalavimai, tiekėjai turėtų būti lankstūs, kiek tai susiję su veiklos sprendimais dėl to, kaip optimaliai užtikrinti gaminio, kuriame yra viena ar daugiau DI sistemų, atitiktį visiems taikytiniems Sąjungos derinamųjų teisės aktų reikalavimams. DI sistemos, kurios įvardytos kaip keliančios didelę riziką, turėtų apimti tik tas sistemas, kurios daro didelį žalingą poveikį Sąjungoje esančių asmenų sveikatai, saugumui ir pagrindinėms teisėms, ir tokiu apribojimu turėtų būti kiek įmanoma sumažintas galimas tarptautinės prekybos suvaržymas;
(47)
AI systems could have an adverse impact on the health and safety of persons, in particular when such systems operate as safety components of products. Consistent with the objectives of Union harmonisation legislation to facilitate the free movement of products in the internal market and to ensure that only safe and otherwise compliant products find their way into the market, it is important that the safety risks that may be generated by a product as a whole due to its digital components, including AI systems, are duly prevented and mitigated. For instance, increasingly autonomous robots, whether in the context of manufacturing or personal assistance and care should be able to safely operate and performs their functions in complex environments. Similarly, in the health sector where the stakes for life and health are particularly high, increasingly sophisticated diagnostics systems and systems supporting human decisions should be reliable and accurate.
(47)
DI sistemos galėtų daryti neigiamą poveikį asmenų sveikatai ir saugai, visų pirma tais atvejais, kai tokios sistemos veikia kaip gaminių saugos komponentai. Atsižvelgiant į Sąjungos derinamųjų teisės aktų tikslus, kuriais siekiama palengvinti laisvą gaminių judėjimą vidaus rinkoje ir užtikrinti, kad tik saugūs ir kitus reikalavimus atitinkantys gaminiai patektų į rinką, svarbu, kad būtų tinkamai užkirstas kelias saugos rizikai, kurią gali sukelti visas gaminys dėl savo skaitmeninių komponentų, įskaitant DI sistemas, ir tokia rizika būtų tinkamai mažinama. Pavyzdžiui, vis savarankiškesni robotai, veikiantys gamybos ar asmeninės pagalbos ir priežiūros srityje, turėtų sugebėti saugiai veikti ir atlikti savo funkcijas sudėtingomis sąlygomis. Taip pat sveikatos sektoriuje, kuriame pasekmės gyvybei ir sveikatai yra itin rimtos, vis dažniau naudojamos sudėtingos diagnozavimo sistemos ir žmonėms sprendimus padedančios priimti sistemos turėtų būti patikimos ir tikslios;
(48)
The extent of the adverse impact caused by the AI system on the fundamental rights protected by the Charter is of particular relevance when classifying an AI system as high risk. Those rights include the right to human dignity, respect for private and family life, protection of personal data, freedom of expression and information, freedom of assembly and of association, the right to non-discrimination, the right to education, consumer protection, workers’ rights, the rights of persons with disabilities, gender equality, intellectual property rights, the right to an effective remedy and to a fair trial, the right of defence and the presumption of innocence, and the right to good administration. In addition to those rights, it is important to highlight the fact that children have specific rights as enshrined in Article 24 of the Charter and in the United Nations Convention on the Rights of the Child, further developed in the UNCRC General Comment No 25 as regards the digital environment, both of which require consideration of the children’s vulnerabilities and provision of such protection and care as necessary for their well-being. The fundamental right to a high level of environmental protection enshrined in the Charter and implemented in Union policies should also be considered when assessing the severity of the harm that an AI system can cause, including in relation to the health and safety of persons.
(48)
DI sistemos keliamo neigiamo poveikio mastas pagal Chartiją saugomoms pagrindinėms teisėms yra ypač aktualus tuomet, kai DI sistema priskiriama didelės rizikos sistemoms. Šioms teisėms priklauso teisė į žmogaus orumą, teisė į privatų ir šeimos gyvenimą, teisė į asmens duomenų apsaugą, saviraiškos laisvė ir teisė gauti informaciją, susirinkimų ir asociacijų laisvė, teisė į nediskriminavimą, teisė į švietimą, vartotojų apsauga, darbuotojų teisės, asmenų su negalia teisės, lyčių lygybė, intelektinės nuosavybės teisės, teisė į veiksmingą teisių gynimą ir teisingą bylos nagrinėjimą, teisė į gynybą ir nekaltumo prezumpcija ir teisė į gerą administravimą. Be šių teisių, svarbu akcentuoti tai, kad vaikai turi specialias teises, įtvirtintas Chartijos 24 straipsnyje ir Jungtinių Tautų vaiko teisių konvencijoje ir išplėtotas JT VTK bendrojoje pastaboje Nr. 25 dėl skaitmeninės aplinkos; pagal abu šiuos dokumentus reikia atsižvelgti į vaikų pažeidžiamumą ir suteikti jiems tokią apsaugą ir priežiūrą, kuri yra būtina jų gerovei užtikrinti. Vertinant žalos, kurią gali sukelti DI sistema, įskaitant žalą asmenų sveikatai ir saugai, rimtumą taip pat reikėtų atsižvelgti į pagrindinę teisę į aukšto lygio aplinkos apsaugą, kuri yra įtvirtinta Chartijoje ir įgyvendinta Sąjungos politikoje;
(49)
As regards high-risk AI systems that are safety components of products or systems, or which are themselves products or systems falling within the scope of Regulation (EC) No 300/2008 of the European Parliament and of the Council (24), Regulation (EU) No 167/2013 of the European Parliament and of the Council (25), Regulation (EU) No 168/2013 of the European Parliament and of the Council (26), Directive 2014/90/EU of the European Parliament and of the Council (27), Directive (EU) 2016/797 of the European Parliament and of the Council (28), Regulation (EU) 2018/858 of the European Parliament and of the Council (29), Regulation (EU) 2018/1139 of the European Parliament and of the Council (30), and Regulation (EU) 2019/2144 of the European Parliament and of the Council (31), it is appropriate to amend those acts to ensure that the Commission takes into account, on the basis of the technical and regulatory specificities of each sector, and without interfering with existing governance, conformity assessment and enforcement mechanisms and authorities established therein, the mandatory requirements for high-risk AI systems laid down in this Regulation when adopting any relevant delegated or implementing acts on the basis of those acts.
(49)
dėl didelės rizikos DI sistemų, kurios yra gaminių arba sistemų saugos komponentai, arba pačios yra gaminiai arba sistemos, patenkantys į Europos Parlamento ir Tarybos reglamento (EB) Nr. 300/2008 (24), Europos Parlamento ir Tarybos reglamento (ES) Nr. 167/2013 (25), Europos Parlamento ir Tarybos reglamento (ES) Nr. 168/2013 (26), Europos Parlamento ir Tarybos direktyvos 2014/90/ES (27), Europos Parlamento ir Tarybos direktyvos (ES) 2016/797 (28), Europos Parlamento ir Tarybos reglamento (ES) 2018/858 (29) taikymo sritis, Europos Parlamento ir Tarybos reglamentas (ES) 2018/1139 (30) ir Europos Parlamento ir Tarybos reglamentas (ES) 2019/2144 (31), yra tikslinga iš dalies pakeisti šiuos aktus, siekiant užtikrinti, kad Komisija, remdamasi kiekvieno sektoriaus techniniais ir reglamentavimo ypatumais ir nesikišdama į esamus valdymo, atitikties vertinimo ir vykdymo užtikrinimo mechanizmus ir jais nustatytus įgaliojimus, atsižvelgtų į šiame reglamente nustatytus privalomus reikalavimus didelės rizikos DI sistemoms, kai remdamasi šiais išvardytais aktais ji priima susijusius deleguotuosius ar įgyvendinimo aktus;
(50)
As regards AI systems that are safety components of products, or which are themselves products, falling within the scope of certain Union harmonisation legislation listed in an annex to this Regulation, it is appropriate to classify them as high-risk under this Regulation if the product concerned undergoes the conformity assessment procedure with a third-party conformity assessment body pursuant to that relevant Union harmonisation legislation. In particular, such products are machinery, toys, lifts, equipment and protective systems intended for use in potentially explosive atmospheres, radio equipment, pressure equipment, recreational craft equipment, cableway installations, appliances burning gaseous fuels, medical devices, in vitro diagnostic medical devices, automotive and aviation.
(50)
dėl DI sistemų, kurios yra gaminių saugos komponentai arba kurios pačios yra gaminiai, patenkantys į tam tikrų Sąjungos derinamųjų teisės aktų, išvardytų šio reglamento priede, taikymo sritį, pagal šį reglamentą yra tikslinga jas priskirti didelės rizikos sistemoms, jeigu atitinkamam gaminiui taikoma atitikties vertinimo procedūra, kurią pagal tą atitinkamą Sąjungos derinamąjį teisės aktą atlieka trečiosios šalies atitikties vertinimo įstaiga. Tokie gaminiai visų pirma yra mašinos, žaislai, liftai, įranga ir apsaugos sistemos, skirtos naudoti potencialiai sprogioje aplinkoje, radijo įranga, slėginiai įrenginiai, pramoginių laivų įrenginiai, lynų kelio įrenginiai, dujinį kurą deginantys prietaisai, medicininiai prietaisai, in vitro diagnostiniai medicinos prietaisai, automobiliai ir aviacija;
(51)
The classification of an AI system as high-risk pursuant to this Regulation should not necessarily mean that the product whose safety component is the AI system, or the AI system itself as a product, is considered to be high-risk under the criteria established in the relevant Union harmonisation legislation that applies to the product. This is, in particular, the case for Regulations (EU) 2017/745 and (EU) 2017/746, where a third-party conformity assessment is provided for medium-risk and high-risk products.
(51)
DI sistemos priskyrimas didelės rizikos sistemoms pagal šį reglamentą nebūtinai turėtų reikšti, kad gaminys, kurio saugos komponentas yra DI sistema, arba pati DI sistema kaip gaminys, yra laikomas didelės rizikos pagal atitinkamame Sąjungos derinamajame teisės akte nustatytus kriterijus, kurie taikomi gaminiui. Tai visų pirma pasakytina apie reglamentus (ES) 2017/745 ir (ES) 2017/746, kuriuose numatyta galimybė trečiajai šaliai atlikti vidutinės rizikos ir didelės rizikos gaminių atitikties vertinimą;
(52)
As regards stand-alone AI systems, namely high-risk AI systems other than those that are safety components of products, or that are themselves products, it is appropriate to classify them as high-risk if, in light of their intended purpose, they pose a high risk of harm to the health and safety or the fundamental rights of persons, taking into account both the severity of the possible harm and its probability of occurrence and they are used in a number of specifically pre-defined areas specified in this Regulation. The identification of those systems is based on the same methodology and criteria envisaged also for any future amendments of the list of high-risk AI systems that the Commission should be empowered to adopt, via delegated acts, to take into account the rapid pace of technological development, as well as the potential changes in the use of AI systems.
(52)
atskiras DI sistemas, konkrečiai, didelės rizikos DI sistemas, išskyrus sistemas, kurios yra gaminių saugos komponentai arba kurios pačios yra gaminiai, tinkama klasifikuoti kaip keliančias didelę riziką, jeigu, atsižvelgiant į jų numatytąją paskirtį, jos kelia didelę žalos asmenų sveikatai ir saugumui arba pagrindinėms teisėms riziką, atsižvelgiant į galimos žalos dydį ir jos pasireiškimo tikimybę, ir į tai, kad šios sistemos naudojamos įvairiose šiame reglamente iš anksto konkrečiai apibrėžtose srityse. Tų sistemų identifikavimas grindžiamas ta pačia metodika ir kriterijais, kurie yra numatyti ir bet kuriems būsimiems didelės rizikos DI sistemų sąrašo pakeitimams, kuriuos Komisija turėtų būti įgaliota priimti deleguotaisiais aktais, kad būtų atsižvelgta į spartų technologinės plėtros tempą ir galimus DI sistemų naudojimo pokyčius;
(53)
It is also important to clarify that there may be specific cases in which AI systems referred to in pre-defined areas specified in this Regulation do not lead to a significant risk of harm to the legal interests protected under those areas because they do not materially influence the decision-making or do not harm those interests substantially. For the purposes of this Regulation, an AI system that does not materially influence the outcome of decision-making should be understood to be an AI system that does not have an impact on the substance, and thereby the outcome, of decision-making, whether human or automated. An AI system that does not materially influence the outcome of decision-making could include situations in which one or more of the following conditions are fulfilled. The first such condition should be that the AI system is intended to perform a narrow procedural task, such as an AI system that transforms unstructured data into structured data, an AI system that classifies incoming documents into categories or an AI system that is used to detect duplicates among a large number of applications. Those tasks are of such narrow and limited nature that they pose only limited risks which are not increased through the use of an AI system in a context that is listed as a high-risk use in an annex to this Regulation. The second condition should be that the task performed by the AI system is intended to improve the result of a previously completed human activity that may be relevant for the purposes of the high-risk uses listed in an annex to this Regulation. Considering those characteristics, the AI system provides only an additional layer to a human activity with consequently lowered risk. That condition would, for example, apply to AI systems that are intended to improve the language used in previously drafted documents, for example in relation to professional tone, academic style of language or by aligning text to a certain brand messaging. The third condition should be that the AI system is intended to detect decision-making patterns or deviations from prior decision-making patterns. The risk would be lowered because the use of the AI system follows a previously completed human assessment which it is not meant to replace or influence, without proper human review. Such AI systems include for instance those that, given a certain grading pattern of a teacher, can be used to check ex post whether the teacher may have deviated from the grading pattern so as to flag potential inconsistencies or anomalies. The fourth condition should be that the AI system is intended to perform a task that is only preparatory to an assessment relevant for the purposes of the AI systems listed in an annex to this Regulation, thus making the possible impact of the output of the system very low in terms of representing a risk for the assessment to follow. That condition covers, inter alia, smart solutions for file handling, which include various functions from indexing, searching, text and speech processing or linking data to other data sources, or AI systems used for translation of initial documents. In any case, AI systems used in high-risk use-cases listed in an annex to this Regulation should be considered to pose significant risks of harm to the health, safety or fundamental rights if the AI system implies profiling within the meaning of Article 4, point (4) of Regulation (EU) 2016/679 or Article 3, point (4) of Directive (EU) 2016/680 or Article 3, point (5) of Regulation (EU) 2018/1725. To ensure traceability and transparency, a provider who considers that an AI system is not high-risk on the basis of the conditions referred to above should draw up documentation of the assessment before that system is placed on the market or put into service and should provide that documentation to national competent authorities upon request. Such a provider should be obliged to register the AI system in the EU database established under this Regulation. With a view to providing further guidance for the practical implementation of the conditions under which the AI systems listed in an annex to this Regulation are, on an exceptional basis, non-high-risk, the Commission should, after consulting the Board, provide guidelines specifying that practical implementation, completed by a comprehensive list of practical examples of use cases of AI systems that are high-risk and use cases that are not.
(53)
taip pat svarbu paaiškinti, kad gali būti konkrečių atvejų, kai DI sistemos, naudojamos šiame reglamente iš anksto konkrečiai apibrėžtose srityse, nekelia reikšmingos žalos rizikos pagal tas sritis saugomiems teisiniams interesams, nes jos nedaro reikšmingos įtakos sprendimų priėmimui arba reikšmingos žalos tiems interesams. Šio reglamento tikslais DI sistema, kuri nedaro reikšmingos įtakos sprendimų priėmimo proceso rezultatams, turėtų būti suprantama kaip DI sistema, kuri nedaro reikšmingo poveikio žmogaus ar automatizuotai priimamų sprendimų esmei, taigi, ir rezultatams. DI sistema, kuri nedaro reikšmingos įtakos sprendimų priėmimo proceso rezultatams, galėtų būti sistema, naudojama situacijose, kai tenkinama viena ar daugiau iš toliau nurodytų sąlygų. Pirmoji tokia sąlyga turėtų būti ta, kad DI sistema būtų skirta atlikti siaurą procedūrinę užduotį, pavyzdžiui, nestruktūrizuotus duomenis paversti struktūrizuotais ar gaunamus dokumentus klasifikuoti pagal kategorijas, arba turėtų būti naudojama tam, kad tarp daugybės taikomųjų programų nustatytų identiškas programas. Tos užduotys yra tokio siauro ir riboto pobūdžio, kad kelia tik nedidelę riziką, kuri nepadidėja naudojant DI sistemą aplinkybėmis, kurios šio reglamento priede pateikiamame sąraše išvardytos kaip didelės rizikos naudojimas. Antroji sąlyga turėtų būti ta, kad DI sistemos atliekama užduotis turėtų pagerinti veiklos, kurią anksčiau atlikdavo žmogus ir kuri gali būti svarbi šio reglamento priede pateikiamame sąraše išvardytų kaip didelės rizikos naudojimo atvejų tikslais, rezultatus. Atsižvelgiant į tuos ypatumus, DI sistema tik šiek tiek papildo žmogaus veiklą, todėl ir jos keliama rizika atitinkamai yra mažesnė. Ta sąlyga, pavyzdžiui, būtų taikoma DI sistemoms, skirtoms patobulinti dokumentų, kuriuos anksčiau rengdavo žmogus, kalbą, pavyzdžiui, profesinį toną ar akademinį kalbos stilių, arba suderinti tekstą su tam tikro prekės ženklo skleidžiama žinia. Trečioji sąlyga turėtų būti ta, kad DI sistema turėtų būti skirta nustatyti sprendimų priėmimo modelius arba nukrypimus nuo ankstesnių sprendimų priėmimo modelių. Rizika sumažėtų dėl to, kad DI sistema būtų naudojama po to, kai žmogus jau būtų atlikęs įvertinimą, kurio ji negalėtų pakeisti ar paveikti be tinkamos žmogaus atliekamos peržiūros. Tokios DI sistemos yra, pavyzdžiui, tos, kurios, atsižvelgiant į tam tikrą mokytojo vertinimo modelį, gali būti naudojamos ex post patikrinti, ar mokytojas galėjo nukrypti nuo vertinimo modelio, kad nustatytų galimus neatitikimus ar anomalijas. Ketvirta sąlyga turėtų būti ta, kad DI sistema būtų skirta atlikti užduotį, kuri būtų tik parengiamoji prieš atliekant vertinimą, svarbų šio reglamento priede išvardytų DI sistemų tikslais, todėl galimas sistemos išvedinių poveikis būtų labai mažas kalbant apie riziką vertinimui, kurį reikia atlikti. Ši sąlyga, be kita ko, apima išmaniuosius bylų tvarkymo sprendimus, apimančius įvairias funkcijas – nuo indeksavimo, paieškos, teksto ir kalbos apdorojimo arba duomenų susiejimo su kitais duomenų šaltiniais, arba DI sistemas, naudojamas pirminiams dokumentams versti. Bet kuriuo atveju DI sistemos, šio reglamento priede pateikiamame sąraše išvardytos kaip didelės rizikos naudojimo atvejai, turėtų būti laikomos keliančiomis reikšmingą žalos sveikatai, saugai ar pagrindinėms teisėms riziką, jei jos apima profiliavimą, kaip tai suprantama Reglamento (ES) 2016/679 4 straipsnio 4 punkte arba Direktyvos (ES) 2016/680 3 straipsnio 4 punkte, arba Reglamento (ES) 2018/1725 3 straipsnio 5 punkte. Siekiant užtikrinti atsekamumą ir skaidrumą, tiekėjas, manantis, kad DI sistema nėra didelės rizikos DI sistema, remdamasis pirmiau nurodytomis sąlygomis, turėtų parengti vertinimo dokumentus prieš pateikdamas tą sistemą rinkai arba prieš pradedant ją naudoti ir nacionalinėms kompetentingoms institucijoms paprašius turėtų joms pateikti tuos dokumentus. Toks tiekėjas turėtų būti įpareigotas užregistruoti DI sistemą pagal šį reglamentą sukurtoje ES duomenų bazėje. Siekdama pateikti papildomų gairių dėl sąlygų, kuriomis šio reglamento priede išvardytos DI sistemos išimties tvarka laikomos nedidelės rizikos DI sistemomis, praktinio įgyvendinimo, Komisija, pasikonsultavusi su Valdyba, turėtų pateikti gaires, kuriose būtų nurodyta to praktinio įgyvendinimo tvarka, papildytas išsamiu praktinių didelės rizikos DI sistemų naudojimo atvejų ir nedidelės rizikos DI sistemų naudojimo atvejų pavyzdžių sąrašu;
(54)
As biometric data constitutes a special category of personal data, it is appropriate to classify as high-risk several critical-use cases of biometric systems, insofar as their use is permitted under relevant Union and national law. Technical inaccuracies of AI systems intended for the remote biometric identification of natural persons can lead to biased results and entail discriminatory effects. The risk of such biased results and discriminatory effects is particularly relevant with regard to age, ethnicity, race, sex or disabilities. Remote biometric identification systems should therefore be classified as high-risk in view of the risks that they pose. Such a classification excludes AI systems intended to be used for biometric verification, including authentication, the sole purpose of which is to confirm that a specific natural person is who that person claims to be and to confirm the identity of a natural person for the sole purpose of having access to a service, unlocking a device or having secure access to premises. In addition, AI systems intended to be used for biometric categorisation according to sensitive attributes or characteristics protected under Article 9(1) of Regulation (EU) 2016/679 on the basis of biometric data, in so far as these are not prohibited under this Regulation, and emotion recognition systems that are not prohibited under this Regulation, should be classified as high-risk. Biometric systems which are intended to be used solely for the purpose of enabling cybersecurity and personal data protection measures should not be considered to be high-risk AI systems.
(54)
kadangi biometriniai duomenys yra speciali asmens duomenų kategorija, tikslinga tam tikrus ypatingos svarbos biometrinių sistemų naudojimo atvejus klasifikuoti kaip didelės rizikos, jei jas leidžiama naudoti pagal atitinkamą Sąjungos ir nacionalinę teisę. DI sistemų, skirtų nuotoliniam fizinių asmenų biometriniam tapatybės nustatymui, techniniai netikslumai gali lemti šališkus rezultatus ir daryti diskriminacinį poveikį. Tokių šališkų rezultatų ir diskriminacinio poveikio rizika yra ypač aktuali kalbant apie amžių, etninę kilmę, rasę, lytį arba negalią. Todėl nuotolinio biometrinio tapatybės nustatymo sistemos, atsižvelgiant į jų keliamą riziką, turėtų būti klasifikuojamos kaip didelės rizikos sistemos. Į tokią klasifikaciją nepatenka DI sistemos, skirtos naudoti biometriniam sutikrinimui, įskaitant autentiškumo patvirtinimą, kurių vienintelis tikslas – patvirtinti, kad konkretus fizinis asmuo yra tas asmuo, kuriuo jis prisistato, ir patvirtinti fizinio asmens tapatybę vieninteliu – prieigos prie paslaugos, prietaiso atrakinimo ar saugaus patekimo į patalpas – tikslu. Be to, DI sistemos, skirtos naudoti biometriniam kategorizavimui pagal neskelbtinus požymius ar ypatumus, saugomus pagal Reglamento (ES) 2016/679 9 straipsnio 1 dalį, remiantis biometriniais duomenimis, jei jos nėra draudžiamos pagal šį reglamentą, ir emocijų atpažinimo sistemos, kurios nėra draudžiamos pagal šį reglamentą, turėtų būti klasifikuojamos kaip didelės rizikos sistemos. Biometrinės sistemos, skirtos naudoti tik kibernetinio saugumo užtikrinimo ir asmens duomenų apsaugos priemonių tikslais, neturėtų būti laikomos didelės rizikos DI sistemomis;
(55)
As regards the management and operation of critical infrastructure, it is appropriate to classify as high-risk the AI systems intended to be used as safety components in the management and operation of critical digital infrastructure as listed in point (8) of the Annex to Directive (EU) 2022/2557, road traffic and the supply of water, gas, heating and electricity, since their failure or malfunctioning may put at risk the life and health of persons at large scale and lead to appreciable disruptions in the ordinary conduct of social and economic activities. Safety components of critical infrastructure, including critical digital infrastructure, are systems used to directly protect the physical integrity of critical infrastructure or the health and safety of persons and property but which are not necessary in order for the system to function. The failure or malfunctioning of such components might directly lead to risks to the physical integrity of critical infrastructure and thus to risks to health and safety of persons and property. Components intended to be used solely for cybersecurity purposes should not qualify as safety components. Examples of safety components of such critical infrastructure may include systems for monitoring water pressure or fire alarm controlling systems in cloud computing centres.
(55)
dėl ypatingos svarbos infrastruktūros objektų valdymo ir veikimo pažymėtina, kad juos tinkama klasifikuoti kaip didelės rizikos DI sistemas, skirtas naudoti kaip saugos komponentus valdant ir naudojant Direktyvos (ES) 2022/2557 priedo 8 punkte nurodytą ypatingos svarbos skaitmeninę infrastruktūrą, kelių transportą ir vandens, dujų, šilumos ir elektros energijos tiekimą, nes joms sugedus arba sutrikus jų veikimui gali kilti rizika daugelio žmonių gyvybei ir sveikatai ir didelių įprastos socialinės ir ekonominės veiklos sutrikimų. Ypatingos svarbos infrastruktūros, įskaitant ypatingos svarbos skaitmeninę infrastruktūrą, saugos komponentai yra sistemos, kurios yra naudojamos siekiant tiesiogiai apsaugoti ypatingos svarbos infrastruktūros fizinį vientisumą arba asmenų sveikatą bei saugą ir turtą, tačiau nėra būtinos, kad sistema veiktų. Dėl tokių komponentų gedimo arba trikties gali kilti tiesioginis pavojus ypatingos svarbos infrastruktūros fiziniam vientisumui, taigi ir žmonių sveikatai bei saugai ir turtui. Komponentai, skirti naudoti tik kibernetinio saugumo tikslais, neturėtų būti laikomi saugos komponentais. Tokios ypatingos svarbos infrastruktūros saugos komponentų pavyzdžiai gali būti vandens slėgio stebėsenos sistemos arba priešgaisrinės signalizacijos sistemos debesijos kompiuterijos centruose;
(56)
The deployment of AI systems in education is important to promote high-quality digital education and training and to allow all learners and teachers to acquire and share the necessary digital skills and competences, including media literacy, and critical thinking, to take an active part in the economy, society, and in democratic processes. However, AI systems used in education or vocational training, in particular for determining access or admission, for assigning persons to educational and vocational training institutions or programmes at all levels, for evaluating learning outcomes of persons, for assessing the appropriate level of education for an individual and materially influencing the level of education and training that individuals will receive or will be able to access or for monitoring and detecting prohibited behaviour of students during tests should be classified as high-risk AI systems, since they may determine the educational and professional course of a person’s life and therefore may affect that person’s ability to secure a livelihood. When improperly designed and used, such systems may be particularly intrusive and may violate the right to education and training as well as the right not to be discriminated against and perpetuate historical patterns of discrimination, for example against women, certain age groups, persons with disabilities, or persons of certain racial or ethnic origins or sexual orientation.
(56)
DI sistemų diegimas švietimo srityje yra svarbus norint skatinti kokybišką skaitmeninį švietimą ir mokymą ir sudaryti sąlygas visiems besimokantiems asmenims ir mokytojams įgyti būtinų skaitmeninių įgūdžių ir kompetencijų, įskaitant gebėjimą naudotis žiniasklaidos priemonėmis ir kritinį mąstymą, ir jais dalytis, kad jie galėtų aktyviai dalyvauti ekonomikoje, visuomenėje ir demokratiniuose procesuose. Tačiau DI sistemos, švietimo ar profesinio mokymo srityje naudojamos visų pirma suteikiant prieigą arba priimant ar skiriant asmenis į švietimo ir profesinio mokymo įstaigas arba programas visais lygmenimis, vertinant asmenų mokymosi rezultatus, vertinant, koks švietimo lygmuo tinkamas asmeniui ir darant esminę įtaką švietimo ir mokymo, kurį asmenys gaus ar galės gauti, lygiui arba stebint ir nustatant draudžiamą mokinių elgesį testų metu, turėtų būti priskiriamos didelės rizikos DI sistemoms, nes jos gali nulemti asmens švietimo ir profesinio kelio kryptį, taigi, ir gali daryti poveikį jo gebėjimui užsitikrinti pragyvenimo šaltinį. Tokios sistemos, jeigu jos netinkamai suprojektuojamos ir naudojamos, gali būti itin intervencinės ir pažeisti teisę į švietimą ir mokymą, taip pat teisę nebūti diskriminuojamam ir atkartoti įprastinius diskriminavimo modelius, pavyzdžiui, liečiančius moteris, tam tikro amžiaus grupes, asmenis su negalia arba tam tikros rasinės ar etninės kilmės arba seksualinės orientacijos asmenis;
(57)
AI systems used in employment, workers management and access to self-employment, in particular for the recruitment and selection of persons, for making decisions affecting terms of the work-related relationship, promotion and termination of work-related contractual relationships, for allocating tasks on the basis of individual behaviour, personal traits or characteristics and for monitoring or evaluation of persons in work-related contractual relationships, should also be classified as high-risk, since those systems may have an appreciable impact on future career prospects, livelihoods of those persons and workers’ rights. Relevant work-related contractual relationships should, in a meaningful manner, involve employees and persons providing services through platforms as referred to in the Commission Work Programme 2021. Throughout the recruitment process and in the evaluation, promotion, or retention of persons in work-related contractual relationships, such systems may perpetuate historical patterns of discrimination, for example against women, certain age groups, persons with disabilities, or persons of certain racial or ethnic origins or sexual orientation. AI systems used to monitor the performance and behaviour of such persons may also undermine their fundamental rights to data protection and privacy.
(57)
DI sistemos, naudojamos užimtumo, darbuotojų valdymo ir galimybės dirbti savarankiškai, visų pirma asmenų įdarbinimo ir atrankos, sprendimų, darančių poveikį sutartinių darbo santykių sąlygoms, priėmimo, sutartinių darbo santykių skatinimo arba nutraukimo, užduočių skyrimo remiantis individualiu elgesiu, asmenybės bruožais ar savybėmis ir asmenų stebėsena ar vertinimu sutartiniuose darbo santykiuose srityse, taip pat turėtų būti klasifikuojamos kaip didelės rizikos sistemos, nes tos sistemos gali daryti apčiuopiamą poveikį tų asmenų būsimoms karjeros galimybėms, jų pragyvenimo šaltiniams ir darbuotojų teisėms. Atitinkamuose sutartiniuose darbo santykiuose turėtų prasmingai dalyvauti darbuotojai ir per platformas paslaugas teikiantys asmenys, kaip nurodyta 2021 m. Komisijos darbo programoje. Darbuotojų įdarbinimo metu ir juos vertinant, paaukštinant arba išlaikant asmenis sutartiniuose darbo santykiuose, tokios sistemos gali atkartoti įprastinius diskriminavimo modelius, pavyzdžiui, liečiančius moteris, tam tikro amžiaus grupes, asmenis su negalia arba tam tikros rasinės ar etninės kilmės arba seksualinės orientacijos asmenis. DI sistemos, naudojamos tokių asmenų veiklos rezultatams ir elgesiui stebėti, taip pat gali pažeisti jų pagrindines teises į duomenų apsaugą ir privatumą;
(58)
Another area in which the use of AI systems deserves special consideration is the access to and enjoyment of certain essential private and public services and benefits necessary for people to fully participate in society or to improve one’s standard of living. In particular, natural persons applying for or receiving essential public assistance benefits and services from public authorities namely healthcare services, social security benefits, social services providing protection in cases such as maternity, illness, industrial accidents, dependency or old age and loss of employment and social and housing assistance, are typically dependent on those benefits and services and in a vulnerable position in relation to the responsible authorities. If AI systems are used for determining whether such benefits and services should be granted, denied, reduced, revoked or reclaimed by authorities, including whether beneficiaries are legitimately entitled to such benefits or services, those systems may have a significant impact on persons’ livelihood and may infringe their fundamental rights, such as the right to social protection, non-discrimination, human dignity or an effective remedy and should therefore be classified as high-risk. Nonetheless, this Regulation should not hamper the development and use of innovative approaches in the public administration, which would stand to benefit from a wider use of compliant and safe AI systems, provided that those systems do not entail a high risk to legal and natural persons. In addition, AI systems used to evaluate the credit score or creditworthiness of natural persons should be classified as high-risk AI systems, since they determine those persons’ access to financial resources or essential services such as housing, electricity, and telecommunication services. AI systems used for those purposes may lead to discrimination between persons or groups and may perpetuate historical patterns of discrimination, such as that based on racial or ethnic origins, gender, disabilities, age or sexual orientation, or may create new forms of discriminatory impacts. However, AI systems provided for by Union law for the purpose of detecting fraud in the offering of financial services and for prudential purposes to calculate credit institutions’ and insurance undertakings’ capital requirements should not be considered to be high-risk under this Regulation. Moreover, AI systems intended to be used for risk assessment and pricing in relation to natural persons for health and life insurance can also have a significant impact on persons’ livelihood and if not duly designed, developed and used, can infringe their fundamental rights and can lead to serious consequences for people’s life and health, including financial exclusion and discrimination. Finally, AI systems used to evaluate and classify emergency calls by natural persons or to dispatch or establish priority in the dispatching of emergency first response services, including by police, firefighters and medical aid, as well as of emergency healthcare patient triage systems, should also be classified as high-risk since they make decisions in very critical situations for the life and health of persons and their property.
(58)
kita sritis, kurioje DI sistemų naudojimui reikia skirti ypatingą dėmesį, yra galimybė gauti tam tikras esmines privačiąsias ir viešąsias paslaugas ir išmokas, būtinas žmonėms tam, kad jie galėtų visapusiškai dalyvauti visuomenėje arba pagerinti savo pragyvenimo lygį, ir galimybė jomis pasinaudoti. Visų pirma fiziniai asmenys, valdžios institucijų prašantys arba iš jų gaunantys esmines viešosios paramos išmokas ir paslaugas, t. y. sveikatos priežiūros paslaugas, socialinės apsaugos išmokas, socialines paslaugas, užtikrinančias apsaugą motinystės, ligos, nelaimingų atsitikimų darbe, priklausomybės ar senatvės atvejais, taip pat darbo, socialinės paramos ir paramos būstui netekimo atvejais, paprastai priklauso nuo šių išmokų ir paslaugų ir yra pažeidžiami atsakingų institucijų atžvilgiu. Jeigu DI sistemos, naudojamos nustatyti, ar institucija turėtų skirti, atsisakyti skirti tokias išmokas ir paslaugas, jas sumažinti, panaikinti arba susigrąžinti, įskaitant tai, ar naudos gavėjai teisėtai turi teisę gauti tokias išmokas ar paslaugas, tos sistemos gali turėti reikšmingą poveikį asmenų pragyvenimo šaltiniui ir gali pažeisti jų pagrindines teises, pavyzdžiui, teisę į socialinę apsaugą, nediskriminavimą, žmogaus orumą arba veiksmingą teisių gynimą, ir todėl turėtų būti klasifikuojamos kaip didelės rizikos sistemos. Vis dėlto šis reglamentas neturėtų trukdyti kurti ir naudoti naujoviškus viešojo administravimo metodus, kuriuos įgyvendinant būtų naudinga plačiau naudotis reikalavimus atitinkančiomis ir saugiomis DI sistemomis, jeigu jos nekelia didelės rizikos juridiniams ir fiziniams asmenims. Be to, DI sistemos, kurios naudojamos fizinių asmenų kredito reitingui arba kreditingumui įvertinti, turėtų būti klasifikuojamos kaip didelės rizikos DI sistemos, nes jomis remiantis asmenims suteikiama prieiga prie finansinių išteklių arba esminių paslaugų, pavyzdžiui, apgyvendinimo, elektros energijos ir telekomunikacijų paslaugų. Dėl tais tikslais naudojamų DI sistemų gali būti diskriminuojami asmenys arba grupės ir gali būti atkartojami įprastiniai diskriminavimo modeliai, pavyzdžiui, dėl rasinės ar etninės kilmės, lyties, negalios, amžiaus ar seksualinės orientacijos, arba gali būti sukuriamos naujos diskriminacinio poveikio formos. Tačiau Sąjungos teisėje numatytos DI sistemos, kuriomis siekiama nustatyti sukčiavimą teikiant finansines paslaugas ir prudenciniais tikslais apskaičiuoti kredito įstaigų ir draudimo įmonių kapitalo reikalavimus, pagal šį reglamentą neturėtų būti laikomos didelės rizikos sistemomis. Be to, DI sistemos, skirtos naudoti su fiziniais asmenimis susijusiai rizikai vertinti ir kainodarai sveikatos ir gyvybės draudimo tikslais, taip pat gali daryti reikšmingą poveikį asmenų pragyvenimo šaltiniams ir, jei jos nėra tinkamai suprojektuotos, sukurtos ir naudojamos, gali pažeisti jų pagrindines teises ir sukelti rimtų pasekmių žmonių gyvybei ir sveikatai, įskaitant finansinę atskirtį ir diskriminaciją. Galiausiai DI sistemos, naudojamos fizinių asmenų skubios pagalbos skambučiams vertinti ir klasifikuoti arba teikiant arba nustatant prioritetines skubias pirmosios pagalbos paslaugas, įskaitant policijos, ugniagesių ir medicinos pagalbos paslaugas, taip pat teikiamos pagal neatidėliotinos medicinos pagalbos reikalingų pacientų skirstymo sistemas, taip pat turėtų būti klasifikuojamos kaip didelės rizikos sistemos, nes jos sprendimus priima ypač kritinėse situacijose, susijusiose su asmenų gyvybe ir sveikata bei jų turtu;
(59)
Given their role and responsibility, actions by law enforcement authorities involving certain uses of AI systems are characterised by a significant degree of power imbalance and may lead to surveillance, arrest or deprivation of a natural person’s liberty as well as other adverse impacts on fundamental rights guaranteed in the Charter. In particular, if the AI system is not trained with high-quality data, does not meet adequate requirements in terms of its performance, its accuracy or robustness, or is not properly designed and tested before being put on the market or otherwise put into service, it may single out people in a discriminatory or otherwise incorrect or unjust manner. Furthermore, the exercise of important procedural fundamental rights, such as the right to an effective remedy and to a fair trial as well as the right of defence and the presumption of innocence, could be hampered, in particular, where such AI systems are not sufficiently transparent, explainable and documented. It is therefore appropriate to classify as high-risk, insofar as their use is permitted under relevant Union and national law, a number of AI systems intended to be used in the law enforcement context where accuracy, reliability and transparency is particularly important to avoid adverse impacts, retain public trust and ensure accountability and effective redress. In view of the nature of the activities and the risks relating thereto, those high-risk AI systems should include in particular AI systems intended to be used by or on behalf of law enforcement authorities or by Union institutions, bodies, offices, or agencies in support of law enforcement authorities for assessing the risk of a natural person to become a victim of criminal offences, as polygraphs and similar tools, for the evaluation of the reliability of evidence in in the course of investigation or prosecution of criminal offences, and, insofar as not prohibited under this Regulation, for assessing the risk of a natural person offending or reoffending not solely on the basis of the profiling of natural persons or the assessment of personality traits and characteristics or the past criminal behaviour of natural persons or groups, for profiling in the course of detection, investigation or prosecution of criminal offences. AI systems specifically intended to be used for administrative proceedings by tax and customs authorities as well as by financial intelligence units carrying out administrative tasks analysing information pursuant to Union anti-money laundering law should not be classified as high-risk AI systems used by law enforcement authorities for the purpose of prevention, detection, investigation and prosecution of criminal offences. The use of AI tools by law enforcement and other relevant authorities should not become a factor of inequality, or exclusion. The impact of the use of AI tools on the defence rights of suspects should not be ignored, in particular the difficulty in obtaining meaningful information on the functioning of those systems and the resulting difficulty in challenging their results in court, in particular by natural persons under investigation.
(59)
atsižvelgiant į teisėsaugos institucijų vaidmenį ir atsakomybę, jų veiksmams, kuriuos vykdant tam tikru būdu naudojamos DI sistemos, būdingas didelis galios disbalansas ir jie gali lemti fizinio asmens sekimą, areštą arba jo laisvės apribojimą, taip pat daryti kitokį neigiamą poveikį Chartijoje garantuojamoms pagrindinėms teisėms. Visų pirma, jeigu DI sistema mokoma naudojant nekokybiškus duomenis, neatitinka jai keliamų pakankamų veikimo efektyvumo, tikslumo ar patikimumo reikalavimų arba nėra tinkamai suprojektuota ir išbandyta prieš pateikiant ją rinkai arba kitaip pradedant naudoti, ji gali atrinkti asmenis diskriminuojančiu arba kitokiu neteisingu arba nesąžiningu būdu. Be to, jei DI sistemos nėra pakankamai skaidrios, suprantamos ir dokumentuojamos, gali būti trukdoma užtikrinti svarbias procesines pagrindines teises, pavyzdžiui, teisę į veiksmingą teisių gynimo priemonę ir teisingą bylos nagrinėjimą, taip pat teisę į gynybą ir nekaltumo prezumpciją. Todėl yra tinkama klasifikuoti kaip didelės rizikos įvairias DI sistemas (jei jas leidžiama naudoti pagal atitinkamus Sąjungos ir nacionalinės teisės aktus), skirtas naudoti teisėsaugos tikslais, kai tikslumas, patikimumas ir skaidrumas yra ypač svarbūs siekiant išvengti neigiamų pasekmių, išlaikyti visuomenės pasitikėjimą ir užtikrinti atskaitomybę bei veiksmingą teisių gynimą. Atsižvelgiant į veiklos pobūdį ir su ja susijusią riziką, tos didelės rizikos DI sistemos visų pirma turėtų apimti DI sistemas, skirtas teisėsaugos institucijoms (arba jų vardu) arba teisėsaugos institucijoms padedančioms Sąjungos įstaigoms, organams ar agentūroms naudoti tam, kad būtų galima įvertinti riziką fiziniam asmeniui tapti nusikalstamų veikų auka (pavyzdžiui, poligrafus ir panašias priemones), tam, kad būtų galima įvertinti įrodymų patikimumą atliekant nusikalstamų veikų tyrimą ar vykdant baudžiamąjį persekiojimą už jas ir, jei tai nedraudžiama pagal šį reglamentą, tam, kad būtų galima įvertinti fizinio asmens nusikalstamumo ar pakartotinio nusikalstamumo riziką remiantis ne tik fizinių asmenų profiliavimu ar asmenybės savybių ir bruožų įvertinimu arba ankstesniu fizinių asmenų ar grupių nusikalstamu elgesiu, ir profiliavimui nustatant, tiriant nusikalstamas veikas arba vykdant baudžiamąjį persekiojimą už jas. DI sistemos, skirtos konkrečiai naudoti mokesčių inspekcijų ir muitinių administracinėse bylose, taip pat administracines užduotis atliekančių finansinės žvalgybos padalinių informacijos analizei pagal Sąjungos kovos su pinigų plovimu teisės aktus, neturėtų būti klasifikuojamos kaip didelės rizikos DI sistemos, teisėsaugos institucijų naudojamos nusikalstamų veikų prevencijos, nustatymo, tyrimo ir baudžiamojo persekiojimo tikslais. Teisėsaugos ir kitos atitinkamos valdžios institucijos neturėtų naudoti DI priemonių taip, kad tai taptų nelygybės ar atskirties veiksniu. Nereikėtų ignoruoti DI priemonių naudojimo poveikio įtariamųjų teisėms į gynybą, visų pirma to, kad sunku gauti prasmingos informacijos apie tų sistemų veikimą ir dėl to atsirandančių sunkumų ginčijant jų rezultatus teisme, ypač fiziniams asmenims, kurių atžvilgiu atliekamas tyrimas;
(60)
AI systems used in migration, asylum and border control management affect persons who are often in particularly vulnerable position and who are dependent on the outcome of the actions of the competent public authorities. The accuracy, non-discriminatory nature and transparency of the AI systems used in those contexts are therefore particularly important to guarantee respect for the fundamental rights of the affected persons, in particular their rights to free movement, non-discrimination, protection of private life and personal data, international protection and good administration. It is therefore appropriate to classify as high-risk, insofar as their use is permitted under relevant Union and national law, AI systems intended to be used by or on behalf of competent public authorities or by Union institutions, bodies, offices or agencies charged with tasks in the fields of migration, asylum and border control management as polygraphs and similar tools, for assessing certain risks posed by natural persons entering the territory of a Member State or applying for visa or asylum, for assisting competent public authorities for the examination, including related assessment of the reliability of evidence, of applications for asylum, visa and residence permits and associated complaints with regard to the objective to establish the eligibility of the natural persons applying for a status, for the purpose of detecting, recognising or identifying natural persons in the context of migration, asylum and border control management, with the exception of verification of travel documents. AI systems in the area of migration, asylum and border control management covered by this Regulation should comply with the relevant procedural requirements set by the Regulation (EC) No 810/2009 of the European Parliament and of the Council (32), the Directive 2013/32/EU of the European Parliament and of the Council (33), and other relevant Union law. The use of AI systems in migration, asylum and border control management should, in no circumstances, be used by Member States or Union institutions, bodies, offices or agencies as a means to circumvent their international obligations under the UN Convention relating to the Status of Refugees done at Geneva on 28 July 1951 as amended by the Protocol of 31 January 1967. Nor should they be used to in any way infringe on the principle of non-refoulement, or to deny safe and effective legal avenues into the territory of the Union, including the right to international protection.
(60)
migracijos, prieglobsčio ir sienų kontrolės valdymo srityje naudojamos DI sistemos daro poveikį žmonėms, kurie dažnai yra ypač pažeidžiamoje padėtyje ir yra priklausomi nuo kompetentingų valdžios institucijų veiksmų rezultato. Todėl šiomis aplinkybėmis naudojamų DI sistemų tikslumas, nediskriminacinis pobūdis ir skaidrumas yra labai svarbūs, siekiant garantuoti pagarbą asmenų, kuriems daromas poveikis, pagrindinėms teisėms, visų pirma jų laisvo judėjimo teisei, teisei nebūti diskriminuojamiems, teisei į privataus gyvenimo ir asmens duomenų apsaugą, teisei į tarptautinę apsaugą ir gerą administravimą. Todėl tikslinga kaip didelės rizikos sistemas klasifikuoti DI sistemas (jei jų naudojimas leidžiamas pagal atitinkamus Sąjungos ir nacionalinės teisės aktus, skirtus kompetentingoms valdžios institucijoms (arba jų vardu) arba Sąjungos institucijoms, įstaigoms, organams ar agentūroms, kuriems tenka migracijos, prieglobsčio ir sienų kontrolės valdymo sričių užduotys (pavyzdžiui, poligrafus ir panašias priemones), naudoti tam, kad būtų galima įvertinti tam tikrą fizinių asmenų, atvykstančių į valstybės narės teritoriją arba prašančių vizos ar prieglobsčio, keliamą riziką, kad kompetentingoms valdžios institucijoms būtų padedama nagrinėti prieglobsčio, vizos ir leidimo gyventi prašymus ir susijusius skundus, įskaitant susijusius įrodymų patikimumo vertinimus, siekiant tikslo nustatyti, ar tam tikro statuso prašantys fiziniai asmenys atitinka reikalavimus, fizinių asmenų aptikimo, atpažinimo arba identifikavimo migracijos, prieglobsčio ir sienų kontrolės valdymo kontekste (išskyrus kelionės dokumentų tikrinimą) tikslu. Migracijos, prieglobsčio ir sienų kontrolės valdymo srityje naudojamos DI sistemos, kurioms taikomas šis reglamentas, turėtų atitikti atitinkamus procedūrinius reikalavimus, nustatytus Europos Parlamento ir Tarybos reglamente (EB) Nr. 810/2009 (32), Europos Parlamento ir Tarybos direktyvoje 2013/32/ES (33) ir kituose susijusiuose Sąjungos teisės aktuose. Valstybės narės ar Sąjungos institucijos, įstaigos, organai ar agentūros jokiomis aplinkybėmis neturėtų naudoti DI sistemų migracijos, prieglobsčio ir sienų kontrolės valdymo srityse kaip priemonių tam, kad apeitų savo tarptautinius įsipareigojimus pagal 1951 m. liepos 28 d. Ženevoje priimtą JT konvenciją dėl pabėgėlių statuso su pakeitimais, padarytais 1967 m. sausio 31 d. protokolu. Tos sistemos taip pat neturėtų būti naudojamos siekiant kokiu nors būdu pažeisti negrąžinimo principą arba neleisti asmenims atvykti į Sąjungos teritoriją saugiais ir veiksmingais teisėtais būdais, įskaitant teisę į tarptautinę apsaugą;
(61)
Certain AI systems intended for the administration of justice and democratic processes should be classified as high-risk, considering their potentially significant impact on democracy, the rule of law, individual freedoms as well as the right to an effective remedy and to a fair trial. In particular, to address the risks of potential biases, errors and opacity, it is appropriate to qualify as high-risk AI systems intended to be used by a judicial authority or on its behalf to assist judicial authorities in researching and interpreting facts and the law and in applying the law to a concrete set of facts. AI systems intended to be used by alternative dispute resolution bodies for those purposes should also be considered to be high-risk when the outcomes of the alternative dispute resolution proceedings produce legal effects for the parties. The use of AI tools can support the decision-making power of judges or judicial independence, but should not replace it: the final decision-making must remain a human-driven activity. The classification of AI systems as high-risk should not, however, extend to AI systems intended for purely ancillary administrative activities that do not affect the actual administration of justice in individual cases, such as anonymisation or pseudonymisation of judicial decisions, documents or data, communication between personnel, administrative tasks.
(61)
tam tikros DI sistemos, skirtos teisingumui vykdyti ir demokratiniams procesams, turėtų būti klasifikuojamos kaip keliančios didelę riziką, atsižvelgiant į tai, kad jos gali daryti reikšmingą poveikį demokratijai, teisinės valstybės principui, individualioms laisvėms, taip pat teisei į veiksmingą teisių gynimo priemonę ir teisingą bylos nagrinėjimą. Visų pirma siekiant šalinti galimą šališkumo, klaidų ir neskaidrumo riziką, didelės rizikos DI sistemoms tinkama priskirti sistemas, skirtas naudoti teisminėms institucijoms arba jų vardu, siekiant padėti teisminėms institucijoms ieškoti faktų ir aiškinti faktus ir teisę ir taikyti įstatymus konkretiems faktų rinkiniams. DI sistemos, skirtos naudoti alternatyvaus ginčų sprendimo įstaigose minėtais tikslais, taip pat turėtų būti laikomos didelės rizikos sistemomis, kai alternatyvaus ginčų sprendimo proceso rezultatai sukelia teisinį poveikį šalims. DI priemonių naudojimas gali sustiprinti teisėjų gebėjimą priimti sprendimus ar teismų nepriklausomumą, bet neturėtų jų pakeisti – galutinį sprendimą privalo priimti žmogus. Tačiau DI sistemų klasifikavimas kaip didelės rizikos sistemų neturėtų būti taikomas DI sistemoms, skirtoms grynai papildomai administracinei veiklai, kuri nedaro poveikio faktiniam teisingumo vykdymui individualiais atvejais, pavyzdžiui, teismo sprendimų, dokumentų arba duomenų anoniminimui arba pseudoniminimui, darbuotojų tarpusavio ryšiams arba administracinėms užduotims;
(62)
Without prejudice to the rules provided for in Regulation (EU) 2024/900 of the European Parliament and of the Council (34), and in order to address the risks of undue external interference with the right to vote enshrined in Article 39 of the Charter, and of adverse effects on democracy and the rule of law, AI systems intended to be used to influence the outcome of an election or referendum or the voting behaviour of natural persons in the exercise of their vote in elections or referenda should be classified as high-risk AI systems with the exception of AI systems whose output natural persons are not directly exposed to, such as tools used to organise, optimise and structure political campaigns from an administrative and logistical point of view.
(62)
nedarant poveikio Europos Parlamento ir Tarybos reglamente (ES) 2024/900 (34) numatytoms taisyklėms ir siekiant šalinti nederamo išorinio kišimosi į Chartijos 39 straipsnyje įtvirtintą balsavimo teisę ir neigiamo poveikio demokratijai ir teisinei valstybei riziką, DI sistemos, skirtos naudoti siekiant daryti įtaką rinkimų ar referendumų rezultatams arba fizinių asmenų balsavimo elgsenai balsuojant rinkimuose ar referendumuose, turėtų būti klasifikuojamos kaip didelės rizikos DI sistemos, išskyrus DI sistemas, kurių išvediniai fiziniams asmenims nedaro tiesioginio poveikio, pavyzdžiui, priemones, naudojamas politinėms kampanijoms organizuoti, optimizuoti ir struktūrizuoti administraciniu ir logistiniu požiūriu;
(63)
The fact that an AI system is classified as a high-risk AI system under this Regulation should not be interpreted as indicating that the use of the system is lawful under other acts of Union law or under national law compatible with Union law, such as on the protection of personal data, on the use of polygraphs and similar tools or other systems to detect the emotional state of natural persons. Any such use should continue to occur solely in accordance with the applicable requirements resulting from the Charter and from the applicable acts of secondary Union law and national law. This Regulation should not be understood as providing for the legal ground for processing of personal data, including special categories of personal data, where relevant, unless it is specifically otherwise provided for in this Regulation.
(63)
tai, kad DI sistema pagal šį reglamentą klasifikuojama kaip didelės rizikos DI sistema, neturėtų reikšti, kad tos sistemos naudojimas yra teisėtas pagal kitus Sąjungos teisės aktus arba nacionalinę teisę, kuri yra suderinama su Sąjungos teise, pavyzdžiui, dėl asmens duomenų apsaugos, poligrafų ir panašių priemonių ar kitų sistemų, skirtų fizinių asmenų emocinei būklei nustatyti, naudojimo. Bet kuris toks naudojimas turėtų būti tęsiamas tik laikantis iš Chartijos ir taikomų Sąjungos antrinės teisės aktų ir nacionalinės teisės kylančių taikytinų reikalavimų. Šis reglamentas neturėtų būti suprantamas taip, kad juo nustatomas teisinis asmens duomenų, kai aktualu, įskaitant specialias asmens duomenų kategorijas, tvarkymo pagrindas, nebent šiame reglamente konkrečiai numatyta kitaip;
(64)
To mitigate the risks from high-risk AI systems placed on the market or put into service and to ensure a high level of trustworthiness, certain mandatory requirements should apply to high-risk AI systems, taking into account the intended purpose and the context of use of the AI system and according to the risk-management system to be established by the provider. The measures adopted by the providers to comply with the mandatory requirements of this Regulation should take into account the generally acknowledged state of the art on AI, be proportionate and effective to meet the objectives of this Regulation. Based on the New Legislative Framework, as clarified in Commission notice ‘The “Blue Guide” on the implementation of EU product rules 2022’, the general rule is that more than one legal act of Union harmonisation legislation may be applicable to one product, since the making available or putting into service can take place only when the product complies with all applicable Union harmonisation legislation. The hazards of AI systems covered by the requirements of this Regulation concern different aspects than the existing Union harmonisation legislation and therefore the requirements of this Regulation would complement the existing body of the Union harmonisation legislation. For example, machinery or medical devices products incorporating an AI system might present risks not addressed by the essential health and safety requirements set out in the relevant Union harmonised legislation, as that sectoral law does not deal with risks specific to AI systems. This calls for a simultaneous and complementary application of the various legislative acts. To ensure consistency and to avoid an unnecessary administrative burden and unnecessary costs, providers of a product that contains one or more high-risk AI system, to which the requirements of this Regulation and of the Union harmonisation legislation based on the New Legislative Framework and listed in an annex to this Regulation apply, should have flexibility with regard to operational decisions on how to ensure compliance of a product that contains one or more AI systems with all the applicable requirements of that Union harmonised legislation in an optimal manner. That flexibility could mean, for example a decision by the provider to integrate a part of the necessary testing and reporting processes, information and documentation required under this Regulation into already existing documentation and procedures required under existing Union harmonisation legislation based on the New Legislative Framework and listed in an annex to this Regulation. This should not, in any way, undermine the obligation of the provider to comply with all the applicable requirements.
(64)
siekiant sumažinti pateikiamų rinkai arba pradėtų naudoti didelės rizikos DI sistemų keliamą riziką ir užtikrinti aukšto lygio patikimumą, didelės rizikos DI sistemoms reikėtų taikyti tam tikrus privalomus reikalavimus, atsižvelgiant į numatytąją sistemos naudojimo paskirtį ir DI sistemos naudojimo kontekstą ir laikantis rizikos valdymo sistemos, kurią turi nustatyti tiekėjas. Kad būtų pasiekti šio reglamento tikslai, priemonėmis, kurias tiekėjai priima siekdami laikytis privalomų šio reglamento reikalavimų, turėtų būti atsižvelgiama į visuotinai pripažintus pažangiausius DI srities metodus, jos turėtų būti proporcingos ir veiksmingos. Remiantis naująja teisės aktų sistema, kaip paaiškinta Komisijos pranešime „2022 m. Mėlynasis vadovas dėl gaminius reglamentuojančių ES taisyklių įgyvendinimo“, bendra taisyklė yra ta, kad vienam gaminiui gali būti taikomas daugiau nei vienas Sąjungos derinamasis teisės aktas, nes pateikti rinkai arba pradėti naudoti galima tik tada, kai gaminys atitinka visus taikytinus Sąjungos derinamuosius teisės aktus. DI sistemų, kurioms taikomi šio reglamento reikalavimai, keliami pavojai yra susiję su kitais aspektais nei tie, kuriuos apima esami Sąjungos derinamieji teisės aktai, todėl šio reglamento reikalavimai papildytų esamą Sąjungos derinamųjų teisės aktų sistemą. Pavyzdžiui, mašinos ar medicinos priemonių gaminiai, kuriuose įdiegta DI sistema, gali kelti riziką, kurios neapima atitinkamuose Sąjungos derinamuosiuose teisės aktuose nustatyti esminiai sveikatos ir saugos reikalavimai, nes tais sektorių teisės aktais nereglamentuojama DI sistemoms būdinga rizika. Todėl vienu metu turi būti taikomi įvairūs teisėkūros procedūra priimami aktai ir jie turi papildyti vienas kitą. Siekiant užtikrinti suderinamumą ir išvengti nereikalingos administracinės naštos ir nereikalingų išlaidų, gaminio, kuriame yra viena ar daugiau didelės rizikos DI sistemų, kurioms taikomi šio reglamento ir Sąjungos derinamųjų teisės aktų, grindžiamų naująja teisės aktų sistema ir išvardytų šio reglamento priede, reikalavimai, tiekėjai turėtų būti lankstūs, kiek tai susiję su veiklos sprendimais dėl to, kaip optimaliai užtikrinti gaminio, kuriame yra viena ar daugiau DI sistemų, atitiktį visiems taikytiniems tų Sąjungos derinamųjų teisės aktų reikalavimams. Tas lankstumas galėtų reikšti, pavyzdžiui, tiekėjo sprendimą dalį reikalingų bandymų ir ataskaitų teikimo procesų, informacijos ir dokumentų, kurių reikalaujama pagal šį reglamentą, įtraukti į jau esamus dokumentus ir procedūras, kurių reikalaujama pagal esamus Sąjungos derinamuosius teisės aktus, grindžiamus naująja teisės aktų sistema ir išvardytus šio reglamento priede. Tai jokiu būdu neturėtų pakenkti tiekėjo pareigai laikytis visų taikytinų reikalavimų;
(65)
The risk-management system should consist of a continuous, iterative process that is planned and run throughout the entire lifecycle of a high-risk AI system. That process should be aimed at identifying and mitigating the relevant risks of AI systems on health, safety and fundamental rights. The risk-management system should be regularly reviewed and updated to ensure its continuing effectiveness, as well as justification and documentation of any significant decisions and actions taken subject to this Regulation. This process should ensure that the provider identifies risks or adverse impacts and implements mitigation measures for the known and reasonably foreseeable risks of AI systems to the health, safety and fundamental rights in light of their intended purpose and reasonably foreseeable misuse, including the possible risks arising from the interaction between the AI system and the environment within which it operates. The risk-management system should adopt the most appropriate risk-management measures in light of the state of the art in AI. When identifying the most appropriate risk-management measures, the provider should document and explain the choices made and, when relevant, involve experts and external stakeholders. In identifying the reasonably foreseeable misuse of high-risk AI systems, the provider should cover uses of AI systems which, while not directly covered by the intended purpose and provided for in the instruction for use may nevertheless be reasonably expected to result from readily predictable human behaviour in the context of the specific characteristics and use of a particular AI system. Any known or foreseeable circumstances related to the use of the high-risk AI system in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, which may lead to risks to the health and safety or fundamental rights should be included in the instructions for use that are provided by the provider. This is to ensure that the deployer is aware and takes them into account when using the high-risk AI system. Identifying and implementing risk mitigation measures for foreseeable misuse under this Regulation should not require specific additional training for the high-risk AI system by the provider to address foreseeable misuse. The providers however are encouraged to consider such additional training measures to mitigate reasonable foreseeable misuses as necessary and appropriate.
(65)
rizikos valdymo sistemą turėtų sudaryti suplanuotas ir per visą didelės rizikos DI sistemos gyvavimo ciklą vykstantis nuolatinis kartotinis procesas. Tuo procesu turėtų būti siekiama nustatyti ir sumažinti atitinkamą DI sistemų riziką sveikatai, saugai ir pagrindinėms teisėms. Rizikos valdymo sistema turėtų būti reguliariai peržiūrima ir atnaujinama, kad būtų užtikrintas jos nuolatinis veiksmingumas, taip pat visų svarbių sprendimų ir veiksmų, kurių imamasi pagal šį reglamentą, pagrindimas ir dokumentavimas. Šiuo procesu turėtų būti užtikrinama, kad tiekėjas nustatytų riziką ar neigiamą poveikį ir įgyvendintų žinomos ir pagrįstai numatomos DI sistemų rizikos sveikatai, saugai ir pagrindinėms teisėms mažinimo priemones, atsižvelgdamas į jų numatytąją paskirtį ir pagrįstai numatomą netinkamą naudojimą, įskaitant galimą riziką, kylančią dėl DI sistemos ir aplinkos, kurioje ji veikia, sąveikos. Rizikos valdymo sistemoje turėtų būti patvirtintos tinkamiausios rizikos valdymo priemonės, atsižvelgiant į naujausius technikos laimėjimus DI srityje. Nustatydamas tinkamiausias rizikos valdymo priemones, tiekėjas turėtų dokumentuoti ir paaiškinti savo pasirinkimus ir, kai aktualu, įtraukti ekspertus ir išorės suinteresuotuosius subjektus. Nustatydamas pagrįstai numatomą netinkamą didelės rizikos DI sistemų naudojimą, tiekėjas turėtų apimti naudojimą DI sistemų, kurios, nors tiesiogiai ir nepatenka į numatytąją paskirtį ir nėra numatytos naudojimo instrukcijoje, vis dėlto pagrįstai tikėtinai gali būti netinkamai naudojamos dėl lengvai nuspėjamo žmogaus elgesio konkrečios DI sistemos konkrečių ypatumų ir naudojimo kontekste. Visos žinomos ar numatomos aplinkybės, susijusios su didelės rizikos DI sistemos naudojimu pagal numatytąją paskirtį arba pagrįstai numatomo netinkamo naudojimo sąlygomis, dėl kurio gali kilti rizika sveikatai ir saugai arba pagrindinėms teisėms, turėtų būti įtrauktos į tiekėjo pateikiamas naudojimo instrukcijas. Taip siekiama užtikrinti, kad diegėjas žinotų apie jas ir į jas atsižvelgtų naudodamas didelės rizikos DI sistemą. Neturėtų būti reikalaujama, kad tiekėjas, nustatydamas ir įgyvendindamas rizikos mažinimo priemones, susijusias su numatomu netinkamu naudojimu pagal šį reglamentą, siekdamas kovoti su numatomu netinkamo naudojimu didelės rizikos DI sistemai taikytų konkrečias papildomas mokymo priemones. Tačiau tiekėjai raginami apsvarstyti galimybę tokias papildomas mokymo priemones taikyti tam, kad prireikus atitinkamai būtų sumažintas pagrįstai numatomas netinkamas naudojimas;
(66)
Requirements should apply to high-risk AI systems as regards risk management, the quality and relevance of data sets used, technical documentation and record-keeping, transparency and the provision of information to deployers, human oversight, and robustness, accuracy and cybersecurity. Those requirements are necessary to effectively mitigate the risks for health, safety and fundamental rights. As no other less trade restrictive measures are reasonably available those requirements are not unjustified restrictions to trade.
(66)
didelės rizikos DI sistemoms turėtų būti taikomi reikalavimai dėl rizikos valdymo, naudojamų duomenų rinkinių kokybės ir aktualumo, techninių dokumentų ir įrašų saugojimo, skaidrumo ir informacijos teikimo diegėjams, žmogaus vykdomos priežiūros, patikimumo, tikslumo ir kibernetinio saugumo. Tie reikalavimai yra būtini siekiant veiksmingai sumažinti riziką sveikatai, saugai ir pagrindinėms teisėms. Jeigu nėra pagrįstai prieinamų jokių kitų mažiau prekybą ribojančių priemonių, tie reikalavimai nėra nepagrįsti prekybos apribojimai;
(67)
High-quality data and access to high-quality data plays a vital role in providing structure and in ensuring the performance of many AI systems, especially when techniques involving the training of models are used, with a view to ensure that the high-risk AI system performs as intended and safely and it does not become a source of discrimination prohibited by Union law. High-quality data sets for training, validation and testing require the implementation of appropriate data governance and management practices. Data sets for training, validation and testing, including the labels, should be relevant, sufficiently representative, and to the best extent possible free of errors and complete in view of the intended purpose of the system. In order to facilitate compliance with Union data protection law, such as Regulation (EU) 2016/679, data governance and management practices should include, in the case of personal data, transparency about the original purpose of the data collection. The data sets should also have the appropriate statistical properties, including as regards the persons or groups of persons in relation to whom the high-risk AI system is intended to be used, with specific attention to the mitigation of possible biases in the data sets, that are likely to affect the health and safety of persons, have a negative impact on fundamental rights or lead to discrimination prohibited under Union law, especially where data outputs influence inputs for future operations (feedback loops). Biases can for example be inherent in underlying data sets, especially when historical data is being used, or generated when the systems are implemented in real world settings. Results provided by AI systems could be influenced by such inherent biases that are inclined to gradually increase and thereby perpetuate and amplify existing discrimination, in particular for persons belonging to certain vulnerable groups, including racial or ethnic groups. The requirement for the data sets to be to the best extent possible complete and free of errors should not affect the use of privacy-preserving techniques in the context of the development and testing of AI systems. In particular, data sets should take into account, to the extent required by their intended purpose, the features, characteristics or elements that are particular to the specific geographical, contextual, behavioural or functional setting which the AI system is intended to be used. The requirements related to data governance can be complied with by having recourse to third parties that offer certified compliance services including verification of data governance, data set integrity, and data training, validation and testing practices, as far as compliance with the data requirements of this Regulation are ensured.
(67)
kokybiški duomenys ir prieiga prie kokybiškų duomenų atlieka esminį vaidmenį nustatant daugelio DI sistemų struktūrą ir užtikrinant efektyvų jų veikimą, ypač tais atvejais, kai naudojami su modelių mokymu susiję metodai, siekiant užtikrinti, kad didelės rizikos DI sistema veiktų kaip numatyta, saugiai ir netaptų pagal Sąjungos teisę draudžiamos diskriminacijos šaltiniu. Norint parengti kokybiškus mokymo, validavimo ir bandymo duomenų rinkinius, reikia įdiegti tinkamą duomenų valdymo ir tvarkymo praktiką. Mokymo, validavimo ir bandymo duomenų rinkiniai, įskaitant etiketes, turėtų būti aktualūs, pakankamai reprezentatyvūs ir, kiek įmanoma, be klaidų ir išsamūs, atsižvelgiant į numatytąją sistemos paskirtį. Siekiant sudaryti palankesnes sąlygas laikytis Sąjungos duomenų apsaugos teisės aktų, pavyzdžiui, Reglamento (ES) 2016/679, duomenų valdymo ir tvarkymo praktika asmens duomenų atveju turėtų būti tokia, kad būtų užtikrinamas skaidrumas, susijęs su pradiniu duomenų rinkimo tikslu. Duomenų rinkiniai taip pat turėtų turėti tinkamas statistines savybes, be kita ko, kiek tai susiję su asmenimis ar asmenų grupėmis, kurių atžvilgiu ketinama naudoti didelės rizikos DI sistemą, ypatingą dėmesį skiriant galimo šališkumo duomenų rinkiniuose, kuris gali daryti poveikį asmenų sveikatai ir saugai, neigiamą poveikį pagrindinėms teisėms arba lemti pagal Sąjungos teisę draudžiamą diskriminaciją, mažinimui, ypač tais atvejais, kai duomenų išvediniai daro įtaką būsimoms operacijoms (grįžtamojo ryšio grandinės). Pavyzdžiui, šališkumas gali būti būdingas pagrindiniams duomenų rinkiniams, ypač kai naudojami ankstesni duomenys, arba jis gali atsirasti diegiant sistemas realiomis sąlygomis. DI sistemų teikiamiems rezultatams įtakos galėtų turėti toks būdingas šališkumas, kuris yra linkęs palaipsniui didėti ir taip įtvirtinti ir sustiprinti esamą diskriminaciją, ypač tam tikroms pažeidžiamoms grupėms, įskaitant rasines ar etnines grupes, priklausančių asmenų diskriminaciją. Reikalavimas, kad duomenų rinkiniai būtų kiek įmanoma išsamesni ir juose nebūtų klaidų, neturėtų daryti poveikio privatumo užtikrinimo priemonių naudojimui kuriant ir bandant DI sistemas. Visų pirma, kiek to reikia atsižvelgiant į numatytąją paskirtį, duomenų rinkiniai turėtų būti grindžiami požymiais, ypatumais ar elementais, būdingais konkrečiai geografinei, kontekstinei, elgsenos ar funkcinei aplinkai, kurioje DI sistema yra skirta naudoti. Su duomenų valdymu susijusių reikalavimų galima laikytis kreipiantis į trečiąsias šalis, kurios teikia sertifikuotas atitikties užtikrinimo paslaugas, įskaitant duomenų valdymo, duomenų rinkinių vientisumo ir duomenų mokymo, validavimo ir bandymo praktikos tikrinimą, jei užtikrinamas šiame reglamente nustatytų duomenų reikalavimų laikymasis;
(68)
For the development and assessment of high-risk AI systems, certain actors, such as providers, notified bodies and other relevant entities, such as European Digital Innovation Hubs, testing experimentation facilities and researchers, should be able to access and use high-quality data sets within the fields of activities of those actors which are related to this Regulation. European common data spaces established by the Commission and the facilitation of data sharing between businesses and with government in the public interest will be instrumental to provide trustful, accountable and non-discriminatory access to high-quality data for the training, validation and testing of AI systems. For example, in health, the European health data space will facilitate non-discriminatory access to health data and the training of AI algorithms on those data sets, in a privacy-preserving, secure, timely, transparent and trustworthy manner, and with an appropriate institutional governance. Relevant competent authorities, including sectoral ones, providing or supporting the access to data may also support the provision of high-quality data for the training, validation and testing of AI systems.
(68)
kad galėtų kurti ir vertinti didelės rizikos DI sistemas, tam tikri subjektai, pavyzdžiui, tiekėjai, notifikuotosios įstaigos ir kiti susiję subjektai, pavyzdžiui, Europos skaitmeninių inovacijų centrai, bandymų įstaigos ir tyrėjai, turėtų turėti galimybę gauti ir naudoti kokybiškus duomenų rinkinius su šiuo reglamentu susijusių subjektų veiklos srityse. Komisijos sukurtos Europos bendros duomenų erdvės ir dalijimosi duomenimis tarp įmonių ir vyriausybės viešojo intereso labui palengvinimas bus labai svarbūs teikiant patikimą, atskaitingą ir nediskriminuojančią prieigą prie kokybiškų duomenų, reikalingų DI sistemų mokymui, validavimui ir bandymui. Pavyzdžiui, sveikatos sektoriuje Europos sveikatos duomenų erdvė palengvins nediskriminacinę prieigą prie sveikatos duomenų ir DI algoritmų mokymą naudojant šiuos duomenų rinkinius, užtikrinant privatumą, saugumą, savalaikiškumą, skaidrumą ir patikimumą ir numatant tinkamą institucinį valdymą. Atitinkamos kompetentingos institucijos, įskaitant sektorių institucijas, teikiančios arba padedančios gauti prieigą prie duomenų, taip pat gali remti kokybiškų duomenų teikimą DI sistemų mokymo, validavimo ir bandymo tikslais;
(69)
The right to privacy and to protection of personal data must be guaranteed throughout the entire lifecycle of the AI system. In this regard, the principles of data minimisation and data protection by design and by default, as set out in Union data protection law, are applicable when personal data are processed. Measures taken by providers to ensure compliance with those principles may include not only anonymisation and encryption, but also the use of technology that permits algorithms to be brought to the data and allows training of AI systems without the transmission between parties or copying of the raw or structured data themselves, without prejudice to the requirements on data governance provided for in this Regulation.
(69)
teisė į privatumą ir asmens duomenų apsaugą turi būti užtikrinta per visą DI sistemos gyvavimo ciklą. Šiuo atžvilgiu, tvarkant asmens duomenis yra taikytini Sąjungos duomenų apsaugos teisės aktuose nustatyti duomenų kiekio mažinimo ir pritaikytosios bei standartizuotosios duomenų apsaugos principai. Priemonės, kurių tiekėjai imasi siekdami užtikrinti, kad būtų laikomasi tų principų, gali apimti ne tik anoniminimą ir šifravimą, bet ir technologijų, leidžiančių algoritmus įtraukti į duomenis ir mokyti DI sistemas tarp šalių neperduodant arba nekopijuojant pačių neapdorotų ar struktūrizuotų duomenų, naudojimą, nedarant poveikio šiame reglamente numatytiems duomenų valdymo reikalavimams;
(70)
In order to protect the right of others from the discrimination that might result from the bias in AI systems, the providers should, exceptionally, to the extent that it is strictly necessary for the purpose of ensuring bias detection and correction in relation to the high-risk AI systems, subject to appropriate safeguards for the fundamental rights and freedoms of natural persons and following the application of all applicable conditions laid down under this Regulation in addition to the conditions laid down in Regulations (EU) 2016/679 and (EU) 2018/1725 and Directive (EU) 2016/680, be able to process also special categories of personal data, as a matter of substantial public interest within the meaning of Article 9(2), point (g) of Regulation (EU) 2016/679 and Article 10(2), point (g) of Regulation (EU) 2018/1725.
(70)
siekiant apsaugoti kitų asmenų teises nuo diskriminacijos, kuri gali atsirasti dėl šališkumo DI sistemose, tiekėjai išimties tvarka tiek, kiek tai tikrai būtina siekiant užtikrinti šališkumo, susijusio su didelės rizikos DI sistemomis, nustatymą ir ištaisymą, taikydami tinkamas fizinių asmenų pagrindinių teisių ir laisvių apsaugos priemones ir visas šiame reglamente nustatytas taikytinas sąlygas, taip pat reglamentuose (ES) 2016/679 ir (ES) 2018/1725 ir Direktyvoje (ES) 2016/680 nustatytas sąlygas, turėtų galėti tvarkyti ir specialių kategorijų asmens duomenis, jei tai yra susiję su svarbiu viešuoju interesu, kaip tai suprantama Reglamento (ES) 2016/679 9 straipsnio 2 dalies g punkte ir Reglamento (ES) 2018/1725 10 straipsnio 2 dalies g punkte;
(71)
Having comprehensible information on how high-risk AI systems have been developed and how they perform throughout their lifetime is essential to enable traceability of those systems, verify compliance with the requirements under this Regulation, as well as monitoring of their operations and post market monitoring. This requires keeping records and the availability of technical documentation, containing information which is necessary to assess the compliance of the AI system with the relevant requirements and facilitate post market monitoring. Such information should include the general characteristics, capabilities and limitations of the system, algorithms, data, training, testing and validation processes used as well as documentation on the relevant risk-management system and drawn in a clear and comprehensive form. The technical documentation should be kept up to date, appropriately throughout the lifetime of the AI system. Furthermore, high-risk AI systems should technically allow for the automatic recording of events, by means of logs, over the duration of the lifetime of the system.
(71)
suprantamos informacijos apie tai, kaip buvo sukurtos didelės rizikos DI sistemos ir kaip jos veikia per visą jų naudojimo trukmę, turėjimas yra labai svarbus siekiant sudaryti sąlygas tų sistemų atsekamumui, patikrinti, kaip laikomasi šio reglamento reikalavimų, taip pat stebėti jų operacijas ir vykdyti stebėseną po pateikimo rinkai. Šiuo tikslu reikia saugoti įrašus ir užtikrinti techninių dokumentų, kuriuose pateikiama informacija, būtina DI sistemos atitikčiai atitinkamiems reikalavimams įvertinti ir stebėsenai po pateikimo rinkai palengvinti, prieinamumą. Tokią informaciją turėtų sudaryti bendrieji sistemos ypatumai, pajėgumai ir ribotumai, algoritmai, duomenys, mokymai, bandymai ir naudojami validavimo procesai, taip pat dokumentai apie atitinkamą rizikos valdymo sistemą, ji turėtų būti pateikiama aiškia ir suprantama forma. Techniniai dokumentai turėtų būti nuolat tinkamai atnaujinami per visą DI sistemos naudojimo trukmę. Be to, didelės rizikos DI sistemos turėtų būti tokios, kad per visą sistemos naudojimo trukmę būtų techniškai įmanoma automatiškai žurnaluose registruoti įvykius.
(72)
To address concerns related to opacity and complexity of certain AI systems and help deployers to fulfil their obligations under this Regulation, transparency should be required for high-risk AI systems before they are placed on the market or put it into service. High-risk AI systems should be designed in a manner to enable deployers to understand how the AI system works, evaluate its functionality, and comprehend its strengths and limitations. High-risk AI systems should be accompanied by appropriate information in the form of instructions of use. Such information should include the characteristics, capabilities and limitations of performance of the AI system. Those would cover information on possible known and foreseeable circumstances related to the use of the high-risk AI system, including deployer action that may influence system behaviour and performance, under which the AI system can lead to risks to health, safety, and fundamental rights, on the changes that have been pre-determined and assessed for conformity by the provider and on the relevant human oversight measures, including the measures to facilitate the interpretation of the outputs of the AI system by the deployers. Transparency, including the accompanying instructions for use, should assist deployers in the use of the system and support informed decision making by them. Deployers should, inter alia, be in a better position to make the correct choice of the system that they intend to use in light of the obligations applicable to them, be educated about the intended and precluded uses, and use the AI system correctly and as appropriate. In order to enhance legibility and accessibility of the information included in the instructions of use, where appropriate, illustrative examples, for instance on the limitations and on the intended and precluded uses of the AI system, should be included. Providers should ensure that all documentation, including the instructions for use, contains meaningful, comprehensive, accessible and understandable information, taking into account the needs and foreseeable knowledge of the target deployers. Instructions for use should be made available in a language which can be easily understood by target deployers, as determined by the Member State concerned.
(72)
siekiant spręsti susirūpinimą keliančius klausimus, susijusius su tam tikrų DI sistemų neskaidrumu ir sudėtingumu, ir padėti diegėjams vykdyti savo pareigas pagal šį reglamentą, turėtų būti reikalaujama, kad didelės rizikos DI sistemų skaidrumas būtų užtikrintas prieš pateikiant jas rinkai arba pradedant jas naudoti. Didelės rizikos DI sistemos turėtų būti projektuojamos taip, kad diegėjai galėtų suprasti, kaip DI sistema veikia, įvertinti jos funkcionalumą ir suvokti jos privalumus ir ribotumus. Prie didelės rizikos DI sistemų turėtų būti pridedama atitinkama informacija, pateikiama kaip naudojimo instrukcija. Tokia informacija turėtų apimti DI sistemos veikimo efektyvumo ypatumus, pajėgumus ir ribotumus. Jie apimtų informaciją apie galimas žinomas ir numatomas aplinkybes, susijusias su didelės rizikos DI sistemos naudojimu, įskaitant diegėjo veiksmus, kurie gali turėti įtakos sistemos elgsenai ir veikimo efektyvumui ir dėl kurių DI sistema gali kelti riziką sveikatai, saugumui ir pagrindinėms teisėms, apie pakeitimus, kuriuos tiekėjas iš anksto nustatė ir įvertino atitikties tikslais, ir apie atitinkamas žmogaus atliekamos priežiūros priemones, įskaitant priemones, diegėjams leidžiančias lengviau interpretuoti DI sistemos išvedinius. Skaidrumas, įskaitant pridedamas naudojimo instrukcijas, turėtų padėti diegėjams naudotis sistema ir priimti informacija pagrįstus sprendimus. Diegėjai turėtų, inter alia, turėti geresnes galimybes tinkamai pasirinkti sistemą, kurią jie ketina naudoti, atsižvelgdami į jiems taikytinas pareigas, būti informuoti apie numatomus ir draudžiamus naudojimo būdus ir tinkamai naudoti DI sistemą. Kad į naudojimo instrukcijas įtraukta informacija būtų aiškesnė ir prieinamesnė, kai tikslinga, turėtų būti pateikiami aiškinamieji pavyzdžiai, pavyzdžiui, apie DI sistemos ribotumus ir numatomus bei draudžiamus naudojimo būdus. Tiekėjai turėtų užtikrinti, kad visuose dokumentuose, įskaitant naudojimo instrukcijas, būtų pateikiama prasminga, išsami, prieinama ir suprantama informacija, atsižvelgiant į tikslinių diegėjų poreikius ir numatomas žinias. Naudojimo instrukcijos turėtų būti pateikiamos tiksliniams diegėjams lengvai suprantama kalba, kurią nustato atitinkama valstybė narė;
(73)
High-risk AI systems should be designed and developed in such a way that natural persons can oversee their functioning, ensure that they are used as intended and that their impacts are addressed over the system’s lifecycle. To that end, appropriate human oversight measures should be identified by the provider of the system before its placing on the market or putting into service. In particular, where appropriate, such measures should guarantee that the system is subject to in-built operational constraints that cannot be overridden by the system itself and is responsive to the human operator, and that the natural persons to whom human oversight has been assigned have the necessary competence, training and authority to carry out that role. It is also essential, as appropriate, to ensure that high-risk AI systems include mechanisms to guide and inform a natural person to whom human oversight has been assigned to make informed decisions if, when and how to intervene in order to avoid negative consequences or risks, or stop the system if it does not perform as intended. Considering the significant consequences for persons in the case of an incorrect match by certain biometric identification systems, it is appropriate to provide for an enhanced human oversight requirement for those systems so that no action or decision may be taken by the deployer on the basis of the identification resulting from the system unless this has been separately verified and confirmed by at least two natural persons. Those persons could be from one or more entities and include the person operating or using the system. This requirement should not pose unnecessary burden or delays and it could be sufficient that the separate verifications by the different persons are automatically recorded in the logs generated by the system. Given the specificities of the areas of law enforcement, migration, border control and asylum, this requirement should not apply where Union or national law considers the application of that requirement to be disproportionate.
(73)
didelės rizikos DI sistemos turėtų būti projektuojamos ir kuriamos taip, kad fiziniai asmenys galėtų prižiūrėti jų veikimą, užtikrinti, kad jos būtų naudojamos taip, kaipo numatyta, ir kad jų poveikis būtų kontroliuojamas per visą sistemos gyvavimo ciklą. Tuo tikslu sistemos tiekėjas prieš pateikdamas sistemą rinkai arba prieš pradedant ją naudoti turėtų nustatyti atitinkamas žmogaus atliekamos priežiūros priemones. Visų pirma, kai tikslinga, tokiomis priemonėmis turėtų būti garantuojama, kad sistemai būtų taikomi integruoti veikimo apribojimai, kurių pati sistema negalėtų nepaisyti ir kuriuos galėtų kontroliuoti žmogus, ir kad fiziniai asmenys, kuriems pavesta atlikti priežiūrą, turėtų būtiną kompetenciją, kvalifikaciją ir įgaliojimus atlikti tą funkciją. Be to, labai svarbu atitinkamai užtikrinti, kad į didelės rizikos DI sistemas būtų įtraukiami mechanizmai, skirti fiziniam asmeniui, kuriam pavesta žmogaus atliekama priežiūra, orientuoti ir informuoti, kad jis galėtų priimti informacija grindžiamus sprendimus dėl to, ar, kada ir kaip įsikišti, kad būtų išvengta neigiamų pasekmių ar rizikos, arba sustabdyti sistemos veikimą, jei ji neveikia taip, kaip numatyta. Atsižvelgiant į tai, kad neteisingos atitikties tam tikrose biometrinio tapatybės nustatymo sistemose atveju asmenims kyla reikšmingų pasekmių, tikslinga numatyti griežtesnį žmogaus atliekamos tų sistemų priežiūros reikalavimą, kad diegėjas imtis veiksmų ar priimti sprendimą remdamasis sistemos atliktu tapatybės nustatymu galėtų tik tada, kai tai atskirai patikrina ir patvirtina bent du fiziniai asmenys. Tie asmenys galėtų būti iš vieno ar daugiau subjektų ir vienas iš jų turėtų būti sistemą valdantis arba naudojantis asmuo. Šis reikalavimas neturėtų sukelti nereikalingos naštos ar delsos, ir galėtų pakakti, kad atskiri skirtingų asmenų patikrinimai būtų automatiškai registruojami sistemos generuojamuose žurnaluose. Atsižvelgiant į teisėsaugos, migracijos, sienų kontrolės ir prieglobsčio sričių ypatumus, šis reikalavimas neturėtų būti taikomas, jei pagal Sąjungos ar nacionalinę teisę to reikalavimo taikymas yra neproporcingas;
(74)
High-risk AI systems should perform consistently throughout their lifecycle and meet an appropriate level of accuracy, robustness and cybersecurity, in light of their intended purpose and in accordance with the generally acknowledged state of the art. The Commission and relevant organisations and stakeholders are encouraged to take due consideration of the mitigation of risks and the negative impacts of the AI system. The expected level of performance metrics should be declared in the accompanying instructions of use. Providers are urged to communicate that information to deployers in a clear and easily understandable way, free of misunderstandings or misleading statements. Union law on legal metrology, including Directives 2014/31/EU (35) and 2014/32/EU (36) of the European Parliament and of the Council, aims to ensure the accuracy of measurements and to help the transparency and fairness of commercial transactions. In that context, in cooperation with relevant stakeholders and organisation, such as metrology and benchmarking authorities, the Commission should encourage, as appropriate, the development of benchmarks and measurement methodologies for AI systems. In doing so, the Commission should take note and collaborate with international partners working on metrology and relevant measurement indicators relating to AI.
(74)
didelės rizikos DI sistemos turėtų veikti nuosekliai per visą savo gyvavimo ciklą ir atitikti tinkamą tikslumo, patvarumo ir kibernetinio saugumo lygį, atsižvelgiant į jų numatytąją paskirtį ir vadovaujantis visuotinai pripažintais pažangiausiais metodais. Komisija, atitinkamos organizacijos ir suinteresuotieji subjektai raginami tinkamai atsižvelgti į DI sistemų keliamos rizikos ir neigiamo poveikio mažinimą. Tikėtinas veikimo efektyvumo metrikos lygmuo turėtų būti nurodomas pridedamose naudojimo instrukcijose. Tiekėjai raginami perduoti tokią informaciją diegėjams aiškiu ir lengvai suprantamu būdu ir taip, kad nekiltų nesusipratimų ar nebūtų klaidinančių pareiškimų. Sąjungos teisės aktais dėl teisinės metrologijos, įskaitant Europos Parlamento ir Tarybos direktyvas 2014/31/ES (35) ir 2014/32/ES (36), siekiama užtikrinti matavimų tikslumą ir padėti užtikrinti komercinių sandorių skaidrumą ir sąžiningumą. Atsižvelgdama į tai, Komisija, bendradarbiaudama su atitinkamais suinteresuotaisiais subjektais ir organizacijomis, pavyzdžiui, metrologijos ir lyginamosios analizės institucijomis, turėtų atitinkamai skatinti rengti DI sistemų lyginamuosius parametrus ir matavimo metodikas. Tai darydama Komisija turėtų atsižvelgti į tarptautinius partnerius, dirbančius metrologijos ir atitinkamų su DI susijusių matavimo rodiklių srityje, ir su jais bendradarbiauti;
(75)
Technical robustness is a key requirement for high-risk AI systems. They should be resilient in relation to harmful or otherwise undesirable behaviour that may result from limitations within the systems or the environment in which the systems operate (e.g. errors, faults, inconsistencies, unexpected situations). Therefore, technical and organisational measures should be taken to ensure robustness of high-risk AI systems, for example by designing and developing appropriate technical solutions to prevent or minimise harmful or otherwise undesirable behaviour. Those technical solution may include for instance mechanisms enabling the system to safely interrupt its operation (fail-safe plans) in the presence of certain anomalies or when operation takes place outside certain predetermined boundaries. Failure to protect against these risks could lead to safety impacts or negatively affect the fundamental rights, for example due to erroneous decisions or wrong or biased outputs generated by the AI system.
(75)
techninis patvarumas yra pagrindinis didelės rizikos DI sistemoms keliamas reikalavimas. Jos turėtų būti atsparios žalingam ar kitokiam nepageidaujamam elgesiui, kurį gali lemti sistemų ar aplinkos, kurioje tos sistemos veikia, ribotumai (pvz., klaidos, gedimai, nenuoseklumas, netikėtos situacijos). Todėl reikėtų imtis techninių ir organizacinių priemonių, kad būtų užtikrintas didelės rizikos DI sistemų patvarumas, pavyzdžiui, projektuojant ir kuriant tinkamus techninius sprendimus, kad būtų užkirstas kelias žalingam ar kitokiam nepageidaujamam elgesiui arba kad toks elgesys būtų kuo labiau neutralizuojamas. Tie techniniai sprendimai gali apimti, pavyzdžiui, mechanizmus, leidžiančius sistemai saugiai nutraukti savo veikimą (atsparumo gedimams planai) esant tam tikroms anomalijoms arba kai veikimas vyksta už tam tikrų iš anksto nustatytų ribų. Nesugebėjimas apsisaugoti nuo šios rizikos galėtų sukelti pasekmių saugumui arba daryti neigiamą poveikį pagrindinėms teisėms, pavyzdžiui, dėl klaidingų sprendimų arba neteisingų ar šališkų DI sistemos sugeneruotų išvedinių;
(76)
Cybersecurity plays a crucial role in ensuring that AI systems are resilient against attempts to alter their use, behaviour, performance or compromise their security properties by malicious third parties exploiting the system’s vulnerabilities. Cyberattacks against AI systems can leverage AI specific assets, such as training data sets (e.g. data poisoning) or trained models (e.g. adversarial attacks or membership inference), or exploit vulnerabilities in the AI system’s digital assets or the underlying ICT infrastructure. To ensure a level of cybersecurity appropriate to the risks, suitable measures, such as security controls, should therefore be taken by the providers of high-risk AI systems, also taking into account as appropriate the underlying ICT infrastructure.
(76)
kibernetinis saugumas atlieka esminį vaidmenį užtikrinant, kad DI sistemos būtų atsparios bandymams pakeisti jų naudojimą, elgseną, veikimo efektyvumą arba pažeisti jų saugumo funkcijas, kai trečiosios šalys imasi kenkėjiškų veiksmų sistemos pažeidžiamumui išnaudoti. Kibernetiniai išpuoliai prieš DI sistemas gali turėti įtakos konkretiems DI ištekliams, pavyzdžiui, mokymo duomenų rinkiniams (pvz., duomenų užkrėtimas) arba išmokytiems modeliams (pvz., priešiški trukdžiai arba priklausymo inferencija), arba gali būti išnaudojamas DI sistemos skaitmeninio turto arba pagrindinės IRT infrastruktūros pažeidžiamumas. Todėl didelės rizikos DI sistemų tiekėjai, siekdami užtikrinti tokį kibernetinio saugumo lygį, kuris atitiktų riziką, turėtų imtis tinkamų priemonių, pavyzdžiui, saugumo kontrolės, taip pat tinkamai atsižvelgdami į pagrindinę IRT infrastruktūrą;
(77)
Without prejudice to the requirements related to robustness and accuracy set out in this Regulation, high-risk AI systems which fall within the scope of a regulation of the European Parliament and of the Council on horizontal cybersecurity requirements for products with digital elements, in accordance with that regulation may demonstrate compliance with the cybersecurity requirements of this Regulation by fulfilling the essential cybersecurity requirements set out in that regulation. When high-risk AI systems fulfil the essential requirements of a regulation of the European Parliament and of the Council on horizontal cybersecurity requirements for products with digital elements, they should be deemed compliant with the cybersecurity requirements set out in this Regulation in so far as the achievement of those requirements is demonstrated in the EU declaration of conformity or parts thereof issued under that regulation. To that end, the assessment of the cybersecurity risks, associated to a product with digital elements classified as high-risk AI system according to this Regulation, carried out under a regulation of the European Parliament and of the Council on horizontal cybersecurity requirements for products with digital elements, should consider risks to the cyber resilience of an AI system as regards attempts by unauthorised third parties to alter its use, behaviour or performance, including AI specific vulnerabilities such as data poisoning or adversarial attacks, as well as, as relevant, risks to fundamental rights as required by this Regulation.
(77)
nedarant poveikio šiame reglamente nustatytiems reikalavimams dėl patvarumo ir tikslumo, į Europos Parlamento ir Tarybos reglamento dėl horizontaliųjų kibernetinio saugumo reikalavimų, keliamų skaitmeninių elementų turintiems produktams taikymo sritį patenkančių didelės rizikos DI sistemų atitiktis to reglamento kibernetinio saugumo reikalavimams pagal tą reglamentą gali būti įrodoma patenkinant tame reglamente išdėstytus esminius kibernetinio saugumo reikalavimus. Jei didelės rizikos DI sistemos tenkina esminius Europos Parlamento ir Tarybos reglamento dėl horizontaliųjų kibernetinio saugumo reikalavimų, keliamų skaitmeninių elementų turintiems produktams reikalavimus, jos turėtų būti laikomos atitinkančiomis šiame reglamente išdėstytus kibernetinio saugumo reikalavimus, jei tų reikalavimų laikymasis nurodytas pagal reglamentą išduodamoje ES atitikties deklaracijoje ar jos dalyse. Tuo tikslu atliekant kibernetinio saugumo rizikos, susijusios su skaitmeninių elementų turinčiu produktu, pagal šį reglamentą priskiriamu prie didelės rizikos DI sistemų, vertinimą pagal Europos Parlamento ir Tarybos reglamentą dėl horizontaliųjų kibernetinio saugumo reikalavimų, keliamų skaitmeninių elementų turintiems produktams urėtų būti atsižvelgiama į riziką DI sistemos kibernetiniam atsparumui, kiek tai susiję su leidimo neturinčių trečiųjų šalių bandymais pakeisti jos naudojimo paskirtį, elgseną ar veikimo efektyvumą, įskaitant DI būdingą pažeidžiamumą, pavyzdžiui, duomenų užkrėtimą arba priešiškus trukdžius, taip pat, kai aktualu, riziką pagrindinėms teisėms, kaip reikalaujama pagal šį reglamentą;
(78)
The conformity assessment procedure provided by this Regulation should apply in relation to the essential cybersecurity requirements of a product with digital elements covered by a regulation of the European Parliament and of the Council on horizontal cybersecurity requirements for products with digital elements and classified as a high-risk AI system under this Regulation. However, this rule should not result in reducing the necessary level of assurance for critical products with digital elements covered by a regulation of the European Parliament and of the Council on horizontal cybersecurity requirements for products with digital elements. Therefore, by way of derogation from this rule, high-risk AI systems that fall within the scope of this Regulation and are also qualified as important and critical products with digital elements pursuant to a regulation of the European Parliament and of the Council on horizontal cybersecurity requirements for products with digital elements and to which the conformity assessment procedure based on internal control set out in an annex to this Regulation applies, are subject to the conformity assessment provisions of a regulation of the European Parliament and of the Council on horizontal cybersecurity requirements for products with digital elements insofar as the essential cybersecurity requirements of that regulation are concerned. In this case, for all the other aspects covered by this Regulation the respective provisions on conformity assessment based on internal control set out in an annex to this Regulation should apply. Building on the knowledge and expertise of ENISA on the cybersecurity policy and tasks assigned to ENISA under the Regulation (EU) 2019/881 of the European Parliament and of the Council (37), the Commission should cooperate with ENISA on issues related to cybersecurity of AI systems.
(78)
šiame reglamente numatyta atitikties vertinimo procedūra turėtų būti taikoma vertinant skaitmeninių elementų turinčio produkto, kuriam taikomas Europos Parlamento ir Tarybos reglamentas dėl horizontaliųjų kibernetinio saugumo reikalavimų, keliamų skaitmeninių elementų turintiems produktams ir kuris pagal šį reglamentą priskiriamas prie didelės rizikos DI sistemų, esminius kibernetinio saugumo reikalavimus. Tačiau dėl šios taisyklės neturėtų sumažėti būtinas skaitmeninių elementų turinčių ypatingos svarbos produktų, kuriems taikomas Europos Parlamento ir Tarybos reglamentas dėl horizontaliųjų kibernetinio saugumo reikalavimų, keliamų skaitmeninių elementų turintiems produktams, saugumo užtikrinimo lygis. Todėl, nukrypstant nuo šios taisyklės, didelės rizikos DI sistemoms, kurioms taikomas šis reglamentas ir kurios pagal Europos Parlamento ir Tarybos reglamentą dėl horizontaliųjų kibernetinio saugumo reikalavimų, keliamų skaitmeninių elementų turintiems produktams taip pat laikomos svarbiais ir skaitmeninių elementų turinčiais ypatingos svarbos produktais ir kurioms taikoma šio reglamento priede nurodyta vidaus kontrole grindžiama atitikties vertinimo procedūra, taikomos Europos Parlamento ir Tarybos reglamento dėl horizontaliųjų kibernetinio saugumo reikalavimų, keliamų skaitmeninių elementų turintiems produktams atitikties vertinimo nuostatos, kiek tai susiję su esminiais to reglamento kibernetinio saugumo reikalavimais. Šiuo atveju visų kitų aspektų, kuriems taikomas šis reglamentas, atžvilgiu turėtų būti taikomos atitinkamos šio reglamento priede išdėstytos nuostatos dėl vidaus kontrole grindžiamo atitikties vertinimo. Remdamasi ENISA žiniomis ir patirtimi, kiek tai susiję su kibernetinio saugumo politika ir užduotimis, ENISA pavestomis pagal Europos Parlamento ir Tarybos reglamentą (ES) 2019/881 (37), Komisija turėtų bendradarbiauti su ENISA kibernetinio saugumo klausimais, susijusiais su DI sistemomis;
(79)
It is appropriate that a specific natural or legal person, defined as the provider, takes responsibility for the placing on the market or the putting into service of a high-risk AI system, regardless of whether that natural or legal person is the person who designed or developed the system.
(79)
tikslinga nustatyti, kad konkretus fizinis arba juridinis asmuo, kuris apibrėžiamas kaip tiekėjas, prisiimtų atsakomybę už didelės rizikos DI sistemos pateikimą rinkai arba pradėjimą naudoti, neatsižvelgiant į tai, ar tas fizinis arba juridinis asmuo yra sistemą suprojektavęs ar sukūręs asmuo;
(80)
As signatories to the United Nations Convention on the Rights of Persons with Disabilities, the Union and the Member States are legally obliged to protect persons with disabilities from discrimination and promote their equality, to ensure that persons with disabilities have access, on an equal basis with others, to information and communications technologies and systems, and to ensure respect for privacy for persons with disabilities. Given the growing importance and use of AI systems, the application of universal design principles to all new technologies and services should ensure full and equal access for everyone potentially affected by or using AI technologies, including persons with disabilities, in a way that takes full account of their inherent dignity and diversity. It is therefore essential that providers ensure full compliance with accessibility requirements, including Directive (EU) 2016/2102 of the European Parliament and of the Council (38) and Directive (EU) 2019/882. Providers should ensure compliance with these requirements by design. Therefore, the necessary measures should be integrated as much as possible into the design of the high-risk AI system.
(80)
Sąjunga ir valstybės narės, kaip Jungtinių Tautų neįgaliųjų teisių konvenciją pasirašiusios šalys, yra teisiškai įpareigotos saugoti asmenis su negalia nuo diskriminacijos ir skatinti jų lygybę, užtikrinti asmenims su neįgalia lygiai su kitais asmenimis informacijos ir ryšių technologijų ir sistemų prieinamumą ir užtikrinti pagarbą asmenų su negalia privatumui. Atsižvelgiant į tai, kad DI sistemos tampa vis svarbesnės ir yra naudojamos vis daugiau, taikant universalumo principus visoms naujoms technologijoms ir paslaugoms turėtų būti užtikrintas visapusiškas ir vienodas prieinamumas visiems, kuriuos gali paveikti DI technologijos arba kurie jomis naudojasi, įskaitant asmenis su negalia, visapusiškai atsižvelgiant į jų prigimtinį orumą ir įvairovę. Todėl labai svarbu, kad tiekėjai užtikrintų visapusišką atitiktį prieinamumo reikalavimams, įskaitant Europos Parlamento ir Tarybos direktyvą (ES) 2016/2102 (38) ir Direktyvą (ES) 2019/882. Tiekėjai turėtų užtikrinti, kad šių reikalavimų būtų laikomasi viso ciklo metu. Todėl būtinos priemonės turėtų būti kuo labiau integruotos jau projektuojant didelės rizikos DI sistemą;
(81)
The provider should establish a sound quality management system, ensure the accomplishment of the required conformity assessment procedure, draw up the relevant documentation and establish a robust post-market monitoring system. Providers of high-risk AI systems that are subject to obligations regarding quality management systems under relevant sectoral Union law should have the possibility to include the elements of the quality management system provided for in this Regulation as part of the existing quality management system provided for in that other sectoral Union law. The complementarity between this Regulation and existing sectoral Union law should also be taken into account in future standardisation activities or guidance adopted by the Commission. Public authorities which put into service high-risk AI systems for their own use may adopt and implement the rules for the quality management system as part of the quality management system adopted at a national or regional level, as appropriate, taking into account the specificities of the sector and the competences and organisation of the public authority concerned.
(81)
tiekėjas turėtų nustatyti patikimą kokybės valdymo sistemą, užtikrinti, kad būtų įgyvendinta reikalaujama atitikties vertinimo procedūra, parengti atitinkamą dokumentaciją ir nustatyti patikimą stebėsenos po pateikimo rinkai sistemą. Didelės rizikos DI sistemų, dėl kurių pagal atitinkamą sektoriaus Sąjungos teisės aktą taikomos su kokybės valdymo sistemomis susijusios pareigos, tiekėjai turėtų turėti galimybę šiame reglamente numatytos kokybės valdymo sistemos elementus įtraukti į esamą kokybės valdymo sistemą, numatytą tame kitame sektoriaus Sąjungos teisės akte. Būsimoje standartizacijos veikloje arba Komisijos priimamose gairėse taip pat turėtų būti atsižvelgiama į šio reglamento ir esamų sektoriaus Sąjungos teisės aktų papildomumą. Valdžios institucijos, kurios pradėjo naudoti didelės rizikos DI sistemas savo reikmėms, atsižvelgdamos į sektoriaus specifiką ir atitinkamos valdžios institucijos kompetenciją ir organizacijos struktūrą, gali priimti ir įgyvendinti kokybės valdymo sistemos taisykles, kurios yra atitinkamai nacionaliniu arba regioniniu lygmeniu nustatytos kokybės valdymo sistemos dalis;
(82)
To enable enforcement of this Regulation and create a level playing field for operators, and, taking into account the different forms of making available of digital products, it is important to ensure that, under all circumstances, a person established in the Union can provide authorities with all the necessary information on the compliance of an AI system. Therefore, prior to making their AI systems available in the Union, providers established in third countries should, by written mandate, appoint an authorised representative established in the Union. This authorised representative plays a pivotal role in ensuring the compliance of the high-risk AI systems placed on the market or put into service in the Union by those providers who are not established in the Union and in serving as their contact person established in the Union.
(82)
siekiant sudaryti sąlygas šio reglamento vykdymo užtikrinimui ir sukurti vienodas sąlygas veiklos vykdytojams, taip pat atsižvelgiant į įvairias skaitmeninių gaminių tiekimo formas, svarbu užtikrinti, kad Sąjungoje įsisteigęs asmuo visomis aplinkybėmis galėtų institucijoms pateikti visą būtiną informaciją apie DI sistemos atitiktį. Todėl prieš pateikdami savo DI sistemas Sąjungoje, trečiosiose valstybėse įsisteigę tiekėjai rašytiniu įgaliojimu turėtų paskirti Sąjungoje įsisteigusį įgaliotąjį atstovą. Šis įgaliotasis atstovas atlieka pagrindinį vaidmenį užtikrinant didelės rizikos DI sistemų, kurias tie ne Sąjungoje įsisteigę tiekėjai jau pateikė rinkai arba kurios jau pradėtos naudoti Sąjungoje, atitiktį ir yra tų tiekėjų Sąjungoje įsisteigęs kontaktinis asmuo;
(83)
In light of the nature and complexity of the value chain for AI systems and in line with the New Legislative Framework, it is essential to ensure legal certainty and facilitate the compliance with this Regulation. Therefore, it is necessary to clarify the role and the specific obligations of relevant operators along that value chain, such as importers and distributors who may contribute to the development of AI systems. In certain situations those operators could act in more than one role at the same time and should therefore fulfil cumulatively all relevant obligations associated with those roles. For example, an operator could act as a distributor and an importer at the same time.
(83)
atsižvelgiant į DI sistemų vertės grandinės pobūdį ir sudėtingumą ir laikantis naujosios teisės aktų sistemos, labai svarbu užtikrinti teisinį tikrumą ir sudaryti palankesnes sąlygas laikytis šio reglamento. Todėl būtina paaiškinti atitinkamų veiklos vykdytojų toje vertės grandinėje, pavyzdžiui, importuotojų ir platintojų, kurie gali prisidėti prie DI sistemų plėtojimo, vaidmenį ir konkrečias pareigas. Tam tikrais atvejais tie veiklos vykdytojai galėtų vienu metu atlikti daugiau nei vieną funkciją ir todėl turėtų bendrai vykdyti visas atitinkamas pareigas, susijusias su tomis funkcijomis. Pavyzdžiui, veiklos vykdytojas tuo pačiu metu galėtų veikti kaip platintojas ir kaip importuotojas;
(84)
To ensure legal certainty, it is necessary to clarify that, under certain specific conditions, any distributor, importer, deployer or other third-party should be considered to be a provider of a high-risk AI system and therefore assume all the relevant obligations. This would be the case if that party puts its name or trademark on a high-risk AI system already placed on the market or put into service, without prejudice to contractual arrangements stipulating that the obligations are allocated otherwise. This would also be the case if that party makes a substantial modification to a high-risk AI system that has already been placed on the market or has already been put into service in a way that it remains a high-risk AI system in accordance with this Regulation, or if it modifies the intended purpose of an AI system, including a general-purpose AI system, which has not been classified as high-risk and has already been placed on the market or put into service, in a way that the AI system becomes a high-risk AI system in accordance with this Regulation. Those provisions should apply without prejudice to more specific provisions established in certain Union harmonisation legislation based on the New Legislative Framework, together with which this Regulation should apply. For example, Article 16(2) of Regulation (EU) 2017/745, establishing that certain changes should not be considered to be modifications of a device that could affect its compliance with the applicable requirements, should continue to apply to high-risk AI systems that are medical devices within the meaning of that Regulation.
(84)
siekiant užtikrinti teisinį tikrumą, būtina paaiškinti, kad tam tikromis konkrečiomis sąlygomis bet kuris platintojas, importuotojas, diegėjas ar kita trečioji šalis turėtų būti laikomas didelės rizikos DI sistemos tiekėju ir todėl turėtų prisiimti visas atitinkamas pareigas. Taip būtų tuo atveju, jei ta šalis savo pavadinimą arba prekės ženklą suteiktų jau pateiktai rinkai arba pradėtai naudoti didelės rizikos DI sistemai, nedarant poveikio sutartiniams susitarimams, kuriuose nustatyta, kad pareigos paskirstomos kitaip. Taip būtų ir tuo atveju, jeigu ta šalis iš esmės pakeičia didelės rizikos DI sistemą, kuri jau pateikta rinkai arba pradėta naudoti, taip, kad ji lieka didelės rizikos DI sistema pagal šį reglamentą, arba jeigu ji pakeičia DI sistemos, įskaitant bendrosios paskirties DI sistemą, kuri nebuvo priskiriama didelės rizikos sistemoms ir jau buvo pateikta rinkai arba pradėta naudoti, numatytąją paskirtį taip, kad DI sistema tampa didelės rizikos DI sistema pagal šį reglamentą. Tos nuostatos turėtų būti taikomos nedarant poveikio konkretesnėms nuostatoms, nustatytoms tam tikruose Sąjungos derinamuosiuose teisės aktuose remiantis naująja teisės aktų sistema, su kuriais šis reglamentas turėtų būti taikomas kartu. Pavyzdžiui, Reglamento (ES) 2017/745 16 straipsnio 2 dalis, kuria nustatoma, kad tam tikri pakeitimai neturėtų būti laikomi priemonės pakeitimais, galinčiais turėti įtakos jo atitikčiai taikytiniems reikalavimams, turėtų būti toliau taikoma didelės rizikos DI sistemoms, kurios yra medicinos priemonės, kaip tai suprantama tame reglamente;
(85)
General-purpose AI systems may be used as high-risk AI systems by themselves or be components of other high-risk AI systems. Therefore, due to their particular nature and in order to ensure a fair sharing of responsibilities along the AI value chain, the providers of such systems should, irrespective of whether they may be used as high-risk AI systems as such by other providers or as components of high-risk AI systems and unless provided otherwise under this Regulation, closely cooperate with the providers of the relevant high-risk AI systems to enable their compliance with the relevant obligations under this Regulation and with the competent authorities established under this Regulation.
(85)
bendrosios paskirties DI sistemos pačios gali būti naudojamos kaip didelės rizikos DI sistemos arba gali būti kitų didelės rizikos DI sistemų komponentai. Taigi, dėl ypatingo tų sistemų pobūdžio ir siekiant užtikrinti teisingą pasidalijimą atsakomybe DI vertės grandinėje, tokių bendrosios paskirties sistemų tiekėjai, nepriklausomai nuo to, ar kiti tiekėjai gali naudoti jas kaip didelės rizikos DI sistemas ar jos gali būti naudojamos kaip didelės rizikos DI sistemų komponentai ir jei šiame reglamente nenurodyta kitaip, turėtų glaudžiai bendradarbiauti su atitinkamų didelės rizikos DI sistemų tiekėjais, kad pastarieji galėtų vykdyti atitinkamas pareigas pagal šį reglamentą, ir su pagal šį reglamentą nustatytomis kompetentingomis institucijomis;
(86)
Where, under the conditions laid down in this Regulation, the provider that initially placed the AI system on the market or put it into service should no longer be considered to be the provider for the purposes of this Regulation, and when that provider has not expressly excluded the change of the AI system into a high-risk AI system, the former provider should nonetheless closely cooperate and make available the necessary information and provide the reasonably expected technical access and other assistance that are required for the fulfilment of the obligations set out in this Regulation, in particular regarding the compliance with the conformity assessment of high-risk AI systems.
(86)
jeigu šiame reglamente nustatytomis sąlygomis tiekėjas, kuris iš pradžių pateikė DI sistemą rinkai arba pradėjo ją naudoti, šio reglamento tikslais nebeturėtų toliau būti laikomas tiekėju, ir jeigu tas tiekėjas aiškiai neatmetė galimybės DI sistemą pakeisti didelės rizikos DI sistema, šis buvęs tiekėjas vis tiek turėtų glaudžiai bendradarbiauti ir teikti būtiną informaciją, taip pat suteikti pagrįstai tikėtiną techninę prieigą ir kitą pagalbą, kurių reikia norint įvykdyti šiame reglamente nustatytas pareigas, visų pirma kiek tai susiję su didelės rizikos DI sistemų atitikties vertinimo reikalavimų laikymusi;
(87)
In addition, where a high-risk AI system that is a safety component of a product which falls within the scope of Union harmonisation legislation based on the New Legislative Framework is not placed on the market or put into service independently from the product, the product manufacturer defined in that legislation should comply with the obligations of the provider established in this Regulation and should, in particular, ensure that the AI system embedded in the final product complies with the requirements of this Regulation.
(87)
be to, jeigu didelės rizikos DI sistema, kuri yra gaminio, kuriam taikomi Sąjungos derinamieji teisės aktai remiantis naująja teisės aktų sistema, saugos komponentas, rinkai nepateikiama arba nepradedama naudoti atskirai nuo gaminio, gaminio gamintojas, apibrėžtas tuose teisės aktuose, turėtų laikytis šiame reglamente tiekėjui nustatytų pareigų, ir visų pirma turėtų užtikrinti, kad galutiniame gaminyje įterpta DI sistema atitiktų šio reglamento reikalavimus;
(88)
Along the AI value chain multiple parties often supply AI systems, tools and services but also components or processes that are incorporated by the provider into the AI system with various objectives, including the model training, model retraining, model testing and evaluation, integration into software, or other aspects of model development. Those parties have an important role to play in the value chain towards the provider of the high-risk AI system into which their AI systems, tools, services, components or processes are integrated, and should provide by written agreement this provider with the necessary information, capabilities, technical access and other assistance based on the generally acknowledged state of the art, in order to enable the provider to fully comply with the obligations set out in this Regulation, without compromising their own intellectual property rights or trade secrets.
(88)
DI vertės grandinėje daugybė šalių dažnai tiekia DI sistemas ir priemones ir teikia DI paslaugas, taip pat tiekia komponentus ar procesus, kuriuos tiekėjas įtraukia į DI sistemą įvairiais tikslais, be kita ko, kiek tai susiję su modelių mokymu, modelių mokymu iš naujo, modelių bandymu ir vertinimu, integravimu į programinę įrangą ar kitais modelių kūrimo aspektais. Toms šalims vertės grandinėje tenka svarbus vaidmuo didelės rizikos DI sistemos, į kurią yra integruotos jų DI sistemos, priemonės, paslaugos, komponentai ar procesai, tiekėjo atžvilgiu ir jos turėtų rašytiniu susitarimu šiam tiekėjui teikti būtiną informaciją, pajėgumus, techninę prieigą ir kitą pagalbą, grindžiamą visuotinai pripažintais pažangiausiais metodais, kad tiekėjas galėtų visapusiškai vykdyti šiame reglamente nustatytas pareigas, nepakenkdamas savo intelektinės nuosavybės teisėms ar komercinėms paslaptims;
(89)
Third parties making accessible to the public tools, services, processes, or AI components other than general-purpose AI models, should not be mandated to comply with requirements targeting the responsibilities along the AI value chain, in particular towards the provider that has used or integrated them, when those tools, services, processes, or AI components are made accessible under a free and open-source licence. Developers of free and open-source tools, services, processes, or AI components other than general-purpose AI models should be encouraged to implement widely adopted documentation practices, such as model cards and data sheets, as a way to accelerate information sharing along the AI value chain, allowing the promotion of trustworthy AI systems in the Union.
(89)
trečiosios šalys, viešam naudojimui tiekiančios priemones, teikiančios paslaugas, tiekiančios procesus ar DI komponentus, išskyrus bendrosios paskirties DI modelius, neturėtų būti įpareigotos laikytis reikalavimų, susijusių su atsakomybe visoje DI vertės grandinėje, visų pirma tiekėjo, kuris juos naudojo arba integravo, atžvilgiu, kai tos priemonės, paslaugos, procesai ar DI komponentai padaromi prieinamais pagal nemokamą ir atvirojo kodo licenciją. Tačiau nemokamų ir atvirojo kodo priemonių, paslaugų, procesų ar DI komponentų, išskyrus bendrosios paskirties DI modelius, kūrėjai turėtų būti skatinami įsivesti plačiai taikomą dokumentavimo praktiką, pvz., modelių korteles ir duomenų lapus – tokiu būdu būtų sparčiau dalijamasi informacija DI vertės grandinėje ir sudaromos sąlygos skatinti patikimas DI sistemas Sąjungoje;
(90)
The Commission could develop and recommend voluntary model contractual terms between providers of high-risk AI systems and third parties that supply tools, services, components or processes that are used or integrated in high-risk AI systems, to facilitate the cooperation along the value chain. When developing voluntary model contractual terms, the Commission should also take into account possible contractual requirements applicable in specific sectors or business cases.
(90)
tam, kad palengvintų bendradarbiavimą vertės grandinėje, Komisija galėtų parengti ir rekomenduoti neprivalomas pavyzdines sutarčių tarp didelės rizikos DI sistemų tiekėjų ir trečiųjų šalių, tiekiančių priemones, teikiančių paslaugas, tiekiančių komponentus ar procesus, kurie naudojami didelės rizikos DI sistemoms arba yra į jas integruoti, sąlygas. Rengdama neprivalomas pavyzdines sutarčių sąlygas, Komisija taip pat turėtų atsižvelgti į galimus sutartinius reikalavimus, taikomus konkretiems sektoriams ar verslo atvejams;
(91)
Given the nature of AI systems and the risks to safety and fundamental rights possibly associated with their use, including as regards the need to ensure proper monitoring of the performance of an AI system in a real-life setting, it is appropriate to set specific responsibilities for deployers. Deployers should in particular take appropriate technical and organisational measures to ensure they use high-risk AI systems in accordance with the instructions of use and certain other obligations should be provided for with regard to monitoring of the functioning of the AI systems and with regard to record-keeping, as appropriate. Furthermore, deployers should ensure that the persons assigned to implement the instructions for use and human oversight as set out in this Regulation have the necessary competence, in particular an adequate level of AI literacy, training and authority to properly fulfil those tasks. Those obligations should be without prejudice to other deployer obligations in relation to high-risk AI systems under Union or national law.
(91)
atsižvelgiant į DI sistemų pobūdį ir riziką saugumui ir pagrindinėms teisėms, kurios gali būti susijusios su jų naudojimu, be kita ko, kiek tai susiję su poreikiu užtikrinti tinkamą DI sistemos veikimo efektyvumo realiomis sąlygomis stebėseną, yra tikslinga diegėjams nustatyti konkrečias pareigas. Diegėjai visų pirma turėtų imtis tinkamų techninių ir organizacinių priemonių tam, jog užtikrintų, kad didelės rizikos DI sistemas jie naudotų laikydamiesi naudojimosi instrukcijų, be to, turėtų būti numatytos tam tikros kitos pareigos, susijusios atitinkamai su DI sistemų veikimo stebėsena ir įrašų tvarkymu. Be to, diegėjai turėtų užtikrinti, kad asmenys, paskirti įgyvendinti naudojimo instrukcijas ir atlikti žmogaus vykdomą priežiūrą, kaip nustatyta šiame reglamente, turėtų reikiamą kompetenciją, visų pirma turėti tinkamo lygio raštingumą DI srityje, būti baigus mokymus ir turėti įgaliojimus, kad galėtų tinkamai vykdyti tas užduotis. Tos pareigos neturėtų daryti poveikio kitoms diegėjų pareigoms, susijusioms su didelės rizikos DI sistemomis pagal Sąjungos ar nacionalinę teisę;
(92)
This Regulation is without prejudice to obligations for employers to inform or to inform and consult workers or their representatives under Union or national law and practice, including Directive 2002/14/EC of the European Parliament and of the Council (39), on decisions to put into service or use AI systems. It remains necessary to ensure information of workers and their representatives on the planned deployment of high-risk AI systems at the workplace where the conditions for those information or information and consultation obligations in other legal instruments are not fulfilled. Moreover, such information right is ancillary and necessary to the objective of protecting fundamental rights that underlies this Regulation. Therefore, an information requirement to that effect should be laid down in this Regulation, without affecting any existing rights of workers.
(92)
šiuo reglamentu nedaromas poveikis darbdavių pareigoms apie sprendimus pradėti naudoti arba naudoti DI sistemas informuoti darbuotojus arba jų atstovus arba juos apie tai informuoti ir su jais dėl to konsultuotis pagal Sąjungos ar nacionalinę teisę ir praktiką, įskaitant Europos Parlamento ir Tarybos direktyvą 2002/14/EB (39). Kai pagal kitas teisines priemones nustatytos sąlygos dėl tokių informavimo arba informavimo ir konsultavimosi pareigų nėra įvykdytos, vis tiek būtina užtikrinti, kad darbuotojai ir jų atstovai būtų informuojami apie planuojamą didelės rizikos DI sistemų diegimą darbo vietoje. Be to, tokia teisė į informaciją yra papildoma ir būtina siekiant tikslo apsaugoti pagrindines teises, kuriomis grindžiamas šis reglamentas. Todėl šiuo tikslu šiame reglamente turėtų būti nustatytas informavimo reikalavimas, nedarant poveikio jokioms esamoms darbuotojų teisėms;
(93)
Whilst risks related to AI systems can result from the way such systems are designed, risks can as well stem from how such AI systems are used. Deployers of high-risk AI system therefore play a critical role in ensuring that fundamental rights are protected, complementing the obligations of the provider when developing the AI system. Deployers are best placed to understand how the high-risk AI system will be used concretely and can therefore identify potential significant risks that were not foreseen in the development phase, due to a more precise knowledge of the context of use, the persons or groups of persons likely to be affected, including vulnerable groups. Deployers of high-risk AI systems listed in an annex to this Regulation also play a critical role in informing natural persons and should, when they make decisions or assist in making decisions related to natural persons, where applicable, inform the natural persons that they are subject to the use of the high-risk AI system. This information should include the intended purpose and the type of decisions it makes. The deployer should also inform the natural persons about their right to an explanation provided under this Regulation. With regard to high-risk AI systems used for law enforcement purposes, that obligation should be implemented in accordance with Article 13 of Directive (EU) 2016/680.
(93)
nors su DI sistemomis susijusi rizika gali atsirasti dėl sistemos struktūros, ji taip pat gali kilti priklausomai nuo to, kaip DI sistemos naudojamos. Todėl didelės rizikos DI sistemos diegėjai atlieka esminį vaidmenį užtikrindami pagrindinių teisių apsaugą ir taip padeda tiekėjui įvykdyti savo pareigas kuriant DI sistemą. Diegėjai geriausiai supranta, kaip konkrečiai didelės rizikos DI sistema bus naudojama, todėl gali nustatyti potencialiai reikšmingą riziką, kuri nebuvo numatyta kūrimo etape, nes jie turi tikslesnių žinių apie naudojimo kontekstą, asmenis ar jų grupes, kurioms gali būti daromas poveikis, įskaitant pažeidžiamas grupes. Šio reglamento priede išvardytų didelės rizikos DI sistemų diegėjai taip pat atlieka itin svarbų vaidmenį informuodami fizinius asmenis ir, priimdami sprendimus arba padėdami priimti su fiziniais asmenimis susijusius sprendimus, turėtų, kai taikytina, informuoti fizinius asmenis, kad jų atžvilgiu naudojama didelės rizikos DI sistema. Ši informacija turėtų apimti numatytąją paskirtį ir jos priimamų sprendimų rūšį. Diegėjas taip pat turėtų informuoti fizinius asmenis apie jų teisę gauti pagal šį reglamentą pateikiamą paaiškinimą. Kalbant apie teisėsaugos tikslais naudojamas didelės rizikos DI sistemas, ta pareiga turėtų būti įgyvendinama pagal Direktyvos (ES) 2016/680 13 straipsnį;
(94)
Any processing of biometric data involved in the use of AI systems for biometric identification for the purpose of law enforcement needs to comply with Article 10 of Directive (EU) 2016/680, that allows such processing only where strictly necessary, subject to appropriate safeguards for the rights and freedoms of the data subject, and where authorised by Union or Member State law. Such use, when authorised, also needs to respect the principles laid down in Article 4 (1) of Directive (EU) 2016/680 including lawfulness, fairness and transparency, purpose limitation, accuracy and storage limitation.
(94)
bet koks biometrinių duomenų tvarkymas, susijęs su DI sistemų naudojimu biometriniam tapatybės nustatymui teisėsaugos tikslais, turi atitikti Direktyvos (ES) 2016/680 10 straipsnį, pagal kurį toks tvarkymas leidžiamas tik kai tai tikrai būtina, taikant tinkamas duomenų subjekto teisių ir laisvių apsaugos priemones ir kai tai leidžiama pagal Sąjungos ar valstybės narės teisę. Toks naudojimas, kai jis leidžiamas, taip pat turi atitikti Direktyvos (ES) 2016/680 4 straipsnio 1 dalyje nustatytus principus, įskaitant teisėtumo, sąžiningumo ir skaidrumo, tikslo apribojimo, tikslumo ir saugojimo apribojimo principus;
(95)
Without prejudice to applicable Union law, in particular Regulation (EU) 2016/679 and Directive (EU) 2016/680, considering the intrusive nature of post-remote biometric identification systems, the use of post-remote biometric identification systems should be subject to safeguards. Post-remote biometric identification systems should always be used in a way that is proportionate, legitimate and strictly necessary, and thus targeted, in terms of the individuals to be identified, the location, temporal scope and based on a closed data set of legally acquired video footage. In any case, post-remote biometric identification systems should not be used in the framework of law enforcement to lead to indiscriminate surveillance. The conditions for post-remote biometric identification should in any case not provide a basis to circumvent the conditions of the prohibition and strict exceptions for real time remote biometric identification.
(95)
nedarant poveikio taikytinai Sąjungos teisei, visų pirma Reglamentui (ES) 2016/679 ir Direktyvai (ES) 2016/680, atsižvelgiant į tai, kad netikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos yra intervencinės, netikralaikio nuotolinio biometrinio tapatybės nustatymo sistemų naudojimui turėtų būti taikomos apsaugos priemonės. Netikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos visada turėtų būti naudojamos proporcingai, teisėtai ir tik tiek, kiek būtina, taigi, turėtų būti tikslinės asmenų, kurių tapatybę reikia nustatyti, vietos ir laiko aprėpties atžvilgiu ir grindžiamos uždaru teisėtai įgytos vaizdo medžiagos duomenų rinkiniu. Bet kuriuo atveju netikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos neturėtų būti naudojamos teisėsaugos srityje tokiu būdu, kad būtų vykdomas stebėjimas be jokios atrankos. Bet kuriuo atveju netikralaikio nuotolinio biometrinio tapatybės nustatymo sąlygos neturėtų sudaryti pagrindo apeiti draudimo sąlygas ir griežtas išimtis, taikomas tikralaikiam nuotoliniam biometriniam tapatybės nustatymui;
(96)
In order to efficiently ensure that fundamental rights are protected, deployers of high-risk AI systems that are bodies governed by public law, or private entities providing public services and deployers of certain high-risk AI systems listed in an annex to this Regulation, such as banking or insurance entities, should carry out a fundamental rights impact assessment prior to putting it into use. Services important for individuals that are of public nature may also be provided by private entities. Private entities providing such public services are linked to tasks in the public interest such as in the areas of education, healthcare, social services, housing, administration of justice. The aim of the fundamental rights impact assessment is for the deployer to identify the specific risks to the rights of individuals or groups of individuals likely to be affected, identify measures to be taken in the case of a materialisation of those risks. The impact assessment should be performed prior to deploying the high-risk AI system, and should be updated when the deployer considers that any of the relevant factors have changed. The impact assessment should identify the deployer’s relevant processes in which the high-risk AI system will be used in line with its intended purpose, and should include a description of the period of time and frequency in which the system is intended to be used as well as of specific categories of natural persons and groups who are likely to be affected in the specific context of use. The assessment should also include the identification of specific risks of harm likely to have an impact on the fundamental rights of those persons or groups. While performing this assessment, the deployer should take into account information relevant to a proper assessment of the impact, including but not limited to the information given by the provider of the high-risk AI system in the instructions for use. In light of the risks identified, deployers should determine measures to be taken in the case of a materialisation of those risks, including for example governance arrangements in that specific context of use, such as arrangements for human oversight according to the instructions of use or, complaint handling and redress procedures, as they could be instrumental in mitigating risks to fundamental rights in concrete use-cases. After performing that impact assessment, the deployer should notify the relevant market surveillance authority. Where appropriate, to collect relevant information necessary to perform the impact assessment, deployers of high-risk AI system, in particular when AI systems are used in the public sector, could involve relevant stakeholders, including the representatives of groups of persons likely to be affected by the AI system, independent experts, and civil society organisations in conducting such impact assessments and designing measures to be taken in the case of materialisation of the risks. The European Artificial Intelligence Office (AI Office) should develop a template for a questionnaire in order to facilitate compliance and reduce the administrative burden for deployers.
(96)
siekiant veiksmingai užtikrinti pagrindinių teisių apsaugą, didelės rizikos DI sistemų diegėjai, kurie yra viešosios teisės reglamentuojamos įstaigos arba viešąsias paslaugas teikiantys privatūs subjektai ir tam tikrų šio reglamento priede išvardytų didelės rizikos DI sistemų diegėjai, pavyzdžiui, bankininkystės subjektai ar draudimo įmonės, prieš pradedant tas sistemas naudoti turėtų atlikti poveikio pagrindinėms teisėms vertinimą. Žmonėms svarbias viešo pobūdžio paslaugas taip pat gali teikti privatūs subjektai. Tokias viešąsias paslaugas teikiantys privatūs veiklos vykdytojai yra siejami su viešojo intereso užduotimis, pavyzdžiui, švietimo, sveikatos priežiūros, socialinių paslaugų, būsto, teisingumo vykdymo srityse. Poveikio pagrindinėms teisėms vertinimo tikslas – kad diegėjas nustatytų konkrečią riziką asmenų ar asmenų grupių, kurie gali būti paveikti, teisėms, ir nustatytų priemones, kurių reikia imtis, jei ta rizika pasireikštų. Poveikio vertinimas turėtų būti atliekamas prieš įdiegiant didelės rizikos DI sistemą ir turėtų būti atnaujinamas, kai diegėjas mano, kad pasikeitė kuris nors svarbus veiksnys. Poveikio vertinime turėtų būti nustatyti atitinkami diegėjo procesai, kuriuos vykdant didelės rizikos DI sistema bus naudojama pagal numatytąją paskirtį, ir turėtų būti aprašytas numatomo sistemos naudojimo laikotarpis ir dažnumas, taip pat konkrečių kategorijų fiziniai asmenys ir grupės, kuriems gali būti daromas poveikis konkrečiomis naudojimo aplinkybėmis. Vertinimas taip pat turėtų apimti konkrečios žalos, kuri gali turėti įtakos tų asmenų ar grupių pagrindinėms teisėms, rizikos nustatymą. Atlikdamas šį vertinimą diegėjas turėtų atsižvelgti į informaciją, aktualią tinkamam poveikio vertinimui atlikti, įskaitant informaciją, kurią didelės rizikos DI sistemos tiekėjas pateikė naudojimo instrukcijoje, bet ja neapsiribojant. Atsižvelgdami į nustatytą riziką, diegėjai turėtų nustatyti priemones, kurių reikia imtis, jei ta rizika pasireikštų, įskaitant, pavyzdžiui, valdymo priemones tomis konkrečiomis naudojimo aplinkybėmis, pavyzdžiui, žmogaus atliekamos priežiūros, vykdomos laikantis naudojimo instrukcijų, tvarką arba skundų nagrinėjimo ir teisių gynimo procedūras, nes jos galėtų padėti sumažinti riziką pagrindinėms teisėms konkrečiais naudojimo atvejais. Atlikęs tą poveikio vertinimą diegėjas turėtų apie tai pranešti atitinkamai rinkos priežiūros institucijai. Kai tinkama, didelės rizikos DI sistemų diegėjai, ypač tų DI sistemų, kurios yra naudojamos viešajame sektoriuje, siekdami surinkti poveikio vertinimui atlikti būtiną atitinkamą informaciją, į tokių poveikio vertinimų atlikimą ir priemonių, kurių reikia imtis, jei ta rizika pasireikštų, rengimą galėtų įtraukti atitinkamus suinteresuotuosius subjektus, įskaitant asmenų, kuriems DI sistema gali daryti poveikį, grupių atstovus, nepriklausomus ekspertus ir pilietinės visuomenės organizacijas. Europos dirbtinio intelekto tarnyba (toliau – DI tarnyba) turėtų parengti klausimyno šabloną, kad būtų lengviau laikytis reikalavimų ir sumažinama diegėjams tenkanti administracinė našta;
(97)
The notion of general-purpose AI models should be clearly defined and set apart from the notion of AI systems to enable legal certainty. The definition should be based on the key functional characteristics of a general-purpose AI model, in particular the generality and the capability to competently perform a wide range of distinct tasks. These models are typically trained on large amounts of data, through various methods, such as self-supervised, unsupervised or reinforcement learning. General-purpose AI models may be placed on the market in various ways, including through libraries, application programming interfaces (APIs), as direct download, or as physical copy. These models may be further modified or fine-tuned into new models. Although AI models are essential components of AI systems, they do not constitute AI systems on their own. AI models require the addition of further components, such as for example a user interface, to become AI systems. AI models are typically integrated into and form part of AI systems. This Regulation provides specific rules for general-purpose AI models and for general-purpose AI models that pose systemic risks, which should apply also when these models are integrated or form part of an AI system. It should be understood that the obligations for the providers of general-purpose AI models should apply once the general-purpose AI models are placed on the market. When the provider of a general-purpose AI model integrates an own model into its own AI system that is made available on the market or put into service, that model should be considered to be placed on the market and, therefore, the obligations in this Regulation for models should continue to apply in addition to those for AI systems. The obligations laid down for models should in any case not apply when an own model is used for purely internal processes that are not essential for providing a product or a service to third parties and the rights of natural persons are not affected. Considering their potential significantly negative effects, the general-purpose AI models with systemic risk should always be subject to the relevant obligations under this Regulation. The definition should not cover AI models used before their placing on the market for the sole purpose of research, development and prototyping activities. This is without prejudice to the obligation to comply with this Regulation when, following such activities, a model is placed on the market.
(97)
tam, kad būtų užtikrintas teisinis tikrumas, bendrosios paskirties DI modelių sąvoka turėtų būti aiškiai apibrėžta ir atskirta nuo DI sistemų sąvokos. Apibrėžtis turėtų būti grindžiama pagrindinėmis funkcinėmis bendrosios paskirties DI modelio charakteristikomis, visų pirma bendru pobūdžiu ir gebėjimu kompetentingai atlikti įvairias skirtingas užduotis. Šie modeliai paprastai mokomi naudojant didelius duomenų kiekius, taikant įvairius metodus, pavyzdžiui, savipriežiūrą, neprižiūrimą ar sustiprintą mokymąsi. Bendrosios paskirties DI modeliai gali būti pateikiami rinkai įvairiais būdais, be kita ko, per bibliotekas, taikomųjų programų sąsajas (API), tiesiogiai atsisiunčiami arba kaip fizinė kopija. Šie modeliai gali būti toliau keičiami arba pritaikomi prie naujų modelių. Nors DI modeliai yra esminiai DI sistemų komponentai, jie patys savaime nėra DI sistemos. DI modeliams reikia pridėti papildomų komponentų, pavyzdžiui, naudotojo sąsają, kad jie taptų DI sistemomis. DI modeliai paprastai integruojami į DI sistemas ir yra jų dalis. Šiame reglamente nustatomos konkrečios taisyklės, taikomos bendrosios paskirties DI modeliams ir sisteminės rizikos bendrosios paskirties DI modeliams, kurios turėtų būti taikomos ir tada, kai šie modeliai yra integruoti į DI sistemą arba yra jos dalis. Turėtų būti suprantama, kad bendrosios paskirties DI modelių tiekėjų pareigos turėtų būti pradedamos taikyti tuomet, kai bendrosios paskirties DI modeliai pateikiami rinkai. Kai bendrosios paskirties DI modelio tiekėjas integruoja savo paties modelį į savo paties DI sistemą, kuri tiekiama rinkai arba pradedama naudoti, tas modelis turėtų būti laikomas pateiktu rinkai ir todėl šiame reglamente nustatytos pareigos, susijusios su modeliais, turėtų būti taikomos toliau, kartu su pareigomis, susijusioms su DI sistemomis. Nustatytos su modeliais susijusios pareigos bet kuriuo atveju neturėtų būti taikomos tuomet, kai nuosavas modelis naudojamas tik vidaus procesams, kurie nėra būtini gaminiui tiekti ar paslaugai teikti trečiosioms šalims, ir nedaromas poveikis fizinių asmenų teisėms. Atsižvelgiant į sisteminės rizikos bendrosios paskirties DI modelių galimą didelį neigiamą poveikį, šių modelių atžvilgiu visada turėtų būti taikomos atitinkamos pareigos pagal šį reglamentą. Apibrėžtis neturėtų apimti DI modelių, naudojamų prieš pateikiant juos rinkai tik mokslinių tyrimų, plėtros ir prototipų kūrimo tikslais. Tai nedaro poveikio pareigai laikytis šio reglamento, kai po tokios veiklos modelis pateikiamas rinkai;
(98)
Whereas the generality of a model could, inter alia, also be determined by a number of parameters, models with at least a billion of parameters and trained with a large amount of data using self-supervision at scale should be considered to display significant generality and to competently perform a wide range of distinctive tasks.
(98)
kadangi modelio bendras pobūdis, inter alia, taip pat galėtų būti nustatomas pagal parametrų skaičių, turėtų būti laikoma, kad modeliai, turintys ne mažiau kaip milijardą parametrų ir apmokyti naudojant didelį duomenų kiekį savipriežiūros būdu, yra labai bendro pobūdžio ir gali kompetentingi atlikti įvairias skirtingas užduotis;
(99)
Large generative AI models are a typical example for a general-purpose AI model, given that they allow for flexible generation of content, such as in the form of text, audio, images or video, that can readily accommodate a wide range of distinctive tasks.
(99)
dideli generatyviniai DI modeliai yra tipinis bendrosios paskirties DI modelio pavyzdys, nes jie suteikia galimybę lanksčiai generuoti turinį, pavyzdžiui, teksto, judamo ar nejudamo vaizdo arba garso forma, ir gali lengvai atlikti įvairias atskiras užduotis;
(100)
When a general-purpose AI model is integrated into or forms part of an AI system, this system should be considered to be general-purpose AI system when, due to this integration, this system has the capability to serve a variety of purposes. A general-purpose AI system can be used directly, or it may be integrated into other AI systems.
(100)
kai bendrosios paskirties DI modelis yra integruotas į DI sistemą arba yra jos dalis, ši sistema turėtų būti laikoma bendrosios paskirties DI sistema, kai dėl šios integracijos ši sistema gali būti naudojama įvairiais tikslais. Bendrosios paskirties DI sistema gali būti naudojama tiesiogiai arba būti integruota į kitas DI sistemas;
(101)
Providers of general-purpose AI models have a particular role and responsibility along the AI value chain, as the models they provide may form the basis for a range of downstream systems, often provided by downstream providers that necessitate a good understanding of the models and their capabilities, both to enable the integration of such models into their products, and to fulfil their obligations under this or other regulations. Therefore, proportionate transparency measures should be laid down, including the drawing up and keeping up to date of documentation, and the provision of information on the general-purpose AI model for its usage by the downstream providers. Technical documentation should be prepared and kept up to date by the general-purpose AI model provider for the purpose of making it available, upon request, to the AI Office and the national competent authorities. The minimal set of elements to be included in such documentation should be set out in specific annexes to this Regulation. The Commission should be empowered to amend those annexes by means of delegated acts in light of evolving technological developments.
(101)
bendrosios paskirties DI modelių tiekėjams tenka ypatingas vaidmuo ir atsakomybė visoje DI vertės grandinėje, nes jų tiekiami modeliai gali būti pagrindu įvairioms tolesnės grandies sistemoms, kurias dažnai teikia tolesnės grandies tiekėjai, kuriems reikia gerai suprasti modelius ir jų pajėgumus, kad jie galėtų integruoti tokius modelius į savo gaminius ir vykdyti savo pareigas pagal šį ar kitus reglamentus. Todėl turėtų būti nustatytos proporcingos skaidrumo priemonės, įskaitant dokumentų rengimą ir nuolatinį atnaujinimą, taip pat informacijos apie bendrosios paskirties DI modelį teikimą, kad ja galėtų naudotis tolesnės grandies tiekėjai. Bendrosios paskirties DI modelio tiekėjas turėtų parengti ir nuolat atnaujinti techninius dokumentus, kad paprašius jie būtų pateikiami DI tarnybai ir nacionalinėms kompetentingoms institucijoms. Bent minimalus elementų, kurie turi būti įtraukti į tokius dokumentus, rinkinys turėtų būti pateikiamas specialiuosiuose šio reglamento prieduose. Komisijai turėtų būti suteikiami įgaliojimai deleguotaisiais aktais iš dalies keisti tuos priedus atsižvelgiant į technologinę plėtrą;
(102)
Software and data, including models, released under a free and open-source licence that allows them to be openly shared and where users can freely access, use, modify and redistribute them or modified versions thereof, can contribute to research and innovation in the market and can provide significant growth opportunities for the Union economy. General-purpose AI models released under free and open-source licences should be considered to ensure high levels of transparency and openness if their parameters, including the weights, the information on the model architecture, and the information on model usage are made publicly available. The licence should be considered to be free and open-source also when it allows users to run, copy, distribute, study, change and improve software and data, including models under the condition that the original provider of the model is credited, the identical or comparable terms of distribution are respected.
(102)
programinė įranga ir duomenys, įskaitant modelius, išleidžiami pagal nemokamą ir atvirojo kodo licenciją, pagal kurią jais galima atvirai dalytis, kai naudotojai gali laisvai prieiti prie jų arba pakeistų jų versijų, juos naudoti, keisti ir platinti, gali prisidėti prie mokslinių tyrimų ir inovacijų rinkoje, taip pat gali suteikti reikšmingų Sąjungos ekonomikos augimo galimybių. Turėtų būti laikoma, kad bendrosios paskirties DI modeliai, išleidžiami pagal nemokamas ir atvirojo kodo licencijas, užtikrina aukšto lygio skaidrumą ir atvirumą, jei jų parametrai, įskaitant svorius, informaciją apie modelio architektūrą ir informaciją apie modelio naudojimą, yra skelbiami viešai. Licencija turėtų būti laikoma nemokama ir atvira ir tuo atveju, kai pagal ją naudotojai gali paleisti, kopijuoti, platinti, tirti, keisti ir tobulinti programinę įrangą ir duomenis, įskaitant modelius, su sąlyga, kad būtų nurodytas pirminis modelio tiekėjas ir laikomasi identiškų ar palyginamų platinimo sąlygų;
(103)
Free and open-source AI components covers the software and data, including models and general-purpose AI models, tools, services or processes of an AI system. Free and open-source AI components can be provided through different channels, including their development on open repositories. For the purposes of this Regulation, AI components that are provided against a price or otherwise monetised, including through the provision of technical support or other services, including through a software platform, related to the AI component, or the use of personal data for reasons other than exclusively for improving the security, compatibility or interoperability of the software, with the exception of transactions between microenterprises, should not benefit from the exceptions provided to free and open-source AI components. The fact of making AI components available through open repositories should not, in itself, constitute a monetisation.
(103)
nemokami ir atvirojo kodo DI komponentai apima programinę įrangą ir duomenis, įskaitant modelius ir bendrosios paskirties DI modelius, DI sistemos priemones, paslaugas ar procesus. Nemokami ir atvirojo kodo DI komponentai gali būti gaunami įvairiais kanalais, įskaitant jų kūrimą atvirose duomenų saugyklose. Šio reglamento tikslais DI komponentams, kurie tiekiami už tam tikrą kainą arba kitaip monetizuojami, be kita ko, teikiant techninės paramos ar kitas paslaugas, taip pat ir per programinės įrangos platformą, susijusias su DI komponentu, arba naudojant asmens duomenis kitais nei tik programinės įrangos saugumo, suderinamumo ar sąveikumo didinimo tikslais, išskyrus sandorius tarp labai mažų įmonių, neturėtų būti taikomos išimtys, kurios yra taikomos nemokamo ir atvirojo kodo DI komponentams. Tai, kad DI komponentai yra prieinami per atviras duomenų saugyklas, neturėtų savaime reikšti monetizavimo;
(104)
The providers of general-purpose AI models that are released under a free and open-source licence, and whose parameters, including the weights, the information on the model architecture, and the information on model usage, are made publicly available should be subject to exceptions as regards the transparency-related requirements imposed on general-purpose AI models, unless they can be considered to present a systemic risk, in which case the circumstance that the model is transparent and accompanied by an open-source license should not be considered to be a sufficient reason to exclude compliance with the obligations under this Regulation. In any case, given that the release of general-purpose AI models under free and open-source licence does not necessarily reveal substantial information on the data set used for the training or fine-tuning of the model and on how compliance of copyright law was thereby ensured, the exception provided for general-purpose AI models from compliance with the transparency-related requirements should not concern the obligation to produce a summary about the content used for model training and the obligation to put in place a policy to comply with Union copyright law, in particular to identify and comply with the reservation of rights pursuant to Article 4(3) of Directive (EU) 2019/790 of the European Parliament and of the Council (40).
(104)
bendrosios paskirties DI modelių, kurie išleidžiami pagal nemokamą ir atvirojo kodo licenciją ir kurių parametrai, įskaitant svorius, informaciją apie modelio architektūrą ir informaciją apie modelio naudojimą, yra viešai skelbiami, tiekėjams turėtų būti taikomos su skaidrumu susijusių reikalavimų, taikomų bendrosios paskirties DI modeliams, išimtys, nebent jie gali būti laikomi keliančiais sisteminę riziką – tokiu atveju aplinkybė, kad modelis yra skaidrus ir prie jo pridėta atvirojo kodo licencija, neturėtų būti laikoma pakankama priežastimi nesilaikyti šiame reglamente nustatytų pareigų. Bet kuriuo atveju, atsižvelgiant į tai, kad išleidžiant bendrosios paskirties DI modelius pagal laisvojo ir atvirojo kodo licenciją nebūtinai atskleidžiama esminė informaciją apie duomenų rinkinį, naudojamą modeliui mokyti ar pritaikyti, ir apie tai, kaip buvo užtikrintas autorių teisių teisės laikymasis, bendrosios paskirties DI modeliams numatyta išimtis dėl su skaidrumu susijusių reikalavimų laikymosi neturėtų būti taikoma pareigai parengti santrauką apie modelių mokymui naudojamą turinį ir pareigai nustatyti politiką siekiant laikytis Sąjungos autorių teisių teisės, visų pirma siekiant nustatyti išlygas dėl pasiliekamų teisių ir tų išlygų laikytis pagal Europos Parlamento ir Tarybos direktyvos (ES) 2019/790 (40) 4 straipsnio 3 dalį;
(105)
General-purpose AI models, in particular large generative AI models, capable of generating text, images, and other content, present unique innovation opportunities but also challenges to artists, authors, and other creators and the way their creative content is created, distributed, used and consumed. The development and training of such models require access to vast amounts of text, images, videos and other data. Text and data mining techniques may be used extensively in this context for the retrieval and analysis of such content, which may be protected by copyright and related rights. Any use of copyright protected content requires the authorisation of the rightsholder concerned unless relevant copyright exceptions and limitations apply. Directive (EU) 2019/790 introduced exceptions and limitations allowing reproductions and extractions of works or other subject matter, for the purpose of text and data mining, under certain conditions. Under these rules, rightsholders may choose to reserve their rights over their works or other subject matter to prevent text and data mining, unless this is done for the purposes of scientific research. Where the rights to opt out has been expressly reserved in an appropriate manner, providers of general-purpose AI models need to obtain an authorisation from rightsholders if they want to carry out text and data mining over such works.
(105)
bendrosios paskirties DI modeliai, visų pirma dideli generatyviniai DI modeliai, galintys generuoti tekstą, vaizdus ir kitą turinį, ne tik suteikia unikalių inovacijų galimybių, bet ir kelia iššūkių menininkams, autoriams ir kitiems kūrėjams ir jų kūrybinio turinio kūrimo, platinimo, naudojimo ir vartojimo būdui. Kuriant ir mokant tokius modelius reikia prieigos prie didžiulio tekstų, vaizdų, vaizdo įrašų ir kitų duomenų kiekio. Šiame kontekste tekstų ir duomenų gavybos metodai gali būti plačiai naudojami tokio turinio, kuris gali būti saugomas autorių teisių ir gretutinių teisių, paieškai ir analizei. Norint naudoti autorių teisių saugomą turinį, reikia gauti atitinkamo teisių turėtojo leidimą, nebent taikomos atitinkamos autorių teisių išimtys ir apribojimai. Direktyvoje (ES) 2019/790 nustatytos išimtys ir apribojimai, pagal kuriuos tam tikromis sąlygomis leidžiamas kūrinių ar kitų objektų atgaminimas ir perkėlimas tekstų ir duomenų gavybos tikslais. Pagal šias taisykles teisių turėtojai gali nuspręsti pasilikti sau teises į savo kūrinius ar kitus objektus, kad užkirstų kelią tekstų ir duomenų gavybai, nebent tai daroma mokslinių tyrimų tikslais. Kai atsisakymo teisės buvo aiškiai tinkamu būdu pasiliktos, bendrosios paskirties DI modelių tiekėjai, norintys vykdyti tokių kūrinių tekstų ir duomenų gavybą, turi gauti teisių turėtojų leidimą;
(106)
Providers that place general-purpose AI models on the Union market should ensure compliance with the relevant obligations in this Regulation. To that end, providers of general-purpose AI models should put in place a policy to comply with Union law on copyright and related rights, in particular to identify and comply with the reservation of rights expressed by rightsholders pursuant to Article 4(3) of Directive (EU) 2019/790. Any provider placing a general-purpose AI model on the Union market should comply with this obligation, regardless of the jurisdiction in which the copyright-relevant acts underpinning the training of those general-purpose AI models take place. This is necessary to ensure a level playing field among providers of general-purpose AI models where no provider should be able to gain a competitive advantage in the Union market by applying lower copyright standards than those provided in the Union.
(106)
tiekėjai, kurie pateikia bendrosios paskirties DI modelius Sąjungos rinkai, turėtų užtikrinti, kad būtų vykdomos atitinkamos šiame reglamente nustatytos pareigos. Tuo tikslu bendrosios paskirties DI modelių tiekėjai turėtų nustatyti politiką siekiant laikytis Sąjungos autorių teisių ir gretutinių teisių teisės, visų pirma siekiant pagal Direktyvos (ES) 2019/790 4 straipsnio 3 dalį nustatyti išlygas dėl pasiliekamų teisių, apie kurias pareiškė teisių turėtojai, ir tų išlygų laikytis. Bet kuris tiekėjas, pateikiantis bendrosios paskirties DI modelį Sąjungos rinkai, turėtų vykdyti šią pareigą, nepriklausomai nuo jurisdikcijos, kurioje taikomi su autorių teisėmis susiję aktai, kuriais grindžiamas tų bendrosios paskirties DI modelių mokymas. Tai yra būtina siekiant užtikrinti vienodas sąlygas bendrosios paskirties DI modelių tiekėjams, kad nė vienas tiekėjas neįgytų konkurencinio pranašumo Sąjungos rinkoje taikydamas žemesnius autorių teisių standartus nei Sąjungoje taikomi standartai;
(107)
In order to increase transparency on the data that is used in the pre-training and training of general-purpose AI models, including text and data protected by copyright law, it is adequate that providers of such models draw up and make publicly available a sufficiently detailed summary of the content used for training the general-purpose AI model. While taking into due account the need to protect trade secrets and confidential business information, this summary should be generally comprehensive in its scope instead of technically detailed to facilitate parties with legitimate interests, including copyright holders, to exercise and enforce their rights under Union law, for example by listing the main data collections or sets that went into training the model, such as large private or public databases or data archives, and by providing a narrative explanation about other data sources used. It is appropriate for the AI Office to provide a template for the summary, which should be simple, effective, and allow the provider to provide the required summary in narrative form.
(107)
siekiant padidinti duomenų, naudojamų bendrosios paskirties DI modelių išankstiniam mokymui ir mokymui, įskaitant autorių teisių teisės saugomus tekstus ir duomenis, skaidrumą, yra tikslinga, kad tokių modelių tiekėjai parengtų ir viešai paskelbtų pakankamai išsamią turinio, naudojamo apmokant bendrosios paskirties DI modelį, santrauką. Tinkamai atsižvelgiant į poreikį apsaugoti komercines paslaptis ir konfidencialią verslo informaciją, ši santrauka turėtų būti išsami iš esmės, o ne detali techniškai, kad teisėtų interesų turinčioms šalims, įskaitant autorių teisių turėtojus, būtų lengviau naudotis savo teisėmis pagal Sąjungos teisę ir užtikrinti jų vykdymą, pavyzdžiui, išvardijant pagrindines duomenų rinkinius, kurie buvo naudojami mokant modelį, kaip antai dideles privačias ar viešas duomenų bazes ar duomenų archyvus, ir pateikiant paaiškinimą apie kitus naudojamus duomenų šaltinius. Tikslinga, kad DI tarnyba pateiktų santraukos šabloną, ir jis turėtų būti paprastas, veiksmingas ir leistų tiekėjui pateikti reikalaujamą santrauką aprašomąja forma;
(108)
With regard to the obligations imposed on providers of general-purpose AI models to put in place a policy to comply with Union copyright law and make publicly available a summary of the content used for the training, the AI Office should monitor whether the provider has fulfilled those obligations without verifying or proceeding to a work-by-work assessment of the training data in terms of copyright compliance. This Regulation does not affect the enforcement of copyright rules as provided for under Union law.
(108)
kalbant apie bendrosios paskirties DI modelių tiekėjams nustatytas pareigas nustatyti politiką siekiant užtikrinti Sąjungos autorių teisių teisės laikymąsi ir viešai paskelbti mokymui naudojamo turinio santrauką, DI tarnyba turėtų stebėti, ar tiekėjas įvykdė tas pareigas, nevykdydama patikrinimo ar nesiimdama mokymo duomenų vertinimo kiekvieno kūrinio atveju, kiek tai susiję su autorių teisių laikymusi. Šiuo reglamentu nedaromas poveikis autorių teisių taisyklių, numatytų pagal Sąjungos teisę, vykdymo užtikrinimui;
(109)
Compliance with the obligations applicable to the providers of general-purpose AI models should be commensurate and proportionate to the type of model provider, excluding the need for compliance for persons who develop or use models for non-professional or scientific research purposes, who should nevertheless be encouraged to voluntarily comply with these requirements. Without prejudice to Union copyright law, compliance with those obligations should take due account of the size of the provider and allow simplified ways of compliance for SMEs, including start-ups, that should not represent an excessive cost and not discourage the use of such models. In the case of a modification or fine-tuning of a model, the obligations for providers of general-purpose AI models should be limited to that modification or fine-tuning, for example by complementing the already existing technical documentation with information on the modifications, including new training data sources, as a means to comply with the value chain obligations provided in this Regulation.
(109)
bendrosios paskirties DI modelių tiekėjams taikomų pareigų vykdymas turėtų būti atitinkamas ir proporcingas modelio tiekėjo tipui, išskyrus būtinybę laikytis reikalavimų asmenims, kurie modelius kuria arba naudoja neprofesiniais ar mokslinių tyrimų tikslais, tačiau jie turėtų būti skatinami savanoriškai laikytis šių reikalavimų. Nedarant poveikio Sąjungos autorių teisių teisei, užtikrinant tų pareigų vykdymą turėtų būti tinkamai atsižvelgiama į paslaugų teikėjo dydį, o MVĮ, įskaitant startuolius, turėtų būti sudarytos sąlygos vykdyti pareigas supaprastintais būdais, kurie neturėtų būti pernelyg brangūs ir neatgrasytų nuo tokių modelių naudojimo. Modelio pakeitimo arba pritaikymo atveju bendrosios paskirties DI modelių tiekėjų pareigos turėtų apsiriboti tuo pakeitimu arba pritaikymu, pavyzdžiui, esamų techninių dokumentų papildymu informacija apie pakeitimus, įskaitant naujus mokymo duomenų šaltinius, kaip priemonę vykdyti šiame reglamente nustatytas vertės grandinės pareigas;
(110)
General-purpose AI models could pose systemic risks which include, but are not limited to, any actual or reasonably foreseeable negative effects in relation to major accidents, disruptions of critical sectors and serious consequences to public health and safety; any actual or reasonably foreseeable negative effects on democratic processes, public and economic security; the dissemination of illegal, false, or discriminatory content. Systemic risks should be understood to increase with model capabilities and model reach, can arise along the entire lifecycle of the model, and are influenced by conditions of misuse, model reliability, model fairness and model security, the level of autonomy of the model, its access to tools, novel or combined modalities, release and distribution strategies, the potential to remove guardrails and other factors. In particular, international approaches have so far identified the need to pay attention to risks from potential intentional misuse or unintended issues of control relating to alignment with human intent; chemical, biological, radiological, and nuclear risks, such as the ways in which barriers to entry can be lowered, including for weapons development, design acquisition, or use; offensive cyber capabilities, such as the ways in vulnerability discovery, exploitation, or operational use can be enabled; the effects of interaction and tool use, including for example the capacity to control physical systems and interfere with critical infrastructure; risks from models of making copies of themselves or ‘self-replicating’ or training other models; the ways in which models can give rise to harmful bias and discrimination with risks to individuals, communities or societies; the facilitation of disinformation or harming privacy with threats to democratic values and human rights; risk that a particular event could lead to a chain reaction with considerable negative effects that could affect up to an entire city, an entire domain activity or an entire community.
(110)
bendrosios paskirties DI modeliai galėtų kelti sisteminę riziką, kuri apima (bet tuo neapsiriboja) bet kokį faktinį ar pagrįstai numatomą neigiamą poveikį, susijusį su didelėmis avarijomis, sutrikimais ypatingos svarbos sektoriuose ir rimtomis pasekmėmis visuomenės sveikatai ir saugai; bet kokį faktinį ar pagrįstai numatomą neigiamą poveikį demokratiniams procesams, visuomenės ir ekonominiam saugumui; neteisėto, melagingo ar diskriminacinio turinio sklaidą. Turėtų būti suprantama, kad sisteminė rizika auga didėjant modelio pajėgumams ir modelio aprėpčiai, ji gali kilti visą modelio gyvavimo ciklą ir jai įtakos turi netinkamo naudojimo sąlygos, modelio patikimumas, modelio sąžiningumas ir modelio saugumas, modelio savarankiškumo lygis, jo prieiga prie priemonių, naujoviški ar suderinti būdai, išleidimo ir platinimo strategijos, apsaugos priemonių pašalinimo galimybės ir kiti veiksniai. Visų pirma taikant tarptautinius požiūrius iki šiol nustatyta, kad reikia atkreipti dėmesį į riziką, kylančią dėl galimo tyčinio netinkamo naudojimo ar nenumatytų kontrolės problemų, susijusių su derinimu su žmogaus ketinimu; cheminę, biologinę, radiologinę ir branduolinę riziką, pavyzdžiui, būdus, kuriais galima sumažinti patekimo į rinką kliūtis, be kita ko, kiek tai susiję su ginklų kūrimu, projektavimu, įsigijimu ar naudojimu; kibernetinius puolimo pajėgumus, pavyzdžiui, būdus, kuriais gali būti sudarytos sąlygos nustatyti pažeidžiamumą, jį išnaudoti ar juo pasinaudoti operatyviniais tikslais; sąveikos ir priemonių naudojimo poveikį, įskaitant, pavyzdžiui, gebėjimą kontroliuoti fizines sistemas ir trikdyti ypatingos svarbos infrastruktūrą; riziką, kylančią dėl to, kad modeliai kopijuoja patys save, atkartoja save ar moko kitus modelius; būdus, kuriais modeliai gali sukelti žalingą šališkumą ir diskriminaciją, keliančius riziką asmenims, bendruomenėms ar visuomenei; palankių sąlygų dezinformacijai sudarymą arba kenkimą privatumui, sukeliant grėsmę demokratinėms vertybėms ir žmogaus teisėms; riziką, kad konkretus įvykis galėtų sukelti grandininę reakciją ir didelį neigiamą poveikį, kuris galėtų paveikti visą miestą, visos srities veiklą ar visą bendruomenę;
(111)
It is appropriate to establish a methodology for the classification of general-purpose AI models as general-purpose AI model with systemic risks. Since systemic risks result from particularly high capabilities, a general-purpose AI model should be considered to present systemic risks if it has high-impact capabilities, evaluated on the basis of appropriate technical tools and methodologies, or significant impact on the internal market due to its reach. High-impact capabilities in general-purpose AI models means capabilities that match or exceed the capabilities recorded in the most advanced general-purpose AI models. The full range of capabilities in a model could be better understood after its placing on the market or when deployers interact with the model. According to the state of the art at the time of entry into force of this Regulation, the cumulative amount of computation used for the training of the general-purpose AI model measured in floating point operations is one of the relevant approximations for model capabilities. The cumulative amount of computation used for training includes the computation used across the activities and methods that are intended to enhance the capabilities of the model prior to deployment, such as pre-training, synthetic data generation and fine-tuning. Therefore, an initial threshold of floating point operations should be set, which, if met by a general-purpose AI model, leads to a presumption that the model is a general-purpose AI model with systemic risks. This threshold should be adjusted over time to reflect technological and industrial changes, such as algorithmic improvements or increased hardware efficiency, and should be supplemented with benchmarks and indicators for model capability. To inform this, the AI Office should engage with the scientific community, industry, civil society and other experts. Thresholds, as well as tools and benchmarks for the assessment of high-impact capabilities, should be strong predictors of generality, its capabilities and associated systemic risk of general-purpose AI models, and could take into account the way the model will be placed on the market or the number of users it may affect. To complement this system, there should be a possibility for the Commission to take individual decisions designating a general-purpose AI model as a general-purpose AI model with systemic risk if it is found that such model has capabilities or an impact equivalent to those captured by the set threshold. That decision should be taken on the basis of an overall assessment of the criteria for the designation of a general-purpose AI model with systemic risk set out in an annex to this Regulation, such as quality or size of the training data set, number of business and end users, its input and output modalities, its level of autonomy and scalability, or the tools it has access to. Upon a reasoned request of a provider whose model has been designated as a general-purpose AI model with systemic risk, the Commission should take the request into account and may decide to reassess whether the general-purpose AI model can still be considered to present systemic risks.
(111)
tikslinga nustatyti bendrosios paskirties DI modelių priskyrimo sisteminės rizikos bendrosios paskirties DI modeliams metodiką. Kadangi sisteminė rizika kyla dėl ypač didelių pajėgumų, turėtų būti laikoma, kad bendrosios paskirties DI modelis kelia sisteminę riziką, jei jo pajėgumai daro didelį poveikį, vertinant remiantis tinkamomis techninėmis priemonėmis ir metodikomis, arba reikšmingą poveikį vidaus rinkai dėl jo aprėpties. Didelio poveikio pajėgumai bendrosios paskirties DI modeliuose – tai pajėgumai, kurie atitinka arba viršija pažangiausiuose bendrosios paskirties DI modeliuose užfiksuotus pajėgumus. Visus modelio pajėgumus galima geriau suprasti po to, kai modelis pateiktas į rinką arba kai diegėjai sąveikauja su modeliu. Atsižvelgiant į naujausius technikos laimėjimus šio reglamento įsigaliojimo metu, bendrosios paskirties DI modelio mokymui naudojama bendra skaičiuojamoji galia, išmatuota slankiojo kablelio operacijomis, yra viena iš modelių pajėgumų atitinkamų aproksimacijų. Mokymui naudojama bendra skaičiavimo galia apima skaičiavimą, naudojamą visai veiklai ir metodams, kuriais siekiama padidinti modelio pajėgumus iki jo įdiegimo, pvz., parengiamajam mokymui, sintetinių duomenų generavimui ir pritaikymui. Todėl turėtų būti nustatyta pradinė slankiojo kablelio operacijų ribinė vertė, dėl kurios, jei ją atitinka bendrosios paskirties DI modelis, galima preziumuoti, kad modelis yra sisteminės rizikos bendrosios paskirties DI modelis. Ši ribinė vertė laikui bėgant turėtų būti koreguojama, kad būtų atspindėti technologiniai ir pramonės pokyčiai, pavyzdžiui, algoritmų patobulinimai arba padidėjęs aparatinės įrangos efektyvumas, ir turėtų būti papildyta modelių pajėgumo lyginamaisiais parametrais ir rodikliais. Šiam tikslui reikalingai informacijai gauti DI tarnyba turėtų bendradarbiauti su mokslo bendruomene, pramonės atstovais, pilietine visuomene ir kitais ekspertais. Pagal ribines vertes, taip pat didelio poveikio pajėgumų vertinimo priemones ir lyginamuosius parametrus turėtų būti prognozuojama, kas yra bendrosios paskirties DI modelių bendroji paskirtis, pajėgumai ir susijusi sisteminė rizika, ir tomis vertėmis, priemonėmis ir lyginamaisiais parametrais galėtų būti atspindima tai, kokiu būdu modelis bus pateiktas rinkai, arba į naudotojų, kuriems jis gali padaryti poveikį, skaičių. Siekiant papildyti šią sistemą, Komisija turėtų turėti galimybę priimti atskirus sprendimus, kuriais bendrosios paskirties DI modelis būtų priskiriamas sisteminės rizikos bendrosios paskirties DI modeliams, jei nustatoma, kad tokio modelio pajėgumai arba poveikis yra lygiaverčiai nustatytoms ribinėms vertėms. Tas sprendimas turėtų būti priimtas remiantis šio reglamento priede pateiktų priskyrimo sisteminės rizikos bendrosios paskirties DI modeliams kriterijų, pavyzdžiui, mokymo duomenų rinkinio kokybės ar dydžio, verslo ir galutinių naudotojų skaičiaus, įvesties ir išvesties būdų, savarankiškumo lygio ir išplečiamumo, arba priemonių, prie kurių turima prieiga, bendru vertinimu. Gavusi pagrįstą tiekėjo, kurio modelis priskirtas sisteminės rizikos bendrosios paskirties DI modeliams, prašymą, Komisija turėtų atsižvelgti į prašymą ir gali nuspręsti iš naujo įvertinti, ar šis bendrosios paskirties DI modelis vis dar gali būti laikomas keliančiu sisteminę riziką;
(112)
It is also necessary to clarify a procedure for the classification of a general-purpose AI model with systemic risks. A general-purpose AI model that meets the applicable threshold for high-impact capabilities should be presumed to be a general-purpose AI models with systemic risk. The provider should notify the AI Office at the latest two weeks after the requirements are met or it becomes known that a general-purpose AI model will meet the requirements that lead to the presumption. This is especially relevant in relation to the threshold of floating point operations because training of general-purpose AI models takes considerable planning which includes the upfront allocation of compute resources and, therefore, providers of general-purpose AI models are able to know if their model would meet the threshold before the training is completed. In the context of that notification, the provider should be able to demonstrate that, because of its specific characteristics, a general-purpose AI model exceptionally does not present systemic risks, and that it thus should not be classified as a general-purpose AI model with systemic risks. That information is valuable for the AI Office to anticipate the placing on the market of general-purpose AI models with systemic risks and the providers can start to engage with the AI Office early on. That information is especially important with regard to general-purpose AI models that are planned to be released as open-source, given that, after the open-source model release, necessary measures to ensure compliance with the obligations under this Regulation may be more difficult to implement.
(112)
taip pat būtina paaiškinti priskyrimo sisteminės rizikos bendrosios paskirties DI modeliams procedūrą. Turėtų būti preziumuojama, kad bendrosios paskirties DI modelis, atitinkantis taikytiną didelio poveikio pajėgumų ribinę vertę, yra sisteminės rizikos bendrosios paskirties DI modelis. Tiekėjas turėtų pateikti pranešimą DI tarnybai ne vėliau kaip per dvi savaites nuo reikalavimų įvykdymo arba nuo tada, kai sužinoma, kad bendrosios paskirties DI modelis atitiks reikalavimus, kuriais remiantis daroma tokia prezumpcija. Tai ypač svarbu atsižvelgiant į slankiojo kablelio operacijų ribinę vertę, nes bendrosios paskirties DI modelių mokymo tikslu būtinas išsamus planavimas, kuris apima išankstinį skaičiavimo išteklių paskirstymą, todėl bendrosios paskirties DI modelių tiekėjai gali žinoti, ar jų modelis atitiks ribinę vertę, prieš užbaigiant mokymą. Teikdamas tą pranešimą tiekėjas turėtų galėti įrodyti, kad dėl savo specifinių savybių bendrosios paskirties DI modelis išimtinai nekelia sisteminės rizikos, todėl jis neturėtų būti priskiriamas sisteminės rizikos bendrosios paskirties DI modeliams. Ta informacija yra vertinga DI tarnybai, kad ji galėtų numatyti sisteminės rizikos bendrosios paskirties DI modelių pateikimą rinkai, o tiekėjai gali iš anksto pradėti bendradarbiauti su DI tarnyba. Ta informacija yra itin svarbi dėl bendrosios paskirties DI modelių, kuriuos planuojama išleisti kaip atvirojo kodo modelius, atsižvelgiant į tai, kad po atvirojo kodo modelio išleidimo gali būti sunkiau įgyvendinti būtinas priemones siekiant užtikrinti, kad būtų vykdomos šiame reglamente nustatytos pareigos;
(113)
If the Commission becomes aware of the fact that a general-purpose AI model meets the requirements to classify as a general-purpose AI model with systemic risk, which previously had either not been known or of which the relevant provider has failed to notify the Commission, the Commission should be empowered to designate it so. A system of qualified alerts should ensure that the AI Office is made aware by the scientific panel of general-purpose AI models that should possibly be classified as general-purpose AI models with systemic risk, in addition to the monitoring activities of the AI Office.
(113)
jei Komisijai tampa žinoma, kad bendrosios paskirties DI modelis atitinka priskyrimo sisteminės rizikos bendrosios paskirties DI modeliams reikalavimus, ir šis faktas anksčiau nebuvo žinomas arba apie jį atitinkamas tiekėjas Komisijai nepranešė, Komisijai turėtų būti suteikti įgaliojimai tą modelį atitinkamai priskirti. Kvalifikuotų perspėjimų sistema turėtų užtikrinti, kad mokslinė komisija informuotų DI tarnybą apie bendrosios paskirties DI modelius, kurie galbūt turėtų būti priskirti sisteminės rizikos bendrosios paskirties DI modeliams, taip papildant DI tarnybos vykdomą stebėsenos veiklą;
(114)
The providers of general-purpose AI models presenting systemic risks should be subject, in addition to the obligations provided for providers of general-purpose AI models, to obligations aimed at identifying and mitigating those risks and ensuring an adequate level of cybersecurity protection, regardless of whether it is provided as a standalone model or embedded in an AI system or a product. To achieve those objectives, this Regulation should require providers to perform the necessary model evaluations, in particular prior to its first placing on the market, including conducting and documenting adversarial testing of models, also, as appropriate, through internal or independent external testing. In addition, providers of general-purpose AI models with systemic risks should continuously assess and mitigate systemic risks, including for example by putting in place risk-management policies, such as accountability and governance processes, implementing post-market monitoring, taking appropriate measures along the entire model’s lifecycle and cooperating with relevant actors along the AI value chain.
(114)
sisteminės rizikos bendrosios paskirties DI modelių tiekėjams, turėtų būti taikomos ne tik bendrosios paskirties DI modelių tiekėjams numatytos pareigos, bet ir pareigos, kuriomis siekiama nustatyti ir sumažinti tą riziką ir užtikrinti tinkamą kibernetinio saugumo apsaugos lygį, neatsižvelgiant į tai, ar modelis tiekiamas kaip atskiras modelis, ar yra integruotas į DI sistemą arba gaminį. Kad tie tikslai būtų pasiekti, šiuo reglamentu tiekėjams turėtų būti nustatytas reikalavimas atlikti būtinus modelių vertinimus, visų pirma prieš pirmą kartą juos pateikiant rinkai, įskaitant modelių atsparumo kenksmingiems veiksmams bandymą ir dokumentavimą, taip pat, kai tinkama, atliekant vidaus ar nepriklausomą išorės bandymą. Be to, sisteminės rizikos bendrosios paskirties DI modelių tiekėjai turėtų nuolat vertinti ir mažinti sisteminę riziką, be kita ko, pavyzdžiui, nustatydami rizikos valdymo politiką, kaip antai atskaitomybės ir valdymo procesus, įgyvendindami stebėseną po pateikimo rinkai, imdamiesi tinkamų priemonių per visą modelio gyvavimo ciklą ir bendradarbiaudami su atitinkamais DI vertės grandinės dalyviais;
(115)
Providers of general-purpose AI models with systemic risks should assess and mitigate possible systemic risks. If, despite efforts to identify and prevent risks related to a general-purpose AI model that may present systemic risks, the development or use of the model causes a serious incident, the general-purpose AI model provider should without undue delay keep track of the incident and report any relevant information and possible corrective measures to the Commission and national competent authorities. Furthermore, providers should ensure an adequate level of cybersecurity protection for the model and its physical infrastructure, if appropriate, along the entire model lifecycle. Cybersecurity protection related to systemic risks associated with malicious use or attacks should duly consider accidental model leakage, unauthorised releases, circumvention of safety measures, and defence against cyberattacks, unauthorised access or model theft. That protection could be facilitated by securing model weights, algorithms, servers, and data sets, such as through operational security measures for information security, specific cybersecurity policies, adequate technical and established solutions, and cyber and physical access controls, appropriate to the relevant circumstances and the risks involved.
(115)
sisteminės rizikos bendrosios paskirties DI modelių tiekėjai turėtų įvertinti ir mažinti galimą sisteminę riziką. Jei, nepaisant pastangų nustatyti riziką, susijusią su bendrosios paskirties DI modeliu, kuris gali kelti sisteminę riziką, ir užkirsti jai kelią, dėl modelio kūrimo ar naudojimo įvyksta rimtas incidentas, bendrosios paskirties DI modelio tiekėjas turėtų nepagrįstai nedelsdamas stebėti incidentą ir pateikti Komisijai ir nacionalinėms kompetentingoms institucijoms visą svarbią informaciją ir pranešti apie galimas taisomąsias priemones. Be to, tiekėjai turėtų užtikrinti tinkamą modelio ir jo fizinės infrastruktūros kibernetinio saugumo apsaugos lygį, jei tinkama, visą modelio gyvavimo ciklą. Užtikrinant kibernetinį saugumą sisteminės rizikos, susijusios su piktavališku naudojimu ar išpuoliais, atžvilgiu turėtų būti tinkamai atsižvelgiama į atsitiktinį modelio konfidencialios informacijos atskleidimą, neteisėtą išleidimą, saugos priemonių apėjimą ir gynybą nuo kibernetinių išpuolių, neteisėtos prieigos ar modelio vagystės. Tą apsaugą būtų galima palengvinti užtikrinant modelių svorių, algoritmų, serverių ir duomenų rinkinių apsaugą, pavyzdžiui, taikant informacijos saugumui užtikrinti skirtas operatyvines saugumo priemones, konkrečią kibernetinio saugumo politiką, tinkamus techninius ir nustatytus sprendimus, taip pat kibernetinės ir fizinės prieigos kontrolės priemones, tinkančias pagal atitinkamas aplinkybes ir susijusią riziką;
(116)
The AI Office should encourage and facilitate the drawing up, review and adaptation of codes of practice, taking into account international approaches. All providers of general-purpose AI models could be invited to participate. To ensure that the codes of practice reflect the state of the art and duly take into account a diverse set of perspectives, the AI Office should collaborate with relevant national competent authorities, and could, where appropriate, consult with civil society organisations and other relevant stakeholders and experts, including the Scientific Panel, for the drawing up of such codes. Codes of practice should cover obligations for providers of general-purpose AI models and of general-purpose AI models presenting systemic risks. In addition, as regards systemic risks, codes of practice should help to establish a risk taxonomy of the type and nature of the systemic risks at Union level, including their sources. Codes of practice should also be focused on specific risk assessment and mitigation measures.
(116)
DI tarnyba turėtų skatinti ir palengvinti praktikos kodeksų rengimą, peržiūrą ir pritaikymą, atsižvelgiant į tarptautinius požiūrius. Visi bendrosios paskirties DI modelių tiekėjai galėtų būti pakviesti dalyvauti. Siekiant užtikrinti, kad praktikos kodeksai atspindėtų naujausius technikos laimėjimus ir juose būtų tinkamai atsižvelgta į įvairias perspektyvas, DI tarnyba turėtų bendradarbiauti su atitinkamomis nacionalinėmis kompetentingomis institucijomis ir galėtų, kai tinkama, dėl tokių kodeksų rengimo konsultuotis su pilietinės visuomenės organizacijomis ir kitais atitinkamais suinteresuotaisiais subjektais bei ekspertais, įskaitant specialistų grupę. Praktikos kodeksai turėtų apimti bendrosios paskirties DI modelių ir sisteminės rizikos bendrosios paskirties modelių tiekėjų pareigas. Be to, kiek tai susiję su sistemine rizika, praktikos kodeksai turėtų padėti nustatyti sisteminės rizikos rūšių ir pobūdžio taksonomiją Sąjungos lygmeniu, įskaitant jos šaltinius. Praktikos kodeksuose daug dėmesio turėtų būti skiriama ir konkrečioms rizikos vertinimo ir mažinimo priemonėms;
(117)
The codes of practice should represent a central tool for the proper compliance with the obligations provided for under this Regulation for providers of general-purpose AI models. Providers should be able to rely on codes of practice to demonstrate compliance with the obligations. By means of implementing acts, the Commission may decide to approve a code of practice and give it a general validity within the Union, or, alternatively, to provide common rules for the implementation of the relevant obligations, if, by the time this Regulation becomes applicable, a code of practice cannot be finalised or is not deemed adequate by the AI Office. Once a harmonised standard is published and assessed as suitable to cover the relevant obligations by the AI Office, compliance with a European harmonised standard should grant providers the presumption of conformity. Providers of general-purpose AI models should furthermore be able to demonstrate compliance using alternative adequate means, if codes of practice or harmonised standards are not available, or they choose not to rely on those.
(117)
praktikos kodeksai turėtų būti svarbiausia priemonė, kad bendrosios paskirties DI modelių tiekėjai galėtų tinkamai vykdyti pagal šį reglamentą numatytas pareigas. Tiekėjai turėtų galėti remtis praktikos kodeksais, kad įrodytų, jog vykdo pareigas. Komisija, priimdama įgyvendinimo aktus, gali nuspręsti patvirtinti praktikos kodeksą ir nustatyti jo bendrą galiojimą Sąjungoje arba, kita vertus, nustatyti bendras atitinkamų pareigų vykdymo taisykles, jei iki šio reglamento taikymo pradžios praktikos kodekso negalima užbaigti arba DI tarnyba jį laiko netinkamu. Kai darnusis standartas paskelbiamas ir DI tarnyba jį įvertina kaip tinkamą atitinkamoms pareigoms vykdyti, atitiktis Europos darniajam standartui turėtų suteikti tiekėjų atžvilgiu atitikties prezumpciją. Be to, bendrosios paskirties DI modelių tiekėjai turėtų galėti įrodyti atitiktį naudodami alternatyvias tinkamas priemones, jei praktikos kodeksų ar darniųjų standartų nėra arba jie nusprendžia jais nesiremti;
(118)
This Regulation regulates AI systems and AI models by imposing certain requirements and obligations for relevant market actors that are placing them on the market, putting into service or use in the Union, thereby complementing obligations for providers of intermediary services that embed such systems or models into their services regulated by Regulation (EU) 2022/2065. To the extent that such systems or models are embedded into designated very large online platforms or very large online search engines, they are subject to the risk-management framework provided for in Regulation (EU) 2022/2065. Consequently, the corresponding obligations of this Regulation should be presumed to be fulfilled, unless significant systemic risks not covered by Regulation (EU) 2022/2065 emerge and are identified in such models. Within this framework, providers of very large online platforms and very large online search engines are obliged to assess potential systemic risks stemming from the design, functioning and use of their services, including how the design of algorithmic systems used in the service may contribute to such risks, as well as systemic risks stemming from potential misuses. Those providers are also obliged to take appropriate mitigating measures in observance of fundamental rights.
(118)
šiuo reglamentu DI sistemos ir DI modeliai reglamentuojami nustatant tam tikrus reikalavimus ir pareigas atitinkamiems rinkos dalyviams, kurie juos pateikia rinkai, pradeda naudoti arba naudoja Sąjungoje, taip papildant tarpininkavimo paslaugų teikėjų, kurie integruoja tokias sistemas ar modelius į savo paslaugas, pareigas, reglamentuojamas Reglamentu (ES) 2022/2065. Tokiu mastu, kokiu tokios sistemos ar modeliai yra integruoti į interneto platformų ir interneto paieškos sistemų, kurioms suteiktas atitinkamai labai didelių interneto platformų ar labai didelių interneto paieškos sistemų statusas, jiems taikoma Reglamente (ES) 2022/2065 numatyta rizikos valdymo sistema. Todėl turėtų būti preziumuojama, kad atitinkamos šiame reglamente nustatytos pareigos yra įvykdytos, nebent kiltų ir tokiuose modeliuose būtų nustatyta reikšminga sisteminė rizika, kuriai netaikomas Reglamentas (ES) 2022/2065. Pagal šią sistemą labai didelių interneto platformų ir labai didelių interneto paieškos sistemų paslaugų teikėjai privalo įvertinti galimą sisteminę riziką, kylančią dėl jų paslaugų projektavimo, veikimo ir naudojimo, įskaitant tai, kaip teikiant paslaugą naudojamų algoritmų sistemų dizainas gali prisidėti prie tokios rizikos, taip pat sisteminę riziką, kylančią dėl galimo netinkamo naudojimo. Šie paslaugų teikėjai taip pat privalo imtis tinkamų rizikos mažinimo priemonių laikydamiesi pagrindinių teisių;
(119)
Considering the quick pace of innovation and the technological evolution of digital services in scope of different instruments of Union law in particular having in mind the usage and the perception of their recipients, the AI systems subject to this Regulation may be provided as intermediary services or parts thereof within the meaning of Regulation (EU) 2022/2065, which should be interpreted in a technology-neutral manner. For example, AI systems may be used to provide online search engines, in particular, to the extent that an AI system such as an online chatbot performs searches of, in principle, all websites, then incorporates the results into its existing knowledge and uses the updated knowledge to generate a single output that combines different sources of information.
(119)
atsižvelgiant į spartų inovacijų ir technologinės raidos tempą, kiek tai susiję su skaitmeninėmis paslaugomis, kurioms taikomos įvairios Sąjungos teisės priemonės, visų pirma atsižvelgiant į jų gavėjų naudojimąsi jomis ir suvokimą, DI sistemos, kurioms taikomas šis reglamentas, gali būti teikiamos kaip tarpininkavimo paslaugos arba jų dalys, kaip tai suprantama Reglamente (ES) 2022/2065, kurios turėtų būti aiškinamos technologijų atžvilgiu neutraliu būdu. Pavyzdžiui, DI sistemos gali būti naudojamos interneto paieškos sistemoms teikti, visų pirma tiek, kiek DI sistema, pavyzdžiui, internetinis pokalbių robotas, iš esmės atlieka paiešką visose interneto svetainėse, tada rezultatus įtraukia į savo turimas žinias ir naudoja atnaujintas žinias, kad sugeneruotų bendrą išvedinį, apimantį skirtingus informacijos šaltinius;
(120)
Furthermore, obligations placed on providers and deployers of certain AI systems in this Regulation to enable the detection and disclosure that the outputs of those systems are artificially generated or manipulated are particularly relevant to facilitate the effective implementation of Regulation (EU) 2022/2065. This applies in particular as regards the obligations of providers of very large online platforms or very large online search engines to identify and mitigate systemic risks that may arise from the dissemination of content that has been artificially generated or manipulated, in particular risk of the actual or foreseeable negative effects on democratic processes, civic discourse and electoral processes, including through disinformation.
(120)
be to, šiame reglamente tam tikrų DI sistemų tiekėjams ir diegėjams nustatytos pareigos, siekiant sudaryti sąlygas nustatyti ir atskleisti tai, kad tų sistemų išvediniai yra dirbtinai sugeneruoti arba gauti atlikus manipuliacijas, yra itin aktualios siekiant palengvinti veiksmingą Reglamento (ES) 2022/2065 įgyvendinimą. Tai visų pirma taikoma labai didelių interneto platformų arba labai didelių interneto paieškos sistemų paslaugų teikėjų pareigoms nustatyti ir sumažinti sisteminę riziką, galinčią kilti dėl turinio, kuris buvo dirbtinai sugeneruotas ar gautas atlikus manipuliacijas, sklaidos, visų pirma faktinio ar numatomo neigiamo poveikio demokratiniams procesams, pilietiniam diskursui ir rinkimų procesams, be kita ko, pasitelkiant dezinformaciją, riziką;
(121)
Standardisation should play a key role to provide technical solutions to providers to ensure compliance with this Regulation, in line with the state of the art, to promote innovation as well as competitiveness and growth in the single market. Compliance with harmonised standards as defined in Article 2, point (1)(c), of Regulation (EU) No 1025/2012 of the European Parliament and of the Council (41), which are normally expected to reflect the state of the art, should be a means for providers to demonstrate conformity with the requirements of this Regulation. A balanced representation of interests involving all relevant stakeholders in the development of standards, in particular SMEs, consumer organisations and environmental and social stakeholders in accordance with Articles 5 and 6 of Regulation (EU) No 1025/2012 should therefore be encouraged. In order to facilitate compliance, the standardisation requests should be issued by the Commission without undue delay. When preparing the standardisation request, the Commission should consult the advisory forum and the Board in order to collect relevant expertise. However, in the absence of relevant references to harmonised standards, the Commission should be able to establish, via implementing acts, and after consultation of the advisory forum, common specifications for certain requirements under this Regulation. The common specification should be an exceptional fall back solution to facilitate the provider’s obligation to comply with the requirements of this Regulation, when the standardisation request has not been accepted by any of the European standardisation organisations, or when the relevant harmonised standards insufficiently address fundamental rights concerns, or when the harmonised standards do not comply with the request, or when there are delays in the adoption of an appropriate harmonised standard. Where such a delay in the adoption of a harmonised standard is due to the technical complexity of that standard, this should be considered by the Commission before contemplating the establishment of common specifications. When developing common specifications, the Commission is encouraged to cooperate with international partners and international standardisation bodies.
(121)
standartizacija turėtų atlikti svarbų vaidmenį, kad tiekėjams būtų suteikti techniniai sprendimai siekiant užtikrinti atitiktį šiam reglamentui, atsižvelgiant į naujausius technikos laimėjimus, skatinti inovacijas, taip pat konkurencingumą ir augimą bendrojoje rinkoje. Atitiktis darniesiems standartams, kaip apibrėžta Europos Parlamento ir Tarybos reglamento (ES) Nr. 1025/2012 (41) 2 straipsnio 1 dalies c punkte, kurie, tikėtina, paprastai turėtų būti rengiami atsižvelgiant į naujausius technikos laimėjimus, turėtų būti viena iš priemonių tiekėjams įrodyti atitiktį šio reglamento reikalavimams. Todėl turėtų būti skatinamas subalansuotas atstovavimas interesams, į standartų rengimą įtraukiant visus atitinkamus suinteresuotuosius subjektus, visų pirma MVĮ, vartotojų organizacijas ir aplinkos bei socialinės srities suinteresuotuosius subjektus pagal Reglamento (ES) Nr. 1025/2012 5 ir 6 straipsnius. Kad būtų palengvinta atitiktis, standartizacijos prašymus Komisija turėtų pateikti nepagrįstai nedelsdama. Rengdama standartizacijos prašymą Komisija konsultuojasi su patariamuoju forumu ir valdyba, kad surinktų atitinkamų ekspertinių žinių. Tačiau, nesant atitinkamų nuorodų į darniuosius standartus, Komisija turėtų galėti įgyvendinimo aktais, pasikonsultavusi su patariamuoju forumu, nustatyti tam tikrų šiame reglamente nustatytų reikalavimų bendrąsias specifikacijas. Bendroji specifikacija turėtų būti išimtinis atsarginis sprendimas siekiant palengvinti tiekėjo pareigą laikytis šio reglamento reikalavimų, kai nė viena iš Europos standartizacijos organizacijų nepriima standartizacijos prašymo arba kai atitinkamuose darniuosiuose standartuose nepakankamai atsižvelgiama į pagrindinių teisių klausimus, arba kai darnieji standartai neatitinka prašymo, arba kai vėluojama priimti tinkamą darnųjį standartą. Jei priimti darnųjį standartą vėluojama dėl techninio to standarto sudėtingumo, Komisija turėtų į tai atsižvelgti prieš svarstydama galimybę nustatyti bendrąsias specifikacijas. Komisija raginama rengiant bendrąsias specifikacijas bendradarbiauti su tarptautiniais partneriais ir tarptautinėmis standartizacijos institucijomis;
(122)
It is appropriate that, without prejudice to the use of harmonised standards and common specifications, providers of a high-risk AI system that has been trained and tested on data reflecting the specific geographical, behavioural, contextual or functional setting within which the AI system is intended to be used, should be presumed to comply with the relevant measure provided for under the requirement on data governance set out in this Regulation. Without prejudice to the requirements related to robustness and accuracy set out in this Regulation, in accordance with Article 54(3) of Regulation (EU) 2019/881, high-risk AI systems that have been certified or for which a statement of conformity has been issued under a cybersecurity scheme pursuant to that Regulation and the references of which have been published in the Official Journal of the European Union should be presumed to comply with the cybersecurity requirement of this Regulation in so far as the cybersecurity certificate or statement of conformity or parts thereof cover the cybersecurity requirement of this Regulation. This remains without prejudice to the voluntary nature of that cybersecurity scheme.
(122)
tikslinga, kad, nedarant poveikio darniųjų standartų ir bendrųjų specifikacijų naudojimui, turėtų būti laikoma, kad didelės rizikos DI sistemos, kuri buvo išmokyta ir išbandyta naudojant duomenis, atspindinčius konkrečią geografinę, elgsenos, kontekstinę ar funkcinę aplinką, kurioje DI sistemą ketinama naudoti, tiekėjai laikosi atitinkamos priemonės, numatytos pagal šiame reglamente nustatytą duomenų valdymo reikalavimą. Nedarant poveikio šiame reglamente nustatytiems reikalavimams, susijusiems su patvarumu ir tikslumu, vadovaujantis Reglamento (ES) 2019/881 54 straipsnio 3 dalimi, turėtų būti preziumuojama, kad didelės rizikos DI sistemos, kurios buvo sertifikuotos arba kurių atitikties pareiškimas buvo išduotas pagal kibernetinio saugumo sertifikavimo schemą pagal tą reglamentą ir kurių nuorodos paskelbtos Europos Sąjungos oficialiajame leidinyje, atitinka šiame reglamente nustatytą kibernetinio saugumo reikalavimą tiek, kiek kibernetinio saugumo sertifikatas ar atitikties pareiškimas arba jų dalys tenkina šiame reglamente nustatytą kibernetinio saugumo reikalavimą. Tai nedaro poveikio savanoriškam tos kibernetinio saugumo sertifikavimo schemos pobūdžiui;
(123)
In order to ensure a high level of trustworthiness of high-risk AI systems, those systems should be subject to a conformity assessment prior to their placing on the market or putting into service.
(123)
siekiant užtikrinti aukšto lygio didelės rizikos DI sistemų patikimumą, šioms sistemoms turėtų būti taikomas reikalavimas atlikti atitikties vertinimą prieš pateikiant jas rinkai arba pradedant naudoti;
(124)
It is appropriate that, in order to minimise the burden on operators and avoid any possible duplication, for high-risk AI systems related to products which are covered by existing Union harmonisation legislation based on the New Legislative Framework, the compliance of those AI systems with the requirements of this Regulation should be assessed as part of the conformity assessment already provided for in that law. The applicability of the requirements of this Regulation should thus not affect the specific logic, methodology or general structure of conformity assessment under the relevant Union harmonisation legislation.
(124)
tinkama, kad, siekiant kuo labiau sumažinti naštą veiklos vykdytojams ir išvengti bet kokio galimo dubliavimo, didelės rizikos DI sistemoms, susijusioms su gaminiais, kuriems, remiantis naująja teisės aktų sistema, taikomi esami Sąjungos derinamieji teisės aktai, šių DI sistemų atitiktis šio reglamento reikalavimams turėtų būti vertinama atliekant pagal toje teisėje jau numatytą atitikties vertinimą. Todėl šio reglamento reikalavimų taikymas neturėtų daryti poveikio konkrečiai atitikties vertinimo, atliekamo pagal atitinkamus Sąjungos derinamuosius teisės aktus, logikai, metodikai ar bendrajai struktūrai;
(125)
Given the complexity of high-risk AI systems and the risks that are associated with them, it is important to develop an adequate conformity assessment procedure for high-risk AI systems involving notified bodies, so-called third party conformity assessment. However, given the current experience of professional pre-market certifiers in the field of product safety and the different nature of risks involved, it is appropriate to limit, at least in an initial phase of application of this Regulation, the scope of application of third-party conformity assessment for high-risk AI systems other than those related to products. Therefore, the conformity assessment of such systems should be carried out as a general rule by the provider under its own responsibility, with the only exception of AI systems intended to be used for biometrics.
(125)
atsižvelgiant į didelės rizikos DI sistemų sudėtingumą ir su jomis susijusią riziką, svarbu sukurti tinkamą didelės rizikos DI sistemų atitikties vertinimo procedūrą, kurioje dalyvautų notifikuotosios įstaigos, vadinamąjį trečiosios šalies atliekamą atitikties vertinimą. Tačiau, atsižvelgiant į dabartinę sertifikuotojų prieš pateikiant rinkai patirtį gaminių saugos srityje ir skirtingą kylančios rizikos pobūdį, tinkama riboti (bent jau pradiniame šio reglamento taikymo etape) trečiosios šalies atliekamo didelės rizikos DI sistemų, išskyrus su gaminiais susijusias DI sistemas, atitikties vertinimo taikymo sritį. Todėl tokių sistemų atitikties vertinimą paprastai turėtų atlikti tiekėjas ir už tai atsakyti, išskyrus vienintelę išimtį, susijusią su DI sistemomis, kurios skirtos naudoti biometrijos tikslais;
(126)
In order to carry out third-party conformity assessments when so required, notified bodies should be notified under this Regulation by the national competent authorities, provided that they comply with a set of requirements, in particular on independence, competence, absence of conflicts of interests and suitable cybersecurity requirements. Notification of those bodies should be sent by national competent authorities to the Commission and the other Member States by means of the electronic notification tool developed and managed by the Commission pursuant to Article R23 of Annex I to Decision No 768/2008/EC.
(126)
siekiant, kad būtų įvykdyti trečiosios šalies atliekami atitikties vertinimai, kai to reikalaujama, nacionalinės kompetentingos institucijos pagal šį reglamentą turėtų paskirti notifikuotąsias įstaigas, jeigu jos atitinka reikalavimus, visų pirma nepriklausomumo, kompetencijos, interesų konflikto nebuvimo ir tinkamus kibernetinio saugumo reikalavimus. Nacionalinės kompetentingos institucijos turėtų siųsti pranešimus apie šių įstaigų paskyrimą Komisijai ir kitoms valstybėms narėms naudodamosi Komisijos pagal Sprendimo Nr. 768/2008/EB I priedo R23 straipsnį parengta ir prižiūrima elektronine notifikavimo priemone;
(127)
In line with Union commitments under the World Trade Organization Agreement on Technical Barriers to Trade, it is adequate to facilitate the mutual recognition of conformity assessment results produced by competent conformity assessment bodies, independent of the territory in which they are established, provided that those conformity assessment bodies established under the law of a third country meet the applicable requirements of this Regulation and the Union has concluded an agreement to that extent. In this context, the Commission should actively explore possible international instruments for that purpose and in particular pursue the conclusion of mutual recognition agreements with third countries.
(127)
laikantis Sąjungos įsipareigojimų pagal Pasaulio prekybos organizacijos susitarimą dėl techninių prekybos kliūčių, yra tinkama palengvinti atitikties vertinimo rezultatų, kuriuos pateikė kompetentingos atitikties vertinimo įstaigos, tarpusavio pripažinimą, nepriklausomai nuo teritorijos, kurioje jos yra įsteigtos, jei tos atitikties vertinimo įstaigos, įsteigtos pagal trečiosios valstybės teisę, atitinka taikytinus šio reglamento reikalavimus ir Sąjunga yra sudariusi tokios apimties susitarimą. Šiame kontekste Komisija turėtų aktyviai nagrinėti galimas tarptautines priemones šiuo tikslu ir visų pirma siekti sudaryti abipusio pripažinimo susitarimus su trečiosiomis valstybėmis;
(128)
In line with the commonly established notion of substantial modification for products regulated by Union harmonisation legislation, it is appropriate that whenever a change occurs which may affect the compliance of a high-risk AI system with this Regulation (e.g. change of operating system or software architecture), or when the intended purpose of the system changes, that AI system should be considered to be a new AI system which should undergo a new conformity assessment. However, changes occurring to the algorithm and the performance of AI systems which continue to ‘learn’ after being placed on the market or put into service, namely automatically adapting how functions are carried out, should not constitute a substantial modification, provided that those changes have been pre-determined by the provider and assessed at the moment of the conformity assessment.
(128)
laikantis bendrai nustatytos gaminių, reglamentuojamų pagal Sąjungos derinamuosius teisės aktus, esminio pakeitimo sąvokos, tinkama, kad visais atvejais, kai įvyksta pokytis, kuris gali turėti įtakos didelės rizikos DI sistemos atitikčiai šiam reglamentui (pvz., operacinės sistemos ar programinės įrangos architektūros pakeitimas), arba pasikeitus sistemos numatytajai paskirčiai, ta DI sistema turėtų būti laikoma nauja DI sistema, kurios atitiktis turėtų būti įvertinta iš naujo. Tačiau DI sistemų, kurios toliau „mokosi“ po to, kai buvo pateiktos rinkai arba pradėtos naudoti (t. y. automatiškai prisitaiko vykdant funkcijas), algoritmo ir veikimo efektyvumo pokyčiai neturėtų būti laikomi esminiu pakeitimu, jeigu tuos pakeitimus tiekėjas numatė iš anksto ir jie buvo įvertinti atitikties vertinimo metu;
(129)
High-risk AI systems should bear the CE marking to indicate their conformity with this Regulation so that they can move freely within the internal market. For high-risk AI systems embedded in a product, a physical CE marking should be affixed, and may be complemented by a digital CE marking. For high-risk AI systems only provided digitally, a digital CE marking should be used. Member States should not create unjustified obstacles to the placing on the market or the putting into service of high-risk AI systems that comply with the requirements laid down in this Regulation and bear the CE marking.
(129)
kad didelės rizikos DI sistemos galėtų laisvai judėti vidaus rinkoje, jos turėtų būti ženklinamos CE ženklu, iš kurio būtų matyti, kad jos atitinka šį reglamentą. Didelės rizikos DI sistemos, integruotos į gaminį, turėtų būti fiziškai ženklinamos CE ženklu, kuris gali būti papildytas skaitmeniniu CE ženklu. Didelės rizikos DI sistemų, kurios teikiamos tik skaitmenine forma, atveju turėtų būti naudojamas skaitmeninis CE ženklas. Valstybės narės neturėtų sudaryti nepagrįstų kliūčių pateikti rinkai ar pradėti naudoti didelės rizikos DI sistemas, kurios atitinka šiame reglamente nustatytus reikalavimus ir yra paženklintos CE ženklu;
(130)
Under certain conditions, rapid availability of innovative technologies may be crucial for health and safety of persons, the protection of the environment and climate change and for society as a whole. It is thus appropriate that under exceptional reasons of public security or protection of life and health of natural persons, environmental protection and the protection of key industrial and infrastructural assets, market surveillance authorities could authorise the placing on the market or the putting into service of AI systems which have not undergone a conformity assessment. In duly justified situations, as provided for in this Regulation, law enforcement authorities or civil protection authorities may put a specific high-risk AI system into service without the authorisation of the market surveillance authority, provided that such authorisation is requested during or after the use without undue delay.
(130)
tam tikromis sąlygomis galimybė greitai pasinaudoti inovatyviomis technologijomis gali būti labai svarbi asmenų sveikatos bei saugos, aplinkos apsaugos ir klimato kaitos požiūriu ir visai visuomenei. Todėl išimtinėmis su viešuoju saugumu ar fizinių asmenų gyvybės ir sveikatos apsauga, aplinkos apsauga ir itin svarbių pramonės bei infrastruktūros objektų apsauga susijusiomis aplinkybėmis rinkos priežiūros institucijos galėtų leisti pateikti rinkai arba pradėti naudoti DI sistemas, kurių atitikties vertinimas nebuvo atliktas. Tinkamai pagrįstais atvejais, kaip numatyta šiame reglamente, teisėsaugos institucijos arba civilinės saugos institucijos gali pradėti naudoti konkrečią didelės rizikos DI sistemą be rinkos priežiūros institucijos leidimo, jei tokio leidimo nepagrįstai nedelsiant paprašoma naudojimo metu arba po panaudojimo;
(131)
In order to facilitate the work of the Commission and the Member States in the AI field as well as to increase the transparency towards the public, providers of high-risk AI systems other than those related to products falling within the scope of relevant existing Union harmonisation legislation, as well as providers who consider that an AI system listed in the high-risk use cases in an annex to this Regulation is not high-risk on the basis of a derogation, should be required to register themselves and information about their AI system in an EU database, to be established and managed by the Commission. Before using an AI system listed in the high-risk use cases in an annex to this Regulation, deployers of high-risk AI systems that are public authorities, agencies or bodies, should register themselves in such database and select the system that they envisage to use. Other deployers should be entitled to do so voluntarily. This section of the EU database should be publicly accessible, free of charge, the information should be easily navigable, understandable and machine-readable. The EU database should also be user-friendly, for example by providing search functionalities, including through keywords, allowing the general public to find relevant information to be submitted upon the registration of high-risk AI systems and on the use case of high-risk AI systems, set out in an annex to this Regulation, to which the high-risk AI systems correspond. Any substantial modification of high-risk AI systems should also be registered in the EU database. For high-risk AI systems in the area of law enforcement, migration, asylum and border control management, the registration obligations should be fulfilled in a secure non-public section of the EU database. Access to the secure non-public section should be strictly limited to the Commission as well as to market surveillance authorities with regard to their national section of that database. High-risk AI systems in the area of critical infrastructure should only be registered at national level. The Commission should be the controller of the EU database, in accordance with Regulation (EU) 2018/1725. In order to ensure the full functionality of the EU database, when deployed, the procedure for setting the database should include the development of functional specifications by the Commission and an independent audit report. The Commission should take into account cybersecurity risks when carrying out its tasks as data controller on the EU database. In order to maximise the availability and use of the EU database by the public, the EU database, including the information made available through it, should comply with requirements under the Directive (EU) 2019/882.
(131)
siekiant palengvinti Komisijos ir valstybių narių darbą DI srityje, taip pat suteikti daugiau skaidrumo visuomenei, turėtų būti reikalaujama, kad didelės rizikos DI sistemų, išskyrus DI sistemas, susijusias su gaminiais, kuriems taikomi atitinkami esami Sąjungos derinamieji teisės aktai, tiekėjai, taip pat tiekėjai, kurie laiko, kad į šio reglamento priede pateiktą didelės rizikos atvejų sąrašą įtraukta DI sistema nėra didelės rizikos sistema remiantis nukrypti leidžiančia nuostata, įsiregistruotų patys ir įregistruotų informaciją apie savo didelės rizikos DI sistemą ES duomenų bazėje, kurią sukurs ir tvarkys Komisija. Prieš naudodami į šio reglamento priede pateiktą didelės rizikos atvejų sąrašą įtrauktą DI sistemą, didelės rizikos DI sistemų diegėjai, kurie yra viešojo sektoriaus institucijos, agentūros ar įstaigos, turėtų užsiregistruoti tokioje duomenų bazėje ir pasirinkti sistemą, kurią jie numato naudoti. Kiti diegėjai turėtų turėti teisę tai daryti savanoriškai. Ši ES duomenų bazės dalis turėtų būti prieinama viešai, nemokamai, informacija turėtų būti lengvai naršoma, suprantama ir kompiuterio skaitoma. ES duomenų bazė taip pat turėtų būti patogi naudoti, pavyzdžiui, suteikiant paieškos funkcijas, be kita ko, naudojant raktinius žodžius, kad plačioji visuomenė galėtų rasti aktualią informaciją, kuri turi būti pateikiama registruojant didelės rizikos DI sistemas, ir informaciją apie didelės rizikos DI sistemų, nurodytų šio reglamento priede, kurias atitinka didelės rizikos DI sistemos, panaudojimo atvejį. Visi esminiai didelės rizikos DI sistemų pakeitimai taip pat turėtų būti registruojami ES duomenų bazėje. Didelės rizikos DI sistemų teisėsaugos, migracijos, prieglobsčio ir sienų kontrolės valdymo srityse atveju registravimo pareigos turėtų būti vykdomos saugioje neviešoje ES duomenų bazės dalyje. Prieiga prie saugios neviešos dalies turėtų būti suteikiama tik Komisijai ir rinkos priežiūros institucijoms, kiek tai susiję su jų nacionaline tos duomenų bazės dalimi. Didelės rizikos DI sistemos ypatingos svarbos infrastruktūros srityje turėtų būti registruojamos tik nacionaliniu lygmeniu. Komisija turėtų būti ES duomenų bazės valdytoja, laikantis Europos Parlamento ir Tarybos reglamento (ES) 2018/1725. Siekiant užtikrinti visapusišką įdiegtos ES duomenų bazės veikimą, pagal duomenų bazės kūrimo procedūrą turėtų būti numatyta, kad Komisija parengs funkcines specifikacijas ir kad bus parengta nepriklausomo audito ataskaita. Komisija, vykdydama savo, kaip ES duomenų valdytojos, užduotis, turėtų atsižvelgti į kibernetinio saugumo riziką. Siekiant užtikrinti, kad ES duomenų bazė būtų kuo labiau prieinama visuomenei ir kuo plačiau jos naudojama, ES duomenų bazė, įskaitant joje pateikiamą informaciją, turėtų atitikti Direktyvos (ES) 2019/882 reikalavimus;
(132)
Certain AI systems intended to interact with natural persons or to generate content may pose specific risks of impersonation or deception irrespective of whether they qualify as high-risk or not. In certain circumstances, the use of these systems should therefore be subject to specific transparency obligations without prejudice to the requirements and obligations for high-risk AI systems and subject to targeted exceptions to take into account the special need of law enforcement. In particular, natural persons should be notified that they are interacting with an AI system, unless this is obvious from the point of view of a natural person who is reasonably well-informed, observant and circumspect taking into account the circumstances and the context of use. When implementing that obligation, the characteristics of natural persons belonging to vulnerable groups due to their age or disability should be taken into account to the extent the AI system is intended to interact with those groups as well. Moreover, natural persons should be notified when they are exposed to AI systems that, by processing their biometric data, can identify or infer the emotions or intentions of those persons or assign them to specific categories. Such specific categories can relate to aspects such as sex, age, hair colour, eye colour, tattoos, personal traits, ethnic origin, personal preferences and interests. Such information and notifications should be provided in accessible formats for persons with disabilities.
(132)
tam tikros DI sistemos, kurių paskirtis yra sąveikauti su fiziniais asmenimis arba generuoti turinį, gali kelti konkrečią apsimetinėjimo arba apgaulės riziką, nepriklausomai nuo to, ar jos priskiriamos didelės rizikos DI sistemoms. Todėl šių sistemų naudojimui tam tikromis aplinkybėmis turėtų būti taikomos konkrečios skaidrumo pareigos, nedarant poveikio dėl didelės rizikos DI sistemų taikomiems reikalavimams ir pareigoms, taip pat taikomos tikslinės išimtys siekiant atsižvelgti į specifinius teisėsaugos poreikius. Visų pirma fiziniai asmenys turėtų būti informuojami apie tai, kad bendrauja su DI sistema, nebent tai yra akivaizdu fizinio asmens, kuris yra pakankamai informuotas, pastabus ir nuovokus, požiūriu, atsižvelgiant į aplinkybes ir naudojimo kontekstą. Vykdant tą pareigą, reikėtų atsižvelgti į fizinių asmenų, dėl jų amžiaus ar negalios priklausančių pažeidžiamoms grupėms, savybes tiek, kiek DI sistema taip pat skirta bendrauti su tomis grupėmis. Be to, fizinius asmenis reikėtų informuoti apie tai, kad jie sąveikauja su DI sistemomis, kurios, tvarkydamos jų biometrinius duomenis, gali nustatyti ar nuspėti tų asmenų emocijas ar ketinimus arba priskirti juos konkrečioms kategorijoms. Tokios konkrečios kategorijos gali būti susijusios su tokiais aspektais kaip lytis, amžius, plaukų spalva, akių spalva, tatuiruotės, asmeniniai požymiai, etninė kilmė, asmeniniai pomėgiai ir interesai. Tokia informacija ir pranešimai turėtų būti teikiami neįgaliesiems prieinama forma;
(133)
A variety of AI systems can generate large quantities of synthetic content that becomes increasingly hard for humans to distinguish from human-generated and authentic content. The wide availability and increasing capabilities of those systems have a significant impact on the integrity and trust in the information ecosystem, raising new risks of misinformation and manipulation at scale, fraud, impersonation and consumer deception. In light of those impacts, the fast technological pace and the need for new methods and techniques to trace origin of information, it is appropriate to require providers of those systems to embed technical solutions that enable marking in a machine readable format and detection that the output has been generated or manipulated by an AI system and not a human. Such techniques and methods should be sufficiently reliable, interoperable, effective and robust as far as this is technically feasible, taking into account available techniques or a combination of such techniques, such as watermarks, metadata identifications, cryptographic methods for proving provenance and authenticity of content, logging methods, fingerprints or other techniques, as may be appropriate. When implementing this obligation, providers should also take into account the specificities and the limitations of the different types of content and the relevant technological and market developments in the field, as reflected in the generally acknowledged state of the art. Such techniques and methods can be implemented at the level of the AI system or at the level of the AI model, including general-purpose AI models generating content, thereby facilitating fulfilment of this obligation by the downstream provider of the AI system. To remain proportionate, it is appropriate to envisage that this marking obligation should not cover AI systems performing primarily an assistive function for standard editing or AI systems not substantially altering the input data provided by the deployer or the semantics thereof.
(133)
įvairios DI sistemos gali sugeneruoti didelį kiekį sintetinio turinio, kurį žmonėms tampa vis sunkiau atskirti nuo žmogaus sukurto ir autentiško turinio. Platus tų sistemų prieinamumas ir didėjantys jų pajėgumai daro reikšmingą poveikį informacinės ekosistemos vientisumui ir patikimumui, todėl kyla nauja klaidingos informacijos ir plataus masto manipuliavimo, sukčiavimo, apsimetimo kitais asmenimis ir vartotojų apgaulės rizika. Atsižvelgiant į tą poveikį, sparčius technologijų pokyčius ir poreikį taikyti naujus metodus ir metodus informacijos kilmei atsekti, yra tikslinga reikalauti, kad tų sistemų tiekėjai integruotų techninius sprendimus, leidžiančius kompiuterio skaitomu formatu pažymėti ir nustatyti, kad išvedinį sugeneravo arba gavo atlikusi manipuliacijas DI sistema, o ne žmogus. Tokie metodai ir būdai turėtų būti pakankamai tvirti, sąveikūs, veiksmingi ir patikimi, kiek tai techniškai įmanoma, atsižvelgiant į turimus metodus arba tokių metodų derinį, pavyzdžiui, kai gali būti tinkama, vandens ženklus, metaduomenų identifikavimą, kriptografinius metodus turinio kilmei ir autentiškumui įrodyti, registravimo metodus, pirštų atspaudus ar kitas priemones. Įgyvendindami šią pareigą, tiekėjai turėtų taip pat atsižvelgti į įvairių rūšių turinio ypatybes ir ribotumus, taip pat į atitinkamus technologijų ir rinkos pokyčius šioje srityje, kuriuos atspindi visuotinai pripažinti technikos laimėjimai. Tokie metodai ir būdai gali būti įgyvendinami DI sistemos lygmeniu arba DI modelio lygmeniu, įskaitant bendrosios paskirties DI modelius, generuojančius turinį, taip palengvinant DI sistemos tolesnės grandies tiekėjui vykdyti šią pareigą. Siekiant išlaikyti proporcingumą, yra tikslinga numatyti, kad ši ženklinimo pareiga neturėtų būti taikoma DI sistemoms, kurios visų pirma atlieka pagalbinę standartinio redagavimo funkciją, arba DI sistemoms, kurios iš esmės nekeičia diegėjo pateiktų įvesties duomenų arba jų semantikos;
(134)
Further to the technical solutions employed by the providers of the AI system, deployers who use an AI system to generate or manipulate image, audio or video content that appreciably resembles existing persons, objects, places, entities or events and would falsely appear to a person to be authentic or truthful (deep fakes), should also clearly and distinguishably disclose that the content has been artificially created or manipulated by labelling the AI output accordingly and disclosing its artificial origin. Compliance with this transparency obligation should not be interpreted as indicating that the use of the AI system or its output impedes the right to freedom of expression and the right to freedom of the arts and sciences guaranteed in the Charter, in particular where the content is part of an evidently creative, satirical, artistic, fictional or analogous work or programme, subject to appropriate safeguards for the rights and freedoms of third parties. In those cases, the transparency obligation for deep fakes set out in this Regulation is limited to disclosure of the existence of such generated or manipulated content in an appropriate manner that does not hamper the display or enjoyment of the work, including its normal exploitation and use, while maintaining the utility and quality of the work. In addition, it is also appropriate to envisage a similar disclosure obligation in relation to AI-generated or manipulated text to the extent it is published with the purpose of informing the public on matters of public interest unless the AI-generated content has undergone a process of human review or editorial control and a natural or legal person holds editorial responsibility for the publication of the content.
(134)
diegėjai, kurie naudoja DI sistemą, kad sugeneruotų ar atlikę manipuliacijas gautų judamo ar nejudamo vaizdo arba garso turinį, kuris labai panašus į realius asmenis, daiktus, vietas, subjektus ar įvykius ir kurį asmuo gali klaidingai palaikyti autentišku ar tikrovišku (sintetinė sankaita), turėtų atskleisti ne tik techninius sprendimus, kuriuos naudoja DI sistemos tiekėjai, bet taip pat turėtų aiškiai ir matomai atskleisti, kad turinys buvo dirbtinai sukurtas arba gautas atlikus manipuliacijas, atitinkamai paženklindami DI išvedinį ir atskleisdami informaciją apie jo dirbtinę kilmę. Skaidrumo pareigos vykdymas neturėtų būti aiškinamas taip, kad DI sistemos ar jos išvedinio naudojimas trukdo įgyvendinti teisę į saviraiškos laisvę ir teisę į menų ir mokslo laisvę, garantuojamas Chartijoje, visų pirma tais atvejais, kai turinys yra akivaizdžiai kūrybinio, satyrinio, meninio, išgalvoto ar analogiško kūrinio ar programos dalis, taikant tinkamas trečiųjų šalių teisių ir laisvių apsaugos priemones. Tokiais atvejais šiame reglamente nustatyta skaidrumo pareiga, kiek tai susiję su sintetine sankaita, apima tik atskleidimą, kad esama tokio sugeneruoto ar gauto atlikus manipuliacijas turinio, tinkamu būdu, kuris nekliudytų rodyti kūrinį ar juo mėgautis, įskaitant įprastą jo naudojimą, kartu išlaikant kūrinio naudingumą ir kokybę. Be to, taip pat tikslinga numatyti panašią atskleidimo pareigą, susijusią su DI sugeneruotu arba gautu atlikus manipuliacijas tekstu, jei jis skelbiamas siekiant informuoti visuomenę viešojo intereso klausimais, išskyrus atvejus, kai dirbtinio intelekto sugeneruotam turiniui taikomas žmogaus atliekamos peržiūros ar redakcinės kontrolės procesas arba kai fizinis ar juridinis asmuo prisiima redakcinę atsakomybę dėl turinio paskelbimo;
(135)
Without prejudice to the mandatory nature and full applicability of the transparency obligations, the Commission may also encourage and facilitate the drawing up of codes of practice at Union level to facilitate the effective implementation of the obligations regarding the detection and labelling of artificially generated or manipulated content, including to support practical arrangements for making, as appropriate, the detection mechanisms accessible and facilitating cooperation with other actors along the value chain, disseminating content or checking its authenticity and provenance to enable the public to effectively distinguish AI-generated content.
(135)
nedarant poveikio privalomam skaidrumo pareigų pobūdžiui ir visapusiškam jų taikymui, Komisija taip pat gali skatinti ir palengvinti Sąjungos lygmens praktikos kodeksų rengimą, kad būtų sudarytos palankesnės sąlygos veiksmingai įgyvendinti pareigas, susijusias su dirbtinai sugeneruoto ar gauto atlikus manipuliacijas turinio aptikimu ir ženklinimu, be kita ko, remti praktinę tvarką, pagal kurią atitinkamai būtų prieinami aptikimo mechanizmai ir palengvintas bendradarbiavimas su kitais vertės grandinės dalyviais, platinant turinį arba tikrinant jo autentiškumą ir kilmę, kad visuomenė galėtų veiksmingai atskirti DI sugeneruotą turinį;
(136)
The obligations placed on providers and deployers of certain AI systems in this Regulation to enable the detection and disclosure that the outputs of those systems are artificially generated or manipulated are particularly relevant to facilitate the effective implementation of Regulation (EU) 2022/2065. This applies in particular as regards the obligations of providers of very large online platforms or very large online search engines to identify and mitigate systemic risks that may arise from the dissemination of content that has been artificially generated or manipulated, in particular the risk of the actual or foreseeable negative effects on democratic processes, civic discourse and electoral processes, including through disinformation. The requirement to label content generated by AI systems under this Regulation is without prejudice to the obligation in Article 16(6) of Regulation (EU) 2022/2065 for providers of hosting services to process notices on illegal content received pursuant to Article 16(1) of that Regulation and should not influence the assessment and the decision on the illegality of the specific content. That assessment should be performed solely with reference to the rules governing the legality of the content.
(136)
šiame reglamente tam tikrų DI sistemų tiekėjams ir diegėjams nustatytos pareigos, siekiant sudaryti sąlygas nustatyti ir atskleisti tai, kad tų sistemų išvediniai yra dirbtinai sugeneruoti arba gauti atlikus manipuliacijas, yra itin aktualios siekiant palengvinti veiksmingą Reglamento (ES) 2022/2065 įgyvendinimą. Tai visų pirma taikoma labai didelių interneto platformų arba labai didelių interneto paieškos sistemų paslaugų teikėjų pareigoms nustatyti ir sumažinti sisteminę riziką, galinčią kilti dėl turinio, kuris buvo dirbtinai sugeneruotas ar gautas atlikus manipuliacijas, sklaidos, visų pirma faktinio ar numatomo neigiamo poveikio demokratiniams procesams, pilietiniam diskursui ir rinkimų procesams, be kita ko, pasitelkiant dezinformaciją, riziką. Reikalavimas ženklinti DI sistemų sugeneruotą turinį pagal šį reglamentą nedaro poveikio Reglamento (ES) 2022/2065 16 straipsnio 6 dalyje nustatytai prieglobos paslaugų teikėjų pareigai tvarkyti pranešimus apie neteisėtą turinį, gautus pagal to reglamento 16 straipsnio 1 dalį, ir neturėtų daryti poveikio vertinimui ir sprendimui dėl konkretaus turinio neteisėtumo. Tas vertinimas turėtų būti atliekamas atsižvelgiant tik į turinio teisėtumą reglamentuojančias taisykles;
(137)
Compliance with the transparency obligations for the AI systems covered by this Regulation should not be interpreted as indicating that the use of the AI system or its output is lawful under this Regulation or other Union and Member State law and should be without prejudice to other transparency obligations for deployers of AI systems laid down in Union or national law.
(137)
pirmiau nurodytų skaidrumo pareigų, susijusių su DI sistemomis, kurioms taikomas šis reglamentas, vykdymas neturėtų būti aiškinamas taip, kad DI sistemos ar jos išvedinių naudojimas yra teisėtas pagal šį reglamentą arba kitą Sąjungos ir valstybės narės teisę, ir neturėtų daryti poveikio kitoms Sąjungos ar nacionalinėje teisėje nustatytoms DI sistemų diegėjams taikomoms skaidrumo pareigoms;
(138)
AI is a rapidly developing family of technologies that requires regulatory oversight and a safe and controlled space for experimentation, while ensuring responsible innovation and integration of appropriate safeguards and risk mitigation measures. To ensure a legal framework that promotes innovation, is future-proof and resilient to disruption, Member States should ensure that their national competent authorities establish at least one AI regulatory sandbox at national level to facilitate the development and testing of innovative AI systems under strict regulatory oversight before these systems are placed on the market or otherwise put into service. Member States could also fulfil this obligation through participating in already existing regulatory sandboxes or establishing jointly a sandbox with one or more Member States’ competent authorities, insofar as this participation provides equivalent level of national coverage for the participating Member States. AI regulatory sandboxes could be established in physical, digital or hybrid form and may accommodate physical as well as digital products. Establishing authorities should also ensure that the AI regulatory sandboxes have the adequate resources for their functioning, including financial and human resources.
(138)
DI yra sparčiai besivystanti technologijų grupė, kuriai reikalinga reglamentavimo priežiūra ir saugi ir kontroliuojama eksperimentavimo erdvė, kartu užtikrinant atsakingas inovacijas ir tinkamų apsaugos ir rizikos mažinimo priemonių integraciją. Siekiant užtikrinti inovacijas skatinančią, į ateitį orientuotą ir sutrikdymams atsparią teisinę sistemą, valstybės narės turėtų užtikrinti, kad jų nacionalinės kompetentingos institucijos sukurtų bent vieną apribotą bandomąją DI reglamentavimo aplinką nacionaliniu lygmeniu, kad būtų palengvintas naujoviškų DI sistemų kūrimas ir bandymas taikant griežtą reglamentavimo priežiūrą iki šių sistemų pateikimo rinkai arba pradėjimo naudoti. Valstybės narės taip pat galėtų šią pareigą vykdyti dalyvaudamos jau veikiančiose apribotose bandomosiose reglamentavimo aplinkose arba kartu su vienos ar daugiau valstybių narių kompetentingomis institucijomis sukurdamos apribotą bandomąją aplinką, jei tokiu dalyvavimu dalyvaujančioms valstybėms narėms užtikrinama lygiaverčio lygio nacionalinė aprėptis. DI apribotos bandomosios reglamentavimo aplinkos galėtų būti sukurtos fizine, skaitmenine ar mišria forma ir gali apimti fizinius ir skaitmeninius gaminius. Steigiamosios institucijos taip pat turėtų užtikrinti, kad DI apribotose bandomosiose reglamentavimo aplinkose būtų pakankamai išteklių jų veikimui, įskaitant finansinius ir žmogiškuosius išteklius;
(139)
The objectives of the AI regulatory sandboxes should be to foster AI innovation by establishing a controlled experimentation and testing environment in the development and pre-marketing phase with a view to ensuring compliance of the innovative AI systems with this Regulation and other relevant Union and national law. Moreover, the AI regulatory sandboxes should aim to enhance legal certainty for innovators and the competent authorities’ oversight and understanding of the opportunities, emerging risks and the impacts of AI use, to facilitate regulatory learning for authorities and undertakings, including with a view to future adaptions of the legal framework, to support cooperation and the sharing of best practices with the authorities involved in the AI regulatory sandbox, and to accelerate access to markets, including by removing barriers for SMEs, including start-ups. AI regulatory sandboxes should be widely available throughout the Union, and particular attention should be given to their accessibility for SMEs, including start-ups. The participation in the AI regulatory sandbox should focus on issues that raise legal uncertainty for providers and prospective providers to innovate, experiment with AI in the Union and contribute to evidence-based regulatory learning. The supervision of the AI systems in the AI regulatory sandbox should therefore cover their development, training, testing and validation before the systems are placed on the market or put into service, as well as the notion and occurrence of substantial modification that may require a new conformity assessment procedure. Any significant risks identified during the development and testing of such AI systems should result in adequate mitigation and, failing that, in the suspension of the development and testing process. Where appropriate, national competent authorities establishing AI regulatory sandboxes should cooperate with other relevant authorities, including those supervising the protection of fundamental rights, and could allow for the involvement of other actors within the AI ecosystem such as national or European standardisation organisations, notified bodies, testing and experimentation facilities, research and experimentation labs, European Digital Innovation Hubs and relevant stakeholder and civil society organisations. To ensure uniform implementation across the Union and economies of scale, it is appropriate to establish common rules for the AI regulatory sandboxes’ implementation and a framework for cooperation between the relevant authorities involved in the supervision of the sandboxes. AI regulatory sandboxes established under this Regulation should be without prejudice to other law allowing for the establishment of other sandboxes aiming to ensure compliance with law other than this Regulation. Where appropriate, relevant competent authorities in charge of those other regulatory sandboxes should consider the benefits of using those sandboxes also for the purpose of ensuring compliance of AI systems with this Regulation. Upon agreement between the national competent authorities and the participants in the AI regulatory sandbox, testing in real world conditions may also be operated and supervised in the framework of the AI regulatory sandbox.
(139)
apribotų bandomųjų DI reglamentavimo aplinkų tikslai turėtų būti DI inovacijų skatinimas, kūrimo etapu ir etapu prieš pateikimą rinkai nustatant kontroliuojamą eksperimentavimo ir bandymų aplinką, siekiant užtikrinti naujoviškų DI sistemų atitiktį šiam reglamentui ir kitiems susijusiems Sąjungos ir valstybių narių teisės aktams. Be to, bandomosios DI reglamentavimo aplinkomis turėtų būti siekiama novatorių teisinio tikrumo ir kompetentingų institucijų priežiūros ir supratimo apie DI naudojimo galimybes, naują riziką ir poveikį didinimas, palankesnių sąlygų institucijoms ir įmonėms mokytis reglamentavimo srityje sudarymas, be kita ko, atsižvelgiant į būsimus teisinės sistemos pritaikymus, bendradarbiavimo ir dalijimosi geriausios praktikos pavyzdžiais su institucijomis, susijusiomis su DI apribota bandomąja reglamentavimo aplinka, rėmimas, taip pat patekimo į rinką spartinimas, be kita ko, kliūčių mažosioms ir vidutinėms įmonėms (MVĮ), įskaitant startuolius, pašalinimas. DI apribotos bandomosios reglamentavimo aplinkos turėtų būti plačiai prieinamos visoje Sąjungoje, o ypatingas dėmesys turėtų būti skiriamas jų prieinamumui MVĮ, įskaitant startuolius. Dalyvaujant apribotoje bandomojoje DI reglamentavimo aplinkoje daugiausia dėmesio turėtų būti skiriama klausimams, dėl kurių tiekėjams ir galimiems tiekėjams kyla teisinis netikrumas siekiant diegti inovacijas, eksperimentuoti su DI Sąjungoje ir prisidėti prie faktiniais duomenimis grindžiamo mokymosi reglamentavimo srityje. Todėl DI sistemų priežiūra apribotoje bandomojoje DI reglamentavimo aplinkoje turėtų apimti jų kūrimą, mokymą, bandymą ir validavimą prieš pateikiant sistemas rinkai arba pradedant jas naudoti, taip pat esminio pakeitimo, dėl kurio gali prireikti naujos atitikties vertinimo procedūros, sąvoką ir pasireiškimą. Bet kokia reikšminga rizika, nustatyta kuriant ir bandant tokias DI sistemas, turėtų būti atitinkamai sumažinama, o jeigu tai nepavyksta, kūrimo ir bandymo procesas turėtų būti sustabdomas. Kai tinkama, nacionalinės kompetentingos institucijos, kuriančios apribotas bandomąsias DI reglamentavimo aplinkas, turėtų bendradarbiauti su kitomis atitinkamomis institucijomis, įskaitant prižiūrinčias pagrindinių teisių apsaugą, ir galėtų sudaryti sąlygas dalyvauti kitiems DI ekosistemos dalyviams, pavyzdžiui, nacionalinėms ar Europos standartizacijos organizacijoms, notifikuotosioms įstaigoms, bandymų ir eksperimentavimo infrastruktūros atstovams, mokslinių tyrimų ir eksperimentavimo laboratorijoms, Europos skaitmeninių inovacijų centrams, atitinkamiems suinteresuotiesiems subjektams ir pilietinės visuomenės organizacijoms. Kad būtų užtikrintas vienodas įgyvendinimas visoje Sąjungoje ir masto ekonomija, yra tinkama sukurti bendras DI apribotų bandomųjų reglamentavimo aplinkų įgyvendinimo taisykles ir atitinkamų institucijų, dalyvaujančių vykdant apribotų bandomųjų aplinkų priežiūrą, bendradarbiavimo sistemą. Pagal šį reglamentą sukurtos DI apribotos bandomosios reglamentavimo aplinkos neturėtų daryti poveikio kitai teisei, pagal kurią leidžiama sukurti kitas apribotas bandomąsias aplinkas, kuriomis siekiama užtikrinti atitiktį kitiems teisės aktams nei šis reglamentas. Kai tinkama, atitinkamos kompetentingos institucijos, atsakingos už tas kitas apribotas bandomąsias reglamentavimo aplinkas, turėtų apsvarstyti tų apribotų bandomųjų aplinkų naudojimo naudą, be kita ko, siekiant užtikrinti DI sistemų atitiktį šiam reglamentui. Nacionalinėms kompetentingoms institucijoms ir apribotos bandomosios DI reglamentavimo aplinkos dalyviams susitarus, bandymai realiomis sąlygomis taip pat gali būti atliekami ir prižiūrimi apribotos bandomosios DI reglamentavimo aplinkos sąlygomis;
(140)
This Regulation should provide the legal basis for the providers and prospective providers in the AI regulatory sandbox to use personal data collected for other purposes for developing certain AI systems in the public interest within the AI regulatory sandbox, only under specified conditions, in accordance with Article 6(4) and Article 9(2), point (g), of Regulation (EU) 2016/679, and Articles 5, 6 and 10 of Regulation (EU) 2018/1725, and without prejudice to Article 4(2) and Article 10 of Directive (EU) 2016/680. All other obligations of data controllers and rights of data subjects under Regulations (EU) 2016/679 and (EU) 2018/1725 and Directive (EU) 2016/680 remain applicable. In particular, this Regulation should not provide a legal basis in the meaning of Article 22(2), point (b) of Regulation (EU) 2016/679 and Article 24(2), point (b) of Regulation (EU) 2018/1725. Providers and prospective providers in the AI regulatory sandbox should ensure appropriate safeguards and cooperate with the competent authorities, including by following their guidance and acting expeditiously and in good faith to adequately mitigate any identified significant risks to safety, health, and fundamental rights that may arise during the development, testing and experimentation in that sandbox.
(140)
šiuo reglamentu turėtų būti nustatytas apribotos bandomosios DI reglamentavimo aplinkos tiekėjams ir galimiems tiekėjams skirtas teisinis pagrindas dėl asmens duomenų, kurie buvo surinkti kitais tikslais, naudojimo, siekiant apribotoje bandomojoje reglamentavimo DI aplinkoje sukurti tam tikras su viešuoju interesu susijusias DI sistemas, tik nurodytomis sąlygomis, laikantis Reglamento (ES) 2016/679 6 straipsnio 4 dalies bei 9 straipsnio 2 dalies g punkto ir Reglamento (ES) 2018/1725 5, 6 ir 10 straipsnių, nedarant poveikio Direktyvos (ES) 2016/680 4 straipsnio 2 daliai ir 10 straipsniui. Visos kitos duomenų valdytojų pareigos ir duomenų subjektų teisės pagal Reglamentą (ES) 2016/679, Reglamentą (ES) 2018/1725 ir Direktyvą (ES) 2016/680 taikomos toliau. Visų pirma šiuo reglamentu neturėtų būti nustatytas teisinis pagrindas, kaip tai suprantama Reglamento (ES) 2016/679 22 straipsnio 2 dalies b punkte ir Reglamento (ES) 2018/1725 24 straipsnio 2 dalies b punkte. Apribotoje DI bandomojoje aplinkoje tiekėjai ir galimi tiekėjai turėtų užtikrinti tinkamas apsaugos priemones ir bendradarbiauti su kompetentingomis institucijomis, be kita ko, vadovautis jų rekomendacijomis ir veikti greitai bei sąžiningai, kad tinkamai sumažintų bet kokią nustatytą reikšmingą riziką saugumui, sveikatai, aplinkai ir pagrindinėms teisėms, kuri gali kilti kuriant, vykdant bandymą ir eksperimentuojant toje apribotoje bandomojoje aplinkoje;
(141)
In order to accelerate the process of development and the placing on the market of the high-risk AI systems listed in an annex to this Regulation, it is important that providers or prospective providers of such systems may also benefit from a specific regime for testing those systems in real world conditions, without participating in an AI regulatory sandbox. However, in such cases, taking into account the possible consequences of such testing on individuals, it should be ensured that appropriate and sufficient guarantees and conditions are introduced by this Regulation for providers or prospective providers. Such guarantees should include, inter alia, requesting informed consent of natural persons to participate in testing in real world conditions, with the exception of law enforcement where the seeking of informed consent would prevent the AI system from being tested. Consent of subjects to participate in such testing under this Regulation is distinct from, and without prejudice to, consent of data subjects for the processing of their personal data under the relevant data protection law. It is also important to minimise the risks and enable oversight by competent authorities and therefore require prospective providers to have a real-world testing plan submitted to competent market surveillance authority, register the testing in dedicated sections in the EU database subject to some limited exceptions, set limitations on the period for which the testing can be done and require additional safeguards for persons belonging to certain vulnerable groups, as well as a written agreement defining the roles and responsibilities of prospective providers and deployers and effective oversight by competent personnel involved in the real world testing. Furthermore, it is appropriate to envisage additional safeguards to ensure that the predictions, recommendations or decisions of the AI system can be effectively reversed and disregarded and that personal data is protected and is deleted when the subjects have withdrawn their consent to participate in the testing without prejudice to their rights as data subjects under the Union data protection law. As regards transfer of data, it is also appropriate to envisage that data collected and processed for the purpose of testing in real-world conditions should be transferred to third countries only where appropriate and applicable safeguards under Union law are implemented, in particular in accordance with bases for transfer of personal data under Union law on data protection, while for non-personal data appropriate safeguards are put in place in accordance with Union law, such as Regulations (EU) 2022/868 (42) and (EU) 2023/2854 (43) of the European Parliament and of the Council.
(141)
siekiant paspartinti šio reglamento priede išvardytų didelės rizikos DI sistemų kūrimo ir pateikimo rinkai procesą, svarbu, kad tokių sistemų tiekėjai arba galimi tiekėjai taip pat galėtų pasinaudoti specialia tų sistemų bandymo realiomis sąlygomis tvarka, nedalyvaudami DI apribotoje bandomojoje reglamentavimo aplinkoje. Tačiau tokiais atvejais, atsižvelgiant į galimas tokių bandymų pasekmes asmenims, reikėtų užtikrinti, kad tiekėjams ar galimiems tiekėjams šiuo reglamentu būtų nustatytos tinkamos ir pakankamos garantijos bei sąlygos. Tokios garantijos, inter alia, turėtų apimti reikalavimą, kad fiziniai asmenys duotų informacija grindžiamą sutikimą dalyvauti bandymuose realiomis sąlygomis, išskyrus teisėsaugą, kai informacija grindžiamo sutikimo prašymas užkirstų kelią DI sistemai išbandyti. Subjektų sutikimas dalyvauti tokiuose bandymuose pagal šį reglamentą skiriasi nuo duomenų subjektų sutikimo tvarkyti jų asmens duomenis pagal atitinkamus duomenų apsaugos teisės aktus ir nedaro jam poveikio. Taip pat svarbu kuo labiau sumažinti riziką ir sudaryti sąlygas kompetentingoms institucijoms vykdyti priežiūrą, ir todėl reikalauti, kad galimi paslaugų teikėjai kompetentingai rinkos priežiūros institucijai pateiktų bandymo realiomis sąlygomis planą, registruotų bandymą specialiose ES duomenų bazės dalyse, taikant tam tikras ribotas išimtis, nustatytų laikotarpio, per kurį galima atlikti bandymą, trukmę, ir reikalauti papildomų apsaugos priemonių tam tikroms pažeidžiamoms grupėms priklausantiems asmenims, taip pat rašytinio susitarimo, kuriame būtų apibrėžti galimų tiekėjų ir diegėjų vaidmenys ir atsakomybė, ir veiksmingos kompetentingų darbuotojų, dalyvaujančių bandyme realiomis sąlygomis, atliekamos priežiūros. Be to, tikslinga numatyti papildomas apsaugos priemones siekiant užtikrinti, kad DI sistemos predikcijos, rekomendacijos ar sprendimai galėtų būti veiksmingai atšaukti ir į juos galėtų būti neatsižvelgiama, taip pat kad asmens duomenys būtų apsaugomi ir ištrinami, kai subjektai atšaukia savo sutikimą dalyvauti bandyme, nedarant poveikio jų, kaip duomenų subjektų, teisėms pagal Sąjungos duomenų apsaugos teisę. Kalbant apie duomenų perdavimą, taip pat tikslinga numatyti, kad bandymo realiomis sąlygomis tikslais surinkti ir tvarkomi duomenys turėtų būti perduodami trečiosioms valstybėms tik tais atvejais, kai įgyvendinamos tinkamos ir taikytinos pagal Sąjungos teisę apsaugos priemonės, visų pirma remiantis asmens duomenų perdavimo pagrindais pagal Sąjungos teisę duomenų apsaugos srityje, o ne asmens duomenų atžvilgiu nustatytos tinkamos apsaugos priemonės pagal Sąjungos teisę, pavyzdžiui, Europos Parlamento ir Tarybos reglamentus (ES) 2022/868 (42) ir (ES) 2023/2854 (43).
(142)
To ensure that AI leads to socially and environmentally beneficial outcomes, Member States are encouraged to support and promote research and development of AI solutions in support of socially and environmentally beneficial outcomes, such as AI-based solutions to increase accessibility for persons with disabilities, tackle socio-economic inequalities, or meet environmental targets, by allocating sufficient resources, including public and Union funding, and, where appropriate and provided that the eligibility and selection criteria are fulfilled, considering in particular projects which pursue such objectives. Such projects should be based on the principle of interdisciplinary cooperation between AI developers, experts on inequality and non-discrimination, accessibility, consumer, environmental, and digital rights, as well as academics.
(142)
siekiant užtikrinti, kad DI duotų visuomenei ir aplinkai naudingų rezultatų, valstybės narės raginamos remti ir skatinti mokslinius tyrimus ir plėtrą, susijusius su DI sprendimais, kuriais padedama siekti visuomenei ir aplinkai naudingų rezultatų, pavyzdžiui, DI grindžiamais sprendimais siekiant padidinti prieinamumą asmenims su negalia, kovoti su socialine ir ekonomine nelygybe ar pasiekti aplinkos tikslus, skiriant pakankamai išteklių, įskaitant viešąjį ir Sąjungos finansavimą, ir, kai tinkama, visų pirma atsižvelgiant į projektus, kuriais siekiama tokių tikslų, su sąlyga, kad tenkinami tinkamumo ir atrankos kriterijai. Tokie projektai turėtų būti grindžiami DI kūrėjų, nelygybės ir nediskriminavimo, prieigos, vartotojų, aplinkos ir skaitmeninių teisių specialistų, taip pat akademinės bendruomenės narių tarpdalykinio bendradarbiavimo principu;
(143)
In order to promote and protect innovation, it is important that the interests of SMEs, including start-ups, that are providers or deployers of AI systems are taken into particular account. To that end, Member States should develop initiatives, which are targeted at those operators, including on awareness raising and information communication. Member States should provide SMEs, including start-ups, that have a registered office or a branch in the Union, with priority access to the AI regulatory sandboxes provided that they fulfil the eligibility conditions and selection criteria and without precluding other providers and prospective providers to access the sandboxes provided the same conditions and criteria are fulfilled. Member States should utilise existing channels and where appropriate, establish new dedicated channels for communication with SMEs, including start-ups, deployers, other innovators and, as appropriate, local public authorities, to support SMEs throughout their development path by providing guidance and responding to queries about the implementation of this Regulation. Where appropriate, these channels should work together to create synergies and ensure homogeneity in their guidance to SMEs, including start-ups, and deployers. Additionally, Member States should facilitate the participation of SMEs and other relevant stakeholders in the standardisation development processes. Moreover, the specific interests and needs of providers that are SMEs, including start-ups, should be taken into account when notified bodies set conformity assessment fees. The Commission should regularly assess the certification and compliance costs for SMEs, including start-ups, through transparent consultations and should work with Member States to lower such costs. For example, translation costs related to mandatory documentation and communication with authorities may constitute a significant cost for providers and other operators, in particular those of a smaller scale. Member States should possibly ensure that one of the languages determined and accepted by them for relevant providers’ documentation and for communication with operators is one which is broadly understood by the largest possible number of cross-border deployers. In order to address the specific needs of SMEs, including start-ups, the Commission should provide standardised templates for the areas covered by this Regulation, upon request of the Board. Additionally, the Commission should complement Member States’ efforts by providing a single information platform with easy-to-use information with regards to this Regulation for all providers and deployers, by organising appropriate communication campaigns to raise awareness about the obligations arising from this Regulation, and by evaluating and promoting the convergence of best practices in public procurement procedures in relation to AI systems. Medium-sized enterprises which until recently qualified as small enterprises within the meaning of the Annex to Commission Recommendation 2003/361/EC (44) should have access to those support measures, as those new medium-sized enterprises may sometimes lack the legal resources and training necessary to ensure proper understanding of, and compliance with, this Regulation.
(143)
siekiant skatinti ir apsaugoti inovacijas, svarbu, kad būtų ypač atsižvelgiama į MVĮ, įskaitant startuolius, kurios yra DI sistemų tiekėjos ar diegėjos, interesus. Siekdamos to tikslo, valstybės narės turėtų rengti šiems veiklos vykdytojams skirtas iniciatyvas, įskaitant informuotumo didinimą ir informacijos perdavimą. Valstybės narės turėtų suteikti MVĮ, įskaitant startuolius, kurių registruota buveinė arba filialas yra Sąjungoje, pirmenybinę prieigą prie apribotų bandomųjų DI reglamentavimo aplinkų, jei jos tenkina tinkamumo sąlygas ir atrankos kriterijus, neužkertant kelio kitiems tiekėjams ir galimiems tiekėjams prieiti prie bandomųjų aplinkų, jei jie tenkina tas pačias sąlygas ir kriterijus. Valstybės narės turėtų naudotis esamais kanalais ir, kai tinkama, nustatyti naujus specialius bendravimo su MVĮ, įskaitant startuolius, diegėjais, kitais novatoriais ir atitinkamai su vietos valdžios institucijomis kanalus, kad padėtų MVĮ vystytis – kad būtų teikiamos rekomendacijos ir atsakoma į užklausas dėl šio reglamento įgyvendinimo. Kai tinkama, šie kanalai turėtų bendradarbiauti, kad sukurtų sinergiją ir užtikrintų, kad MVĮ, įskaitant startuolius, ir diegėjams teikiamos gairės būtų vienodos. Be to, valstybės narės turėtų sudaryti palankesnes sąlygas MVĮ ir kitiems atitinkamiems suinteresuotiesiems subjektams dalyvauti standartų rengimo procesuose. Be to, notifikuotosios įstaigos, nustatydamos atitikties vertinimo mokesčius, turėtų atsižvelgti į konkrečius tiekėjų, kurie yra MVĮ, įskaitant startuolius, interesus ir poreikius. Komisija turėtų reguliariai vertinti MVĮ, įskaitant startuolius, išlaidas dėl sertifikavimo ir atitikties, be kita ko, skaidriai konsultuodamasi, ir turėtų bendradarbiauti su valstybėmis narėmis siekiant sumažinti tokias išlaidas. Pavyzdžiui, tiekėjai ir kiti veiklos vykdytojai, visų pirma smulkieji, gali patirti didelių vertimo raštu išlaidų, susijusių su privalomais dokumentais ir bendravimu su institucijomis. Valstybės narės turėtų numatyti galimybę užtikrinti, kad viena iš jų nustatytų ir priimtinų kalbų, vartojamų atitinkamiems tiekėjams rengiant dokumentus ir bendraujant su veiklos vykdytojais, būtų plačiai suprantama kuo didesniam tarpvalstybinių diegėjų ratui. Siekdama atsižvelgti į konkrečius MVĮ, įskaitant startuolius, poreikius, Komisija Valdybos prašymu turėtų pateikti standartinius šablonus, skirtus sritims, kurioms taikomas šis reglamentas. Be to, Komisija turėtų papildyti valstybių narių pastangas suteikdama bendrą informacinę platformą, kurioje visiems tiekėjams ir diegėjams būtų teikiama paprasta naudoti informacija apie šį reglamentą, organizuodama tinkamas komunikacijos kampanijas, skirtas informuotumui apie šiame reglamente nustatytas pareigas didinti, taip pat vertindama ir skatindama su DI sistemomis susijusių viešųjų pirkimų procedūrų geriausios praktikos konvergenciją. Vidutinės įmonės, kurios iki neseniai buvo laikomos mažosiomis įmonėmis, kaip tai suprantama Komisijos rekomendacijos 2003/361/EB (44) priede, turėtų turėti galimybę naudotis tomis paramos priemonėmis, nes šioms naujoms vidutinėms įmonėms kartais gali trūkti teisinių išteklių ir mokymo, būtinų siekiant užtikrinti, kad šis reglamentas būtų tinkamai suprantamas ir jo būtų laikomasi.
(144)
In order to promote and protect innovation, the AI-on-demand platform, all relevant Union funding programmes and projects, such as Digital Europe Programme, Horizon Europe, implemented by the Commission and the Member States at Union or national level should, as appropriate, contribute to the achievement of the objectives of this Regulation.
(144)
siekiant skatinti ir apsaugoti inovacijas, reikminė DI platforma, visos atitinkamos Sąjungos finansavimo programos ir projektai, pavyzdžiui, Skaitmeninės Europos programa, programa „Europos horizontas“, kurias įgyvendina Komisija ir valstybės narės Sąjungos arba nacionaliniu lygmeniu, turėtų atitinkamai padėti siekti šio reglamento tikslų;
(145)
In order to minimise the risks to implementation resulting from lack of knowledge and expertise in the market as well as to facilitate compliance of providers, in particular SMEs, including start-ups, and notified bodies with their obligations under this Regulation, the AI-on-demand platform, the European Digital Innovation Hubs and the testing and experimentation facilities established by the Commission and the Member States at Union or national level should contribute to the implementation of this Regulation. Within their respective mission and fields of competence, the AI-on-demand platform, the European Digital Innovation Hubs and the testing and experimentation Facilities are able to provide in particular technical and scientific support to providers and notified bodies.
(145)
siekiant kuo labiau sumažinti riziką įgyvendinimui, kuri kyla dėl žinių ir patirties rinkoje trūkumo, taip pat siekiant palengvinti tiekėjams, ypač MVĮ, įskaitant startuolius, ir notifikuotosioms įstaigoms vykdyti pareigas pagal šį reglamentą, reikminė DI platforma, Europos skaitmeninių inovacijų centrai ir Komisijos bei valstybių narių Sąjungos arba nacionaliniu lygmeniu sukurta bandymų ir eksperimentavimo infrastruktūra turėtų padėti įgyvendinti šį reglamentą. Pagal savo atitinkamą misiją ir kompetencijos sritis reikminė DI platforma, Europos skaitmeninių inovacijų centrai ir bandymų ir eksperimentavimo infrastruktūra gali teikti visų pirma techninę ir mokslinę paramą tiekėjams ir notifikuotosioms įstaigoms;
(146)
Moreover, in light of the very small size of some operators and in order to ensure proportionality regarding costs of innovation, it is appropriate to allow microenterprises to fulfil one of the most costly obligations, namely to establish a quality management system, in a simplified manner which would reduce the administrative burden and the costs for those enterprises without affecting the level of protection and the need for compliance with the requirements for high-risk AI systems. The Commission should develop guidelines to specify the elements of the quality management system to be fulfilled in this simplified manner by microenterprises.
(146)
be to, atsižvelgiant į tai, kad kai kurie veiklos vykdytojai yra labai maži, ir siekiant užtikrinti proporcingumą inovacijų išlaidų atžvilgiu, yra tikslinga labai mažoms įmonėms leisti daugiausia atsieinančias pareigas, t. y. nustatyti kokybės valdymo sistemą, įvykdyti supaprastintu būdu, kuriuo administracinė našta ir išlaidos toms įmonėms būtų sumažintos nedarant poveikio apsaugos lygiui ir poreikiui laikytis didelės rizikos DI sistemoms taikomų reikalavimų. Komisija turėtų parengti gaires, kuriose būtų nurodyti kokybės valdymo sistemos elementai, kuriuos tokiu supaprastintu būdu turi įgyvendinti labai mažos įmonės;
(147)
It is appropriate that the Commission facilitates, to the extent possible, access to testing and experimentation facilities to bodies, groups or laboratories established or accredited pursuant to any relevant Union harmonisation legislation and which fulfil tasks in the context of conformity assessment of products or devices covered by that Union harmonisation legislation. This is, in particular, the case as regards expert panels, expert laboratories and reference laboratories in the field of medical devices pursuant to Regulations (EU) 2017/745 and (EU) 2017/746.
(147)
tikslinga, kad Komisija, kiek įmanoma, palengvintų įstaigų, grupių arba laboratorijų, įsteigtų arba akredituotų pagal bet kurį atitinkamą Sąjungos derinamąjį aktą ir vykdančių gaminių arba prietaisų, kuriems taikomi Sąjungos derinamieji teisės aktai, atitikties vertinimą, prieigą prie bandymų ir eksperimentų infrastruktūros. Tai visų pirma pasakytina apie ekspertų komisijas, ekspertų laboratorijas ir etalonines laboratorijas, veikiančias medicinos priemonių srityje pagal reglamentus (ES) 2017/745 ir (ES) 2017/746;
(148)
This Regulation should establish a governance framework that both allows to coordinate and support the application of this Regulation at national level, as well as build capabilities at Union level and integrate stakeholders in the field of AI. The effective implementation and enforcement of this Regulation require a governance framework that allows to coordinate and build up central expertise at Union level. The AI Office was established by Commission Decision (45) and has as its mission to develop Union expertise and capabilities in the field of AI and to contribute to the implementation of Union law on AI. Member States should facilitate the tasks of the AI Office with a view to support the development of Union expertise and capabilities at Union level and to strengthen the functioning of the digital single market. Furthermore, a Board composed of representatives of the Member States, a scientific panel to integrate the scientific community and an advisory forum to contribute stakeholder input to the implementation of this Regulation, at Union and national level, should be established. The development of Union expertise and capabilities should also include making use of existing resources and expertise, in particular through synergies with structures built up in the context of the Union level enforcement of other law and synergies with related initiatives at Union level, such as the EuroHPC Joint Undertaking and the AI testing and experimentation facilities under the Digital Europe Programme.
(148)
šiuo reglamentu turėtų būti nustatyta valdymo sistema, kuri leistų tiek koordinuoti, tiek remti šio reglamento taikymą nacionaliniu lygmeniu, taip pat stiprinti pajėgumus Sąjungos lygmeniu ir integruoti suinteresuotuosius subjektus DI srityje. Siekiant veiksmingai įgyvendinti šį reglamentą ir užtikrinti jo vykdymą, reikia valdymo sistemos, kuri leistų koordinuoti ir centralizuotai kaupti ekspertines žinias Sąjungos lygmeniu. DI tarnybos, įsteigtos Komisijos sprendimu (45), užduotis – plėtoti Sąjungos ekspertines žinias ir pajėgumus DI srityje ir prisidėti prie Sąjungos teisės DI srityje įgyvendinimo. Valstybės narės turėtų padėti DI tarnybai vykdyti užduotis, kad būtų remiamas Sąjungos ekspertinių žinių ir pajėgumų plėtojimas Sąjungos lygmeniu ir stiprinamas bendrosios skaitmeninės rinkos veikimas. Be to, turėtų būti įsteigta Valdyba, kurią sudarytų valstybių narių atstovai, mokslinė komisija, kad būtų įtraukta mokslo bendruomenė, ir patariamasis forumas, kad suinteresuotieji subjektai galėtų prisidėti prie šio reglamento įgyvendinimo Sąjungos ir nacionaliniu lygmeniu. Plėtojant Sąjungos ekspertines žinias ir pajėgumus taip pat turėtų būti naudojamasi esamais ištekliais ir ekspertinėmis žiniomis, visų pirma pasitelkiant sinergiją su struktūromis, sukurtomis Sąjungos lygmeniu užtikrinant kitų teisės aktų vykdymą, ir sinergiją su susijusiomis iniciatyvomis Sąjungos lygmeniu, pavyzdžiui, bendrąja įmone „EuroHPC“ ir DI bandymų ir eksperimentavimo priemonėmis pagal Skaitmeninės Europos programą;
(149)
In order to facilitate a smooth, effective and harmonised implementation of this Regulation a Board should be established. The Board should reflect the various interests of the AI eco-system and be composed of representatives of the Member States. The Board should be responsible for a number of advisory tasks, including issuing opinions, recommendations, advice or contributing to guidance on matters related to the implementation of this Regulation, including on enforcement matters, technical specifications or existing standards regarding the requirements established in this Regulation and providing advice to the Commission and the Member States and their national competent authorities on specific questions related to AI. In order to give some flexibility to Member States in the designation of their representatives in the Board, such representatives may be any persons belonging to public entities who should have the relevant competences and powers to facilitate coordination at national level and contribute to the achievement of the Board’s tasks. The Board should establish two standing sub-groups to provide a platform for cooperation and exchange among market surveillance authorities and notifying authorities on issues related, respectively, to market surveillance and notified bodies. The standing subgroup for market surveillance should act as the administrative cooperation group (ADCO) for this Regulation within the meaning of Article 30 of Regulation (EU) 2019/1020. In accordance with Article 33 of that Regulation, the Commission should support the activities of the standing subgroup for market surveillance by undertaking market evaluations or studies, in particular with a view to identifying aspects of this Regulation requiring specific and urgent coordination among market surveillance authorities. The Board may establish other standing or temporary sub-groups as appropriate for the purpose of examining specific issues. The Board should also cooperate, as appropriate, with relevant Union bodies, experts groups and networks active in the context of relevant Union law, including in particular those active under relevant Union law on data, digital products and services.
(149)
siekiant sudaryti sąlygas sklandžiai, veiksmingai ir suderintai įgyvendinti šį reglamentą, turėtų būti įsteigta Valdyba. Valdyboje turėtų būti atstovaujama įvairiems DI ekosistemos interesams ir ją turėtų sudaryti valstybių narių atstovai. Valdyba turėtų būti atsakinga už įvairias patariamąsias užduotis, taip pat nuomonių, rekomendacijų, patarimų teikimą ar prisidėjimą prie gairių šio reglamento įgyvendinimo klausimais, įskaitant klausimus dėl vykdymo užtikrinimo, techninių specifikacijų arba esamų standartų, susijusių su šiame reglamente nustatytais reikalavimais, ir konsultuoti Komisiją, valstybes nares ir jų nacionalines kompetentingas institucijas konkrečiais klausimais, susijusiais su DI. Siekiant suteikti valstybėms narėms tam tikro lankstumo skiriant savo atstovus Valdyboje, tokie atstovai gali būti bet kurie viešiesiems subjektams priklausantys asmenys, kurie turėtų turėti atitinkamą kompetenciją ir įgaliojimus padėti vykdyti koordinavimą nacionaliniu lygmeniu ir prisidėti prie Valdybos užduočių vykdymo. Valdyba turėtų įsteigti du nuolatinius pogrupius, kurie sudarytų sąlygas rinkos priežiūros institucijoms ir notifikuojančiosioms institucijoms bendradarbiauti ir keistis informacija klausimais, susijusiais atitinkamai su rinkos priežiūra ir notifikuotosiomis įstaigomis. Nuolatinis rinkos priežiūros pogrupis turėtų veikti kaip šio reglamento administracinio bendradarbiavimo grupė, kaip tai suprantama Reglamento (ES) 2019/1020 30 straipsnyje. Pagal to reglamento 33 straipsnį, Komisija turėtų remti nuolatinio rinkos priežiūros pogrupio veiklą atlikdama rinkos vertinimus ar tyrimus, visų pirma siekdama nustatyti šio reglamento aspektus, dėl kurių reikalingas konkretus ir skubus rinkos priežiūros institucijų veiksmų koordinavimas. Valdyba atitinkamai gali sudaryti kitus nuolatinius ar laikinuosius pogrupius konkretiems klausimams spręsti. Valdyba taip pat turėtų atitinkamai bendradarbiauti su atitinkamomis Sąjungos įstaigomis, ekspertų grupėmis ir tinklais, veikiančiais atitinkamos Sąjungos teisės kontekste, įskaitant visų pirma tuos, kurie veikia vadovaudamiesi atitinkama Sąjungos teise duomenų, skaitmeninių produktų ir paslaugų srityje;
(150)
With a view to ensuring the involvement of stakeholders in the implementation and application of this Regulation, an advisory forum should be established to advise and provide technical expertise to the Board and the Commission. To ensure a varied and balanced stakeholder representation between commercial and non-commercial interest and, within the category of commercial interests, with regards to SMEs and other undertakings, the advisory forum should comprise inter alia industry, start-ups, SMEs, academia, civil society, including the social partners, as well as the Fundamental Rights Agency, ENISA, the European Committee for Standardization (CEN), the European Committee for Electrotechnical Standardization (CENELEC) and the European Telecommunications Standards Institute (ETSI).
(150)
siekiant užtikrinti suinteresuotųjų subjektų dalyvavimą įgyvendinant ir taikant šį reglamentą, turėtų būti įsteigtas patariamasis forumas, kuris konsultuotų Valdybą ir Komisiją ir teiktų joms technines ekspertines žinias. Siekiant užtikrinti įvairiapusį ir subalansuotą atstovavimą suinteresuotiesiems subjektams, atsižvelgiant į komercinius ir nekomercinius interesus, taip pat – komercinių interesų kategorijoje – MVĮ ir kitoms įmonėms, patariamąjį forumą turėtų sudaryti, inter alia, pramonės atstovai, startuoliai, MVĮ, akademinė bendruomenė, pilietinė visuomenė, įskaitant socialinius partnerius, taip pat Pagrindinių teisių agentūra, ENISA, Europos standartizacijos komitetas (CEN), Europos elektrotechnikos standartizacijos komitetas (CENELEC) ir Europos telekomunikacijų standartų institutas (ETSI);
(151)
To support the implementation and enforcement of this Regulation, in particular the monitoring activities of the AI Office as regards general-purpose AI models, a scientific panel of independent experts should be established. The independent experts constituting the scientific panel should be selected on the basis of up-to-date scientific or technical expertise in the field of AI and should perform their tasks with impartiality, objectivity and ensure the confidentiality of information and data obtained in carrying out their tasks and activities. To allow the reinforcement of national capacities necessary for the effective enforcement of this Regulation, Member States should be able to request support from the pool of experts constituting the scientific panel for their enforcement activities.
(151)
siekiant remti šio reglamento įgyvendinimą ir vykdymo užtikrinimą, visų pirma DI tarnybos vykdomą stebėsenos veiklą, susijusią su bendrosios paskirties DI modeliais, turėtų būti įsteigta nepriklausomų ekspertų mokslinė komisija. Mokslinę komisiją sudarantys nepriklausomi ekspertai turėtų būti atrenkami remiantis naujausiomis mokslinėmis ar techninėmis ekspertinėmis žiniomis DI srityje ir jie turėtų atlikti savo užduotis nešališkai ir objektyviai, taip pat užtikrinti informacijos ir duomenų, gautų vykdant savo užduotis ir veiklą, konfidencialumą. Kad būtų galima sustiprinti nacionalinius gebėjimus, būtinus veiksmingam šio reglamento vykdymui užtikrinti, valstybės narės turėtų turėti galimybę prašyti mokslinės komisijos ekspertų suteikti paramą jų vykdymo užtikrinimo veiklai;
(152)
In order to support adequate enforcement as regards AI systems and reinforce the capacities of the Member States, Union AI testing support structures should be established and made available to the Member States.
(152)
siekiant remti tinkamą vykdymo užtikrinimą, kiek tai susiję su DI sistemomis, ir sustiprinti valstybių narių gebėjimus, turėtų būti sukurtos Sąjungos DI bandymų pagalbinės struktūros, ir valstybės narės turėtų turėti galimybę jomis naudotis;
(153)
Member States hold a key role in the application and enforcement of this Regulation. In that respect, each Member State should designate at least one notifying authority and at least one market surveillance authority as national competent authorities for the purpose of supervising the application and implementation of this Regulation. Member States may decide to appoint any kind of public entity to perform the tasks of the national competent authorities within the meaning of this Regulation, in accordance with their specific national organisational characteristics and needs. In order to increase organisation efficiency on the side of Member States and to set a single point of contact vis-à-vis the public and other counterparts at Member State and Union levels, each Member State should designate a market surveillance authority to act as a single point of contact.
(153)
labai svarbus vaidmuo taikant šį reglamentą ir užtikrinant jo vykdymą tenka valstybėms narėms. Todėl kiekviena valstybė narė turėtų bent vieną notifikuojančiąją instituciją ir bent vieną rinkos priežiūros instituciją paskirti nacionalinėmis kompetentingomis institucijomis šio reglamento taikymo ir įgyvendinimo priežiūros tikslu. Valstybės narės gali nuspręsti paskirti bet kurį viešąjį subjektą vykdyti nacionalinių kompetentingų institucijų, kaip tai suprantama šiame reglamente, užduotis atsižvelgdamos į konkrečius nacionalinius organizacinius ypatumus ir poreikius. Siekiant padidinti organizacinį veiksmingumą valstybėse narėse ir sukurti bendrąjį kontaktinį punktą, skirtą visuomenei ir kitiems partneriams valstybių narių ir Sąjungos lygmeniu, kiekviena valstybė narė bendruoju kontaktiniu punktu turėtų paskirti rinkos priežiūros instituciją;
(154)
The national competent authorities should exercise their powers independently, impartially and without bias, so as to safeguard the principles of objectivity of their activities and tasks and to ensure the application and implementation of this Regulation. The members of these authorities should refrain from any action incompatible with their duties and should be subject to confidentiality rules under this Regulation.
(154)
nacionalinės kompetentingos institucijos turėtų naudotis savo įgaliojimais nepriklausomai, objektyviai ir nešališkai, kad apsaugotų savo veiklos ir užduočių objektyvumo principus ir užtikrintų šio reglamento taikymą ir įgyvendinimą. Šių institucijų nariai turėtų susilaikyti nuo bet kokių su jų pareigomis nesuderinamų veiksmų ir jiems turėtų būti taikomos konfidencialumo taisyklės pagal šį reglamentą;
(155)
In order to ensure that providers of high-risk AI systems can take into account the experience on the use of high-risk AI systems for improving their systems and the design and development process or can take any possible corrective action in a timely manner, all providers should have a post-market monitoring system in place. Where relevant, post-market monitoring should include an analysis of the interaction with other AI systems including other devices and software. Post-market monitoring should not cover sensitive operational data of deployers which are law enforcement authorities. This system is also key to ensure that the possible risks emerging from AI systems which continue to ‘learn’ after being placed on the market or put into service can be more efficiently and timely addressed. In this context, providers should also be required to have a system in place to report to the relevant authorities any serious incidents resulting from the use of their AI systems, meaning incident or malfunctioning leading to death or serious damage to health, serious and irreversible disruption of the management and operation of critical infrastructure, infringements of obligations under Union law intended to protect fundamental rights or serious damage to property or the environment.
(155)
siekiant užtikrinti, kad didelės rizikos DI sistemų tiekėjai galėtų atsižvelgti į didelės rizikos DI sistemų naudojimo patirtį, kad patobulintų savo sistemas ir projektavimo bei kūrimo procesą arba laiku galėtų imtis bet kokių galimų taisomųjų veiksmų, visi tiekėjai turėtų turėti veikiančias stebėsenos po pateikimo rinkai sistemas. Kai aktualu, stebėsena po pateikimo rinkai turėtų apimti sąveikos su kitomis DI sistemomis, įskaitant kitus prietaisus ir programinę įrangą, analizę. Stebėsena po pateikimo rinkai neturėtų būti taikoma diegėjų, kurie yra teisėsaugos institucijos, neskelbtiniems operatyviniams duomenims. Ši sistema taip pat yra labai svarbi užtikrinant, kad dėl DI sistemų, kurios toliau mokosi po to, kai buvo pateiktos rinkai arba pradėtos naudoti, galinti kilti nauja rizika būtų šalinama veiksmingiau ir laiku. Šiame kontekste taip pat turėtų būti reikalaujama, kad tiekėjai būtų įdiegę sistemą, skirtą pranešti atitinkamoms institucijoms apie bet kokius rimtus incidentus, kilusius dėl jų DI sistemų naudojimo, t. y. apie incidentą ar veikimo sutrikimą, dėl kurio įvyko mirtis arba buvo padaryta didelė žala sveikatai, rimtai ir negrįžtamai sutrikdytas ypatingos svarbos infrastruktūros valdymas ir veikimas, taip pat apie pareigų pagal Sąjungos teisę, kuria siekiama apsaugoti pagrindines teises, pažeidimus, arba didelę žalą turtui ar aplinkai;
(156)
In order to ensure an appropriate and effective enforcement of the requirements and obligations set out by this Regulation, which is Union harmonisation legislation, the system of market surveillance and compliance of products established by Regulation (EU) 2019/1020 should apply in its entirety. Market surveillance authorities designated pursuant to this Regulation should have all enforcement powers laid down in this Regulation and in Regulation (EU) 2019/1020 and should exercise their powers and carry out their duties independently, impartially and without bias. Although the majority of AI systems are not subject to specific requirements and obligations under this Regulation, market surveillance authorities may take measures in relation to all AI systems when they present a risk in accordance with this Regulation. Due to the specific nature of Union institutions, agencies and bodies falling within the scope of this Regulation, it is appropriate to designate the European Data Protection Supervisor as a competent market surveillance authority for them. This should be without prejudice to the designation of national competent authorities by the Member States. Market surveillance activities should not affect the ability of the supervised entities to carry out their tasks independently, when such independence is required by Union law.
(156)
siekiant užtikrinti tinkamą ir veiksmingą šiame reglamente, kuris yra Sąjungos derinamasis teisės aktas, nustatytų reikalavimų ir pareigų vykdymą, turėtų būti visa apimtimi taikoma rinkos priežiūros ir gaminių atitikties sistema, nustatyta Reglamentu (ES) 2019/1020. Pagal šį reglamentą paskirtos rinkos priežiūros institucijos turėtų turėti visus vykdymo užtikrinimo įgaliojimus, nustatytus šiame reglamente ir Reglamente (ES) 2019/1020, ir turėtų naudotis savo įgaliojimais ir vykdyti savo pareigas nepriklausomai, objektyviai ir nešališkai. Nors daugumai DI sistemų netaikomi konkretūs reikalavimai ir pareigos pagal šį reglamentą, rinkos priežiūros institucijos gali imtis priemonių, susijusių su visomis DI sistemomis, kai dėl jų kyla rizika pagal šį reglamentą. Dėl specifinio Sąjungos institucijų, agentūrų ir įstaigų, kurioms taikomas šis reglamentas, pobūdžio tikslinga Europos duomenų apsaugos priežiūros pareigūną paskirti jų atžvilgiu kompetentinga rinkos priežiūros institucija. Tai neturėtų daryti poveikio valstybių narių atliekamam nacionalinių kompetentingų institucijų skyrimui. Rinkos priežiūros veikla neturėtų daryti poveikio prižiūrimų subjektų gebėjimui nepriklausomai vykdyti savo užduotis, kai tokio nepriklausomumo reikalaujama pagal Sąjungos teisę;
(157)
This Regulation is without prejudice to the competences, tasks, powers and independence of relevant national public authorities or bodies which supervise the application of Union law protecting fundamental rights, including equality bodies and data protection authorities. Where necessary for their mandate, those national public authorities or bodies should also have access to any documentation created under this Regulation. A specific safeguard procedure should be set for ensuring adequate and timely enforcement against AI systems presenting a risk to health, safety and fundamental rights. The procedure for such AI systems presenting a risk should be applied to high-risk AI systems presenting a risk, prohibited systems which have been placed on the market, put into service or used in violation of the prohibited practices laid down in this Regulation and AI systems which have been made available in violation of the transparency requirements laid down in this Regulation and present a risk.
(157)
šiuo reglamentu nedaromas poveikis atitinkamų nacionalinių valdžios institucijų ar įstaigų, kurios prižiūri, kaip taikoma Sąjungos teisė, kuria saugomos pagrindinės teisės, įskaitant lygybės institucijas ir duomenų apsaugos institucijas, kompetencijai, užduotims, įgaliojimams ir nepriklausomumui. Prireikus atsižvelgiant į tų nacionalinių valdžios institucijų ar įstaigų įgaliojimus, jos taip pat turėtų turėti prieigą prie bet kokių pagal šį reglamentą sukurtų dokumentų. Siekiant užtikrinti tinkamą ir savalaikį DI sistemoms, keliančioms riziką sveikatai, saugai ir pagrindinėms teisėms, taikomų reikalavimų vykdymą, turėtų būti nustatyta speciali apsaugos procedūra. Tokioms DI sistemoms, dėl kurių kyla rizika, turėtų būti taikoma procedūra, skirta didelės rizikos DI sistemoms, dėl kurių kyla rizika, draudžiamoms sistemoms, pateiktoms rinkai, pradėtoms naudoti arba naudojamoms taikant šiame reglamente nustatytą draudžiamą praktiką, ir DI sistemoms, kurios buvo pateiktos rinkai pažeidžiant šiame reglamente nustatytus skaidrumo reikalavimus ir kelia riziką;
(158)
Union financial services law includes internal governance and risk-management rules and requirements which are applicable to regulated financial institutions in the course of provision of those services, including when they make use of AI systems. In order to ensure coherent application and enforcement of the obligations under this Regulation and relevant rules and requirements of the Union financial services legal acts, the competent authorities for the supervision and enforcement of those legal acts, in particular competent authorities as defined in Regulation (EU) No 575/2013 of the European Parliament and of the Council (46) and Directives 2008/48/EC (47), 2009/138/EC (48), 2013/36/EU (49), 2014/17/EU (50) and (EU) 2016/97 (51) of the European Parliament and of the Council, should be designated, within their respective competences, as competent authorities for the purpose of supervising the implementation of this Regulation, including for market surveillance activities, as regards AI systems provided or used by regulated and supervised financial institutions unless Member States decide to designate another authority to fulfil these market surveillance tasks. Those competent authorities should have all powers under this Regulation and Regulation (EU) 2019/1020 to enforce the requirements and obligations of this Regulation, including powers to carry our ex post market surveillance activities that can be integrated, as appropriate, into their existing supervisory mechanisms and procedures under the relevant Union financial services law. It is appropriate to envisage that, when acting as market surveillance authorities under this Regulation, the national authorities responsible for the supervision of credit institutions regulated under Directive 2013/36/EU, which are participating in the Single Supervisory Mechanism established by Council Regulation (EU) No 1024/2013 (52), should report, without delay, to the European Central Bank any information identified in the course of their market surveillance activities that may be of potential interest for the European Central Bank’s prudential supervisory tasks as specified in that Regulation. To further enhance the consistency between this Regulation and the rules applicable to credit institutions regulated under Directive 2013/36/EU, it is also appropriate to integrate some of the providers’ procedural obligations in relation to risk management, post marketing monitoring and documentation into the existing obligations and procedures under Directive 2013/36/EU. In order to avoid overlaps, limited derogations should also be envisaged in relation to the quality management system of providers and the monitoring obligation placed on deployers of high-risk AI systems to the extent that these apply to credit institutions regulated by Directive 2013/36/EU. The same regime should apply to insurance and re-insurance undertakings and insurance holding companies under Directive 2009/138/EC and the insurance intermediaries under Directive (EU) 2016/97 and other types of financial institutions subject to requirements regarding internal governance, arrangements or processes established pursuant to the relevant Union financial services law to ensure consistency and equal treatment in the financial sector.
(158)
Sąjungos finansinių paslaugų teisėje yra nustatytos vidaus valdymo ir rizikos valdymo taisyklės ir reikalavimai, kurie yra taikomi reguliuojamoms finansų įstaigoms joms teikiant paslaugas, įskaitant atvejus, kai jos naudoja DI sistemas. Siekiant užtikrinti nuoseklų pareigų pagal šį reglamentą ir Sąjungos finansinių paslaugų teisės aktuose nustatytų atitinkamų taisyklių ir reikalavimų taikymą ir vykdymo užtikrinimą, už tų teisės aktų priežiūrą ir vykdymo užtikrinimą atsakingos kompetentingos institucijos, visų pirma kompetentingos institucijos, kaip apibrėžta Europos Parlamento ir Tarybos reglamente (ES) Nr. 575/2013 (46) ir Europos Parlamento ir Tarybos direktyvose 2008/48/EB (47), 2009/138/EB (48), 2013/36/ES (49), 2014/17/ES (50) ir (ES) 2016/97 (51), pagal jų atitinkamą kompetenciją turėtų būti paskirtos kompetentingomis institucijomis, atsakingomis už šio reglamento įgyvendinimo priežiūrą, be kita ko, už rinkos priežiūros veiklą, kiek tai susiję su DI sistemomis, kurias tiekia arba naudoja reguliuojamos ir prižiūrimos finansų įstaigos, nebent valstybės narės nusprendžia paskirti kitą instituciją šioms rinkos priežiūros užduotims atlikti. Tos kompetentingos institucijos turėtų turėti visus įgaliojimus pagal šį reglamentą ir Reglamentą (ES) 2019/1020, kad užtikrintų šiame reglamente nustatytų reikalavimų ir pareigų vykdymą, įskaitant įgaliojimus vykdyti ex post rinkos priežiūros veiklą, kuri atitinkamai gali būti integruota į jų esamus priežiūros mechanizmus ir procedūras pagal atitinkamą Sąjungos finansinių paslaugų teisę. Tikslinga numatyti, kad, veikdamos kaip rinkos priežiūros institucijos pagal šį reglamentą, nacionalinės institucijos, atsakingos už pagal Direktyvą 2013/36/ES reglamentuojamų kredito įstaigų, dalyvaujančių Tarybos reglamentu (ES) Nr. 1024/2013 (52) sukurtame bendrame priežiūros mechanizme, priežiūrą, turėtų nedelsdamos pateikti Europos Centriniam Bankui visą vykdant rinkos priežiūros veiklą nustatytą informaciją, kuri gali būti svarbi Europos Centrinio Banko prudencinės priežiūros užduotims, kaip nurodyta tame reglamente. Siekiant toliau didinti šio reglamento ir pagal Direktyvą 2013/36/ES reglamentuojamoms kredito įstaigoms taikomų taisyklių suderinamumą, taip pat yra tinkama kai kurias tiekėjų procedūrines pareigas, susijusias su rizikos valdymu, stebėsena po pateikimo rinkai ir dokumentais, integruoti į esamas Direktyvoje 2013/36/ES nustatytas pareigas ir procedūras. Siekiant išvengti sutapimų, taip pat reikėtų numatyti ribotas nukrypti leidžiančias nuostatas, susijusias su tiekėjų kokybės valdymo sistema, ir didelės rizikos DI sistemų diegėjams nustatyti stebėsenos pareigą tiek, kiek ji taikoma pagal Direktyvą 2013/36/ES reglamentuojamoms kredito įstaigoms. Ta pati tvarka turėtų būti taikoma draudimo ir perdraudimo įmonėms bei draudimo kontroliuojančiosioms bendrovėms pagal Direktyvą 2009/138/EB ir draudimo tarpininkams pagal Direktyvą (ES) 2016/97, taip pat kitų rūšių finansų įstaigoms, kurioms taikomi vidaus valdymo, tvarkos ar procesų reikalavimai, nustatyti pagal atitinkamą Sąjungos finansinių paslaugų teisę, siekiant užtikrinti nuoseklumą ir vienodas sąlygas finansų sektoriuje;
(159)
Each market surveillance authority for high-risk AI systems in the area of biometrics, as listed in an annex to this Regulation insofar as those systems are used for the purposes of law enforcement, migration, asylum and border control management, or the administration of justice and democratic processes, should have effective investigative and corrective powers, including at least the power to obtain access to all personal data that are being processed and to all information necessary for the performance of its tasks. The market surveillance authorities should be able to exercise their powers by acting with complete independence. Any limitations of their access to sensitive operational data under this Regulation should be without prejudice to the powers conferred to them by Directive (EU) 2016/680. No exclusion on disclosing data to national data protection authorities under this Regulation should affect the current or future powers of those authorities beyond the scope of this Regulation.
(159)
kiekviena šio reglamento priede išvardytų didelės rizikos DI sistemų biometrinių duomenų srityje rinkos priežiūros institucija, jei tos sistemos naudojamos teisėsaugos, migracijos, prieglobsčio ir sienų kontrolės valdymo arba teisingumo vykdymo ir demokratinių procesų tikslais, turėtų turėti veiksmingus tyrimo ir taisomuosius įgaliojimus, įskaitant bent įgaliojimus gauti prieigą prie visų tvarkomų asmens duomenų ir visos jos užduotims atlikti būtinos informacijos. Rinkos priežiūros institucijos turėtų galėti vykdyti savo įgaliojimus veikdamos visiškai nepriklausomai. Bet kokie jų prieigos prie neskelbtinų operatyvinių duomenų apribojimai pagal šį reglamentą neturėtų daryti poveikio pagal Direktyvą (ES) 2016/680 joms suteiktiems įgaliojimams. Jokia išimtis dėl duomenų atskleidimo nacionalinėms duomenų apsaugos institucijoms pagal šį reglamentą neturėtų daryti poveikio dabartiniams ar būsimiems tų institucijų įgaliojimams, nepatenkantiems į šio reglamento taikymo sritį;
(160)
The market surveillance authorities and the Commission should be able to propose joint activities, including joint investigations, to be conducted by market surveillance authorities or market surveillance authorities jointly with the Commission, that have the aim of promoting compliance, identifying non-compliance, raising awareness and providing guidance in relation to this Regulation with respect to specific categories of high-risk AI systems that are found to present a serious risk across two or more Member States. Joint activities to promote compliance should be carried out in accordance with Article 9 of Regulation (EU) 2019/1020. The AI Office should provide coordination support for joint investigations.
(160)
rinkos priežiūros institucijos ir Komisija turėtų turėti galimybę siūlyti bendrą veiklą, įskaitant bendrus tyrimus, kurią vykdytų kelios rinkos priežiūros institucijos arba rinkos priežiūros institucijos kartu su Komisija ir kurios tikslas – skatinti atitiktį, nustatyti neatitiktį, didinti informuotumą ir teikti su šiuo reglamentu susijusias gaires dėl konkrečių kategorijų didelės rizikos DI sistemų, kurios, kaip nustatyta, kelia didelę riziką dviejose ar daugiau valstybių narių. Bendra veikla, kuria skatinama atitiktis, turėtų būti vykdoma pagal Reglamento (ES) 2019/1020 9 straipsnį. DI tarnyba turėtų teikti bendrų tyrimų koordinavimo paramą;
(161)
It is necessary to clarify the responsibilities and competences at Union and national level as regards AI systems that are built on general-purpose AI models. To avoid overlapping competences, where an AI system is based on a general-purpose AI model and the model and system are provided by the same provider, the supervision should take place at Union level through the AI Office, which should have the powers of a market surveillance authority within the meaning of Regulation (EU) 2019/1020 for this purpose. In all other cases, national market surveillance authorities remain responsible for the supervision of AI systems. However, for general-purpose AI systems that can be used directly by deployers for at least one purpose that is classified as high-risk, market surveillance authorities should cooperate with the AI Office to carry out evaluations of compliance and inform the Board and other market surveillance authorities accordingly. Furthermore, market surveillance authorities should be able to request assistance from the AI Office where the market surveillance authority is unable to conclude an investigation on a high-risk AI system because of its inability to access certain information related to the general-purpose AI model on which the high-risk AI system is built. In such cases, the procedure regarding mutual assistance in cross-border cases in Chapter VI of Regulation (EU) 2019/1020 should apply mutatis mutandis.
(161)
būtina paaiškinti atsakomybę ir kompetenciją Sąjungos ir nacionaliniu lygmenimis, kiek tai susiję su bendrosios paskirties DI modeliais grindžiamomis DI sistemomis. Siekiant išvengti kompetencijos dubliavimosi, tais atvejais, kai DI sistema grindžiama bendrosios paskirties DI modeliu, ir modelį ir sistemą teikia tas pats tiekėjas, priežiūra turėtų būti vykdoma Sąjungos lygmeniu per DI tarnybą, kuri šiuo tikslu turėtų turėti rinkos priežiūros institucijos įgaliojimus, kaip tai suprantama Reglamente (ES) 2019/1020. Visais kitais atvejais už DI sistemų priežiūrą tebėra atsakingos nacionalinės rinkos priežiūros institucijos. Tačiau dėl bendrosios paskirties DI sistemų, kurias diegėjai gali tiesiogiai naudoti bent vienai paskirčiai, priskiriamai didelės rizikos kategorijai, rinkos priežiūros institucijos turėtų bendradarbiauti su DI tarnyba, kad atliktų atitikties vertinimus ir atitinkamai informuotų Valdybą ir kitas rinkos priežiūros institucijas. Be to, rinkos priežiūros institucijos turėtų turėti galimybę prašyti DI tarnybos pagalbos, kai rinkos priežiūros institucija negali užbaigti didelės rizikos DI sistemos tyrimo dėl to, kad ji negali gauti tam tikros informacijos, susijusios su bendrosios paskirties DI modeliu, kuriuo grindžiama didelės rizikos DI sistema. Tokiais atvejais mutatis mutandis turėtų būti taikoma Reglamento (ES) 2019/1020 VI skyriuje nustatyta savitarpio pagalbos tarpvalstybiniais atvejais procedūra;
(162)
To make best use of the centralised Union expertise and synergies at Union level, the powers of supervision and enforcement of the obligations on providers of general-purpose AI models should be a competence of the Commission. The AI Office should be able to carry out all necessary actions to monitor the effective implementation of this Regulation as regards general-purpose AI models. It should be able to investigate possible infringements of the rules on providers of general-purpose AI models both on its own initiative, following the results of its monitoring activities, or upon request from market surveillance authorities in line with the conditions set out in this Regulation. To support effective monitoring of the AI Office, it should provide for the possibility that downstream providers lodge complaints about possible infringements of the rules on providers of general-purpose AI models and systems.
(162)
siekiant kuo geriau pasinaudoti centralizuotomis Sąjungos ekspertinėmis žiniomis ir sinergija Sąjungos lygmeniu, bendrosios paskirties DI modelių tiekėjų priežiūros ir pareigų vykdymo užtikrinimo įgaliojimai turėtų priklausyti Komisijos kompetencijai. DI tarnyba turėtų galėti imtis visų būtinų veiksmų stebėti, ar šis reglamentas įgyvendinamas veiksmingai, kiek tai susiję su bendrosios paskirties DI modeliais. Ji turėtų galėti tirti galimus taisyklių, taikomų bendrosios paskirties DI modelių tiekėjams, pažeidimus tiek savo iniciatyva, atsižvelgdama į savo stebėsenos veiklos rezultatus, tiek rinkos priežiūros institucijų prašymu, laikydamasi šiame reglamente nustatytų sąlygų. Siekiant remti veiksmingą DI tarnybos vykdomą stebėseną, turėtų būti numatyta galimybė tolesnės grandies tiekėjams teikti skundus dėl taisyklių, taikomų bendrosios paskirties DI modelių ir sistemų tiekėjams, galimų pažeidimų;
(163)
With a view to complementing the governance systems for general-purpose AI models, the scientific panel should support the monitoring activities of the AI Office and may, in certain cases, provide qualified alerts to the AI Office which trigger follow-ups, such as investigations. This should be the case where the scientific panel has reason to suspect that a general-purpose AI model poses a concrete and identifiable risk at Union level. Furthermore, this should be the case where the scientific panel has reason to suspect that a general-purpose AI model meets the criteria that would lead to a classification as general-purpose AI model with systemic risk. To equip the scientific panel with the information necessary for the performance of those tasks, there should be a mechanism whereby the scientific panel can request the Commission to require documentation or information from a provider.
(163)
siekiant papildyti bendrosios paskirties DI modelių valdymo sistemas, mokslinė komisija turėtų remti DI tarnybos stebėsenos veiklą ir tam tikrais atvejais galėtų DI tarnybai teikti kvalifikuotus perspėjimus, dėl kurių reikia imtis tolesnių veiksmų, pavyzdžiui, tyrimų. Taip turėtų būti tuo atveju, kai mokslinė komisija turi pagrindo įtarti, kad bendrosios paskirties DI modelis kelia konkrečią ir nustatomą riziką Sąjungos lygmeniu. Be to, taip turėtų būti tuo atveju, kai mokslinė komisija turi pagrindo įtarti, kad bendrosios paskirties DI modelis atitinka kriterijus, pagal kuriuos jį būtų galima klasifikuoti kaip sisteminės rizikos bendrosios paskirties DI modelį. Tam, kad mokslinei komisijai būtų suteikta toms užduotims atlikti būtina informacija, turėtų būti nustatytas mechanizmas, pagal kurį mokslinė komisija galėtų prašyti Komisijos reikalauti, kad tiekėjas pateiktų dokumentus ar informaciją;
(164)
The AI Office should be able to take the necessary actions to monitor the effective implementation of and compliance with the obligations for providers of general-purpose AI models laid down in this Regulation. The AI Office should be able to investigate possible infringements in accordance with the powers provided for in this Regulation, including by requesting documentation and information, by conducting evaluations, as well as by requesting measures from providers of general-purpose AI models. When conducting evaluations, in order to make use of independent expertise, the AI Office should be able to involve independent experts to carry out the evaluations on its behalf. Compliance with the obligations should be enforceable, inter alia, through requests to take appropriate measures, including risk mitigation measures in the case of identified systemic risks as well as restricting the making available on the market, withdrawing or recalling the model. As a safeguard, where needed beyond the procedural rights provided for in this Regulation, providers of general-purpose AI models should have the procedural rights provided for in Article 18 of Regulation (EU) 2019/1020, which should apply mutatis mutandis, without prejudice to more specific procedural rights provided for by this Regulation.
(164)
DI tarnyba turėtų galėti imtis būtinų veiksmų stebėti, ar veiksmingai įgyvendinamos šiame reglamente nustatytos bendrosios paskirties DI modelių tiekėjų pareigos ir ar jų laikomasi. DI tarnyba turėtų turėti galimybę tirti galimus pažeidimus pagal šiame reglamente numatytus įgaliojimus, be kita ko, prašydama dokumentų ir informacijos, atlikdama vertinimus ir prašydama, kad bendrosios paskirties DI modelių tiekėjai imtųsi priemonių. Tam, kad atlikdama vertinimus DI tarnyba pasinaudotų nepriklausomomis ekspertinėmis žiniomis, ji turėtų turėti galimybę įtraukti nepriklausomus ekspertus vertinimams jos vardu atlikti. Pareigų vykdymas turėtų būti užtikrinamas, inter alia, teikiant prašymus imtis tinkamų priemonių, įskaitant rizikos mažinimo priemones nustatytos sisteminės rizikos atveju, taip pat apribojant tiekimą rinkai, pašalinant ar atšaukiant modelį. Kaip apsaugos priemonė, prireikus viršijant šiame reglamente numatytas procesines teises, bendrosios paskirties DI modelių tiekėjai turėtų turėti Reglamento (ES) 2019/1020 18 straipsnyje numatytas procesines teises, kurios turėtų būti taikomos mutatis mutandis, nedarant poveikio konkretesnėms procesinėms teisėms, numatytoms šiame reglamente;
(165)
The development of AI systems other than high-risk AI systems in accordance with the requirements of this Regulation may lead to a larger uptake of ethical and trustworthy AI in the Union. Providers of AI systems that are not high-risk should be encouraged to create codes of conduct, including related governance mechanisms, intended to foster the voluntary application of some or all of the mandatory requirements applicable to high-risk AI systems, adapted in light of the intended purpose of the systems and the lower risk involved and taking into account the available technical solutions and industry best practices such as model and data cards. Providers and, as appropriate, deployers of all AI systems, high-risk or not, and AI models should also be encouraged to apply on a voluntary basis additional requirements related, for example, to the elements of the Union’s Ethics Guidelines for Trustworthy AI, environmental sustainability, AI literacy measures, inclusive and diverse design and development of AI systems, including attention to vulnerable persons and accessibility to persons with disability, stakeholders’ participation with the involvement, as appropriate, of relevant stakeholders such as business and civil society organisations, academia, research organisations, trade unions and consumer protection organisations in the design and development of AI systems, and diversity of the development teams, including gender balance. To ensure that the voluntary codes of conduct are effective, they should be based on clear objectives and key performance indicators to measure the achievement of those objectives. They should also be developed in an inclusive way, as appropriate, with the involvement of relevant stakeholders such as business and civil society organisations, academia, research organisations, trade unions and consumer protection organisation. The Commission may develop initiatives, including of a sectoral nature, to facilitate the lowering of technical barriers hindering cross-border exchange of data for AI development, including on data access infrastructure, semantic and technical interoperability of different types of data.
(165)
DI sistemų, išskyrus didelės rizikos DI sistemas, kūrimas laikantis šio reglamento reikalavimų gali prisidėti prie platesnio masto etiško ir patikimo DI įsisavinimo Sąjungoje. Didelės rizikos nekeliančių DI sistemų tiekėjai turėtų būti skatinami kurti elgesio kodeksus, įskaitant susijusius valdymo mechanizmus, kuriais būtų skatinama savanoriškai taikyti kai kuriuos arba visus didelės rizikos DI sistemoms taikomus privalomus reikalavimus, pritaikytus atsižvelgiant į numatytąją sistemų paskirtį ir susijusią mažesnę riziką, taip pat atsižvelgiant į turimus techninius sprendimus ir sektoriaus geriausią praktiką, pavyzdžiui, modelių ir duomenų korteles. Visų didelės rizikos arba nerizikingų DI sistemų ir DI modelių tiekėjai ir, kai tinkama, diegėjai taip pat turėtų būti skatinami savanoriškai taikyti papildomus reikalavimus, susijusius, pavyzdžiui, su Sąjungos patikimo DI etikos gairių elementais, aplinkos tvarumu, raštingumo DI srityje priemonėmis, įtraukiu ir įvairiu DI sistemų projektavimu ir kūrimu, įskaitant dėmesį pažeidžiamiems asmenims ir prieinamumą asmenims su negalia, su suinteresuotųjų subjektų dalyvavimu, įtraukiant, kai tinkama, atitinkamus suinteresuotuosius subjektus, pavyzdžiui, verslo ir pilietinės visuomenės organizacijas, akademinę bendruomenę, mokslinių tyrimų organizacijas, profesines sąjungas ir vartotojų apsaugos organizacijas, projektuojant ir kuriant DI sistemas, ir su kūrimo grupių įvairove, įskaitant lyčių pusiausvyrą. Siekiant užtikrinti, kad savanoriški elgesio kodeksai būtų veiksmingi, jie turėtų būti grindžiami aiškiais tikslais ir pagrindiniais veiklos rezultatų rodikliais, kad būtų galima įvertinti, ar tie tikslai pasiekti. Jie taip pat turėtų būti rengiami įtraukiai, kai tinkama, dalyvaujant atitinkamiems suinteresuotiesiems subjektams, pavyzdžiui, verslo ir pilietinės visuomenės organizacijoms, akademinei bendruomenei, mokslinių tyrimų organizacijoms, profesinėms sąjungoms ir vartotojų apsaugos organizacijoms. Komisija gali sukurti iniciatyvas, įskaitant sektorines iniciatyvas, kad palengvintų techninių kliūčių, trukdančių tarpvalstybiniu lygmeniu keistis DI kūrimo duomenimis, sumažinimą, įskaitant kliūtis, susijusias su duomenimis apie galimybes pasinaudoti infrastruktūra, semantine ir technine įvairių rūšių duomenų sąveika;
(166)
It is important that AI systems related to products that are not high-risk in accordance with this Regulation and thus are not required to comply with the requirements set out for high-risk AI systems are nevertheless safe when placed on the market or put into service. To contribute to this objective, Regulation (EU) 2023/988 of the European Parliament and of the Council (53) would apply as a safety net.
(166)
svarbu, kad DI sistemos, susijusios su gaminiais, kurie, remiantis šiuo reglamentu, nekelia didelės rizikos ir todėl neprivalo atitikti didelės rizikos DI sistemoms nustatytų reikalavimų, vis tiek būtų saugios jas pateikiant rinkai arba pradedant naudoti. Siekiant prisidėti prie šio tikslo, Europos Parlamento ir Tarybos reglamentas (ES) 2023/988 (53) būtų taikomas kaip apsaugos sistema;
(167)
In order to ensure trustful and constructive cooperation of competent authorities on Union and national level, all parties involved in the application of this Regulation should respect the confidentiality of information and data obtained in carrying out their tasks, in accordance with Union or national law. They should carry out their tasks and activities in such a manner as to protect, in particular, intellectual property rights, confidential business information and trade secrets, the effective implementation of this Regulation, public and national security interests, the integrity of criminal and administrative proceedings, and the integrity of classified information.
(167)
siekiant užtikrinti patikimą ir konstruktyvų kompetentingų institucijų bendradarbiavimą Sąjungos ir nacionaliniu lygmenimis, visos šalys, kurios dalyvauja taikant šį reglamentą, turėtų užtikrinti informacijos ir duomenų, gautų vykdant savo užduotis, konfidencialumą pagal Sąjungos ar nacionalinę teisę. Jos turėtų vykdyti savo užduotis ir veiklą taip, kad visų pirma apsaugotų intelektinės nuosavybės teises, konfidencialią verslo informaciją ir komercines paslaptis, veiksmingą šio reglamento įgyvendinimą, visuomenės ir nacionalinio saugumo interesus, baudžiamojo ir administracinio proceso integralumą ir įslaptintos informacijos integralumą;
(168)
Compliance with this Regulation should be enforceable by means of the imposition of penalties and other enforcement measures. Member States should take all necessary measures to ensure that the provisions of this Regulation are implemented, including by laying down effective, proportionate and dissuasive penalties for their infringement, and to respect the ne bis in idem principle. In order to strengthen and harmonise administrative penalties for infringement of this Regulation, the upper limits for setting the administrative fines for certain specific infringements should be laid down. When assessing the amount of the fines, Member States should, in each individual case, take into account all relevant circumstances of the specific situation, with due regard in particular to the nature, gravity and duration of the infringement and of its consequences and to the size of the provider, in particular if the provider is an SME, including a start-up. The European Data Protection Supervisor should have the power to impose fines on Union institutions, agencies and bodies falling within the scope of this Regulation.
(168)
šio reglamento laikymasis turėtų būti užtikrinamas nustatant sankcijas ir kitas vykdymo užtikrinimo priemones. Valstybės narės turėtų imtis visų reikiamų priemonių siekdamos užtikrinti, kad būtų įgyvendintos šio reglamento nuostatos, be kita ko, nustatydamos veiksmingas, proporcingas ir atgrasomas sankcijas už jų pažeidimą, ir kad būtų vadovaujamasi principu ne bis in idem. Siekiant sugriežtinti ir suderinti administracines sankcijas už šio reglamento pažeidimus, turėtų būti nustatytos viršutinės administracinių baudų už tam tikrus konkrečius pažeidimus ribos. Nustatydamos baudų dydį, valstybės narės kiekvienu atskiru atveju turėtų atsižvelgti į visas svarbias konkrečios situacijos aplinkybes, visų pirma atsižvelgti į pažeidimo pobūdį, sunkumą ir trukmę, sukeltas pasekmes ir tiekėjo dydį, ypač jei tiekėjas yra MVĮ, įskaitant startuolius. Europos duomenų apsaugos priežiūros pareigūnas taip pat turėtų turėti įgaliojimus skirti baudas Sąjungos institucijoms, agentūroms ir įstaigoms, kurios patenka į šio reglamento taikymo sritį;
(169)
Compliance with the obligations on providers of general-purpose AI models imposed under this Regulation should be enforceable, inter alia, by means of fines. To that end, appropriate levels of fines should also be laid down for infringement of those obligations, including the failure to comply with measures requested by the Commission in accordance with this Regulation, subject to appropriate limitation periods in accordance with the principle of proportionality. All decisions taken by the Commission under this Regulation are subject to review by the Court of Justice of the European Union in accordance with the TFEU, including the unlimited jurisdiction of the Court of Justice with regard to penalties pursuant to Article 261 TFEU.
(169)
pagal šį reglamentą nustatytų bendrosios paskirties DI modelių tiekėjų pareigų vykdymas turėtų būti užtikrinamas, inter alia, skiriant baudas. Tuo tikslu taip pat turėtų būti nustatyti tinkami baudų dydžiai už tų pareigų pažeidimą, įskaitant priemonių, kurių Komisija prašo imtis pagal šį reglamentą, nesilaikymą, taikant tinkamus laiko ribų terminus pagal proporcingumo principą. Visus pagal šį reglamentą priimtus Komisijos sprendimus pagal SESV gali peržiūrėti Europos Sąjungos Teisingumo Teismas, įskaitant neribotą Teisingumo Teismo jurisdikciją dėl sankcijų pagal SESV 261 straipsnį;
(170)
Union and national law already provide effective remedies to natural and legal persons whose rights and freedoms are adversely affected by the use of AI systems. Without prejudice to those remedies, any natural or legal person that has grounds to consider that there has been an infringement of this Regulation should be entitled to lodge a complaint to the relevant market surveillance authority.
(170)
Sąjungos ir nacionalinėje teisėje jau numatytos veiksmingos teisių gynimo priemonės fiziniams ir juridiniams asmenims, kurių teisėms ir laisvėms DI sistemų naudojimas daro neigiamą poveikį. Nedarant poveikio toms teisių gynimo priemonėms, bet kuris fizinis ar juridinis asmuo, turintis pagrindo manyti, kad šis reglamentas buvo pažeistas, gali atitinkamai rinkos priežiūros institucijai pateikti skundą;
(171)
Affected persons should have the right to obtain an explanation where a deployer’s decision is based mainly upon the output from certain high-risk AI systems that fall within the scope of this Regulation and where that decision produces legal effects or similarly significantly affects those persons in a way that they consider to have an adverse impact on their health, safety or fundamental rights. That explanation should be clear and meaningful and should provide a basis on which the affected persons are able to exercise their rights. The right to obtain an explanation should not apply to the use of AI systems for which exceptions or restrictions follow from Union or national law and should apply only to the extent this right is not already provided for under Union law.
(171)
asmenys, kuriems daromas poveikis, turėtų turėti teisę gauti paaiškinimą, kai diegėjo sprendimas daugiausia grindžiamas tam tikrų didelės rizikos AI sistemų, kurios patenka į šio reglamento taikymo sritį, išvediniais ir kai tas sprendimas sukelia teisinių pasekmių arba daro panašų didelį poveikį tiems asmenims taip, kad, jų nuomone, daro neigiamą poveikį jų sveikatai, saugai ar pagrindinėms teisėms. Tas paaiškinimas turėtų būti aiškus ir prasmingas ir jis turėtų sudaryti pagrindą, kuriuo remdamiesi asmenys, kuriems daromas poveikis, galėtų naudotis savo teisėmis. Teisė gauti paaiškinimą neturėtų būti taikoma DI sistemų, kurioms taikomos išimtys ar apribojimai pagal Sąjungos ar nacionalinę teisę, naudojimui ir turėtų būti taikoma tik tiek, kiek ši teisė dar nenumatyta Sąjungos teisėje;
(172)
Persons acting as whistleblowers on the infringements of this Regulation should be protected under the Union law. Directive (EU) 2019/1937 of the European Parliament and of the Council (54) should therefore apply to the reporting of infringements of this Regulation and the protection of persons reporting such infringements.
(172)
asmenys, pranešantys apie šio reglamento pažeidimus, (pranešėjai) turėtų būti apsaugomi pagal Sąjungos teisę. Todėl pranešimams apie šio reglamento pažeidimus ir asmenų, pranešančių apie tokius pažeidimus, apsaugai turėtų būti taikoma Europos Parlamento ir Tarybos direktyva (ES) 2019/1937 (54);
(173)
In order to ensure that the regulatory framework can be adapted where necessary, the power to adopt acts in accordance with Article 290 TFEU should be delegated to the Commission to amend the conditions under which an AI system is not to be considered to be high-risk, the list of high-risk AI systems, the provisions regarding technical documentation, the content of the EU declaration of conformity the provisions regarding the conformity assessment procedures, the provisions establishing the high-risk AI systems to which the conformity assessment procedure based on assessment of the quality management system and assessment of the technical documentation should apply, the threshold, benchmarks and indicators, including by supplementing those benchmarks and indicators, in the rules for the classification of general-purpose AI models with systemic risk, the criteria for the designation of general-purpose AI models with systemic risk, the technical documentation for providers of general-purpose AI models and the transparency information for providers of general-purpose AI models. It is of particular importance that the Commission carry out appropriate consultations during its preparatory work, including at expert level, and that those consultations be conducted in accordance with the principles laid down in the Interinstitutional Agreement of 13 April 2016 on Better Law-Making (55). In particular, to ensure equal participation in the preparation of delegated acts, the European Parliament and the Council receive all documents at the same time as Member States’ experts, and their experts systematically have access to meetings of Commission expert groups dealing with the preparation of delegated acts.
(173)
siekiant užtikrinti, kad prireikus reguliavimo sistemą būtų galima pritaikyti, pagal SESV 290 straipsnį Komisijai turėtų būti deleguoti įgaliojimai priimti aktus, kuriais iš dalies keičiamos sąlygos, kuriomis DI sistema nelaikoma keliančia didelę riziką, didelės rizikos DI sistemų sąrašas, nuostatos dėl techninių dokumentų, ES atitikties deklaracijos turinys, nuostatos dėl atitikties vertinimo procedūrų, nuostatos, kuriomis nustatomos didelės rizikos DI sistemos, kurioms turėtų būti taikoma kokybės valdymo sistemos vertinimu ir techninių dokumentų vertinimu grindžiama atitikties vertinimo procedūra, ribinės vertės, lyginamieji parametrai ir rodikliai, be kita ko, papildant tuos lyginamuosius parametrus ir rodiklius, sisteminės rizikos bendrosios paskirties DI modelių klasifikavimo taisyklėse, sisteminės rizikos bendrosios paskirties DI modelių priskyrimo kriterijai, bendrosios paskirties DI modelių tiekėjams skirti techniniai dokumentai ir skaidrumo informacija bendrosios paskirties DI modelių tiekėjams. Ypač svarbu, kad atlikdama parengiamąjį darbą Komisija tinkamai konsultuotųsi, taip pat ir su ekspertais, ir kad tos konsultacijos būtų vykdomos vadovaujantis 2016 m. balandžio 13 d. Tarpinstituciniame susitarime dėl geresnės teisėkūros (55) nustatytais principais. Visų pirma siekiant užtikrinti vienodas galimybes dalyvauti atliekant su deleguotaisiais aktais susijusį parengiamąjį darbą, Europos Parlamentas ir Taryba visus dokumentus gauna tuo pačiu metu kaip ir valstybių narių ekspertai, o jų ekspertams sistemingai suteikiama galimybė dalyvauti Komisijos ekspertų grupių, kurios atlieka su deleguotaisiais aktais susijusį parengiamąjį darbą, posėdžiuose;
(174)
Given the rapid technological developments and the technical expertise required to effectively apply this Regulation, the Commission should evaluate and review this Regulation by 2 August 2029 and every four years thereafter and report to the European Parliament and the Council. In addition, taking into account the implications for the scope of this Regulation, the Commission should carry out an assessment of the need to amend the list of high-risk AI systems and the list of prohibited practices once a year. Moreover, by 2 August 2028 and every four years thereafter, the Commission should evaluate and report to the European Parliament and to the Council on the need to amend the list of high-risk areas headings in the annex to this Regulation, the AI systems within the scope of the transparency obligations, the effectiveness of the supervision and governance system and the progress on the development of standardisation deliverables on energy efficient development of general-purpose AI models, including the need for further measures or actions. Finally, by 2 August 2028 and every three years thereafter, the Commission should evaluate the impact and effectiveness of voluntary codes of conduct to foster the application of the requirements provided for high-risk AI systems in the case of AI systems other than high-risk AI systems and possibly other additional requirements for such AI systems.
(174)
atsižvelgdama į sparčią technologinę plėtrą ir technines ekspertines žinias, reikalingas, kad šis reglamentas būtų veiksmingai taikomas, Komisija ne vėliau kaip 2029 m. rugpjūčio 2 d., o vėliau – kas ketverius metus turėtų įvertinti ir peržiūrėti šį reglamentą ir pateikti ataskaitą Europos Parlamentui ir Tarybai. Be to, atsižvelgiant į poveikį šio reglamento taikymo sričiai, Komisija kartą per metus turėtų įvertinti poreikį iš dalies pakeisti didelės rizikos DI sistemų sąrašą ir draudžiamos praktikos sąrašą. Taip pat ne vėliau kaip 2028 m. rugpjūčio 2 d., o vėliau – kas ketverius metus Komisija turėtų įvertinti poreikį iš dalies pakeisti šio reglamento priede pateiktą didelės rizikos sričių pavadinimų sąrašą, DI sistemas, kurioms taikomos skaidrumo pareigos, priežiūros ir valdymo sistemos veiksmingumą, pažangą rengiant standartizacijos leidinius, susijusius su bendrosios paskirties DI modelių kūrimu efektyviai vartojant energiją, įskaitant tolesnių priemonių ar veiksmų poreikį, ir pateikti ataskaitą Europos Parlamentui ir Tarybai. Galiausiai ne vėliau kaip 2028 m. rugpjūčio 2 d., o vėliau – kas trejus metus Komisija turėtų įvertinti savanoriškų elgesio kodeksų poveikį ir veiksmingumą siekiant skatinti taikyti didelės rizikos DI sistemoms nustatytus reikalavimus kitoms DI sistemoms nei didelės rizikos DI sistemos ir galbūt kitus papildomus tokioms DI sistemoms taikomus reikalavimus;
(175)
In order to ensure uniform conditions for the implementation of this Regulation, implementing powers should be conferred on the Commission. Those powers should be exercised in accordance with Regulation (EU) No 182/2011 of the European Parliament and of the Council (56).
(175)
siekiant užtikrinti vienodas šio reglamento įgyvendinimo sąlygas, Komisijai turėtų būti suteikti įgyvendinimo įgaliojimai. Tais įgaliojimais turėtų būti naudojamasi laikantis Europos Parlamento ir Tarybos reglamento (ES) Nr. 182/2011 (56);
(176)
Since the objective of this Regulation, namely to improve the functioning of the internal market and to promote the uptake of human centric and trustworthy AI, while ensuring a high level of protection of health, safety, fundamental rights enshrined in the Charter, including democracy, the rule of law and environmental protection against harmful effects of AI systems in the Union and supporting innovation, cannot be sufficiently achieved by the Member States and can rather, by reason of the scale or effects of the action, be better achieved at Union level, the Union may adopt measures in accordance with the principle of subsidiarity as set out in Article 5 TEU. In accordance with the principle of proportionality as set out in that Article, this Regulation does not go beyond what is necessary in order to achieve that objective.
(176)
kadangi šio reglamento tikslo, t. y. pagerinti vidaus rinkos veikimą, skatinti į žmogų orientuoto ir patikimo DI įsisavinimą, kartu užtikrinant aukšto lygio sveikatos, saugos, Chartijoje įtvirtintų pagrindinių teisių apsaugą, įskaitant demokratiją, teisinę valstybę ir aplinkos apsaugą nuo žalingo DI sistemų poveikio Sąjungoje, ir remti inovacijas, valstybės narės negali deramai pasiekti, o dėl siūlomo veiksmo masto arba poveikio to tikslo būtų geriau siekti Sąjungos lygmeniu, laikydamasi ES sutarties 5 straipsnyje nustatyto subsidiarumo principo Sąjunga gali patvirtinti priemones. Pagal tame straipsnyje nustatytą proporcingumo principą šiuo reglamentu neviršijama to, kas būtina nurodytam tikslui pasiekti;
(177)
In order to ensure legal certainty, ensure an appropriate adaptation period for operators and avoid disruption to the market, including by ensuring continuity of the use of AI systems, it is appropriate that this Regulation applies to the high-risk AI systems that have been placed on the market or put into service before the general date of application thereof, only if, from that date, those systems are subject to significant changes in their design or intended purpose. It is appropriate to clarify that, in this respect, the concept of significant change should be understood as equivalent in substance to the notion of substantial modification, which is used with regard only to high-risk AI systems pursuant to this Regulation. On an exceptional basis and in light of public accountability, operators of AI systems which are components of the large-scale IT systems established by the legal acts listed in an annex to this Regulation and operators of high-risk AI systems that are intended to be used by public authorities should, respectively, take the necessary steps to comply with the requirements of this Regulation by end of 2030 and by 2 August 2030.
(177)
siekiant užtikrinti teisinį tikrumą, veiklos vykdytojams užtikrinti tinkamą prisitaikymo laikotarpį ir išvengti rinkos sutrikdymo, be kita ko, užtikrinant DI sistemų naudojimo tęstinumą, tikslinga, kad šis reglamentas būtų taikomas didelės rizikos DI sistemoms, kurios buvo pateiktos rinkai arba pradėtos naudoti iki jo bendros taikymo pradžios datos, tik tuo atveju, jeigu po tos datos tų sistemų konstrukcija ar numatytoji paskirtis reikšmingai pasikeitė. Tikslinga paaiškinti, kad šiuo atžvilgiu reikšmingo pakeitimo sąvoka turėtų būti suprantama kaip iš esmės lygiavertė esminio pakeitimo sąvokai, kuri pagal šį reglamentą taikoma tik didelės rizikos DI sistemoms. Išimties tvarka ir atsižvelgiant į viešąją atskaitomybę, DI sistemų, kurios yra didelės apimties IT sistemų, nustatytų šio reglamento priede išvardytais teisės aktais, komponentai, operatoriai ir didelės rizikos DI sistemų, kurias ketina naudoti valdžios institucijos, operatoriai atitinkamai turėtų imtis būtinų veiksmų, kad ne vėliau kaip 2030 m. pabaigoje ir ne vėliau kaip 2030 m. rugpjūčio 2 d. būtų laikomasi šio reglamento reikalavimų;
(178)
Providers of high-risk AI systems are encouraged to start to comply, on a voluntary basis, with the relevant obligations of this Regulation already during the transitional period.
(178)
didelės rizikos DI sistemų tiekėjai raginami jau pereinamuoju laikotarpiu savanoriškai pradėti vykdyti atitinkamas šiame reglamente nustatytas pareigas;
(179)
This Regulation should apply from 2 August 2026. However, taking into account the unacceptable risk associated with the use of AI in certain ways, the prohibitions as well as the general provisions of this Regulation should already apply from 2 February 2025. While the full effect of those prohibitions follows with the establishment of the governance and enforcement of this Regulation, anticipating the application of the prohibitions is important to take account of unacceptable risks and to have an effect on other procedures, such as in civil law. Moreover, the infrastructure related to the governance and the conformity assessment system should be operational before 2 August 2026, therefore the provisions on notified bodies and governance structure should apply from 2 August 2025. Given the rapid pace of technological advancements and adoption of general-purpose AI models, obligations for providers of general-purpose AI models should apply from 2 August 2025. Codes of practice should be ready by 2 May 2025 in view of enabling providers to demonstrate compliance on time. The AI Office should ensure that classification rules and procedures are up to date in light of technological developments. In addition, Member States should lay down and notify to the Commission the rules on penalties, including administrative fines, and ensure that they are properly and effectively implemented by the date of application of this Regulation. Therefore the provisions on penalties should apply from 2 August 2025.
(179)
šis reglamentas turėtų būti taikomas nuo 2026 m. rugpjūčio 2 d. Tačiau, atsižvelgiant į nepriimtiną riziką, susijusią su DI naudojimu tam tikrais būdais, draudimai bei bendros šio reglamento nuostatos turėtų būti taikomi jau nuo 2025 m. vasario 2 d. Nors visapusiškas tų draudimų poveikis užtikrinamas nustačius šio reglamento valdymą ir vykdymo užtikrinimą, svarbu numatyti draudimų taikymą, kad būtų atsižvelgta į nepriimtiną riziką ir būtų daromas poveikis kitoms procedūroms, pavyzdžiui, civilinėje teisėje. Be to, su valdymo struktūra ir atitikties vertinimo sistema susijusi infrastruktūra turėtų būti parengta veikti anksčiau nei 2026 m. rugpjūčio 2 d., todėl su notifikuotosiomis įstaigomis ir valdymo struktūra susijusios nuostatos turėtų būti taikomos nuo 2025 m. rugpjūčio 2 d. Atsižvelgiant į spartų technologinės pažangos tempą ir bendrosios paskirties DI modelių diegimą, bendrosios paskirties DI modelių tiekėjų pareigos turėtų būti taikomos nuo 2025 m. rugpjūčio 2 d. Praktikos kodeksai turėtų būti parengti ne vėliau kaip 2025 m. gegužės 2 d. siekiant sudaryti tiekėjams sąlygas laiku įrodyti, kad jie laikosi reikalavimų. DI tarnyba turėtų užtikrinti, kad klasifikavimo taisyklės ir procedūros būtų atnaujinamos atsižvelgiant į technologinę plėtrą. Be to, valstybės narės turėtų nustatyti ir pranešti Komisijai apie sankcijų, įskaitant administracines baudas, taisykles ir užtikrinti, kad jos būtų tinkamai ir veiksmingai įgyvendintos iki šio reglamento taikymo pradžios datos. Todėl nuostatos dėl sankcijų turėtų būti taikomos nuo 2025 m. rugpjūčio 2 d.;
(180)
The European Data Protection Supervisor and the European Data Protection Board were consulted in accordance with Article 42(1) and (2) of Regulation (EU) 2018/1725 and delivered their joint opinion on 18 June 2021,
(180)
vadovaujantis Reglamento (ES) 2018/1725 42 straipsnio 1 ir 2 dalimis buvo konsultuojamasi su Europos duomenų apsaugos priežiūros pareigūnu ir Europos duomenų apsaugos valdyba ir jie pateikė savo bendrą nuomonę 2021 m. birželio 18 d.,
HAVE ADOPTED THIS REGULATION:
PRIĖMĖ ŠĮ REGLAMENTĄ:
CHAPTER I
I SKYRIUS
GENERAL PROVISIONS
BENDROSIOS NUOSTATOS
Article 1
1 straipsnis
Subject matter`
Dalykas
1. The purpose of this Regulation is to improve the functioning of the internal market and promote the uptake of human-centric and trustworthy artificial intelligence (AI), while ensuring a high level of protection of health, safety, fundamental rights enshrined in the Charter, including democracy, the rule of law and environmental protection, against the harmful effects of AI systems in the Union and supporting innovation.
1. Šio reglamento tikslas – pagerinti vidaus rinkos veikimą ir skatinti į žmogų orientuoto ir patikimo dirbtinio intelekto (DI) įsisavinimą, kartu užtikrinant aukšto lygio sveikatos, saugos, Chartijoje įtvirtintų pagrindinių teisių apsaugą, įskaitant demokratiją, teisinę valstybę ir aplinkos apsaugą nuo žalingo DI sistemų poveikio Sąjungoje, ir remiant inovacijas.
2. This Regulation lays down:
2. Šiuo reglamentu nustatoma:
(a)
harmonised rules for the placing on the market, the putting into service, and the use of AI systems in the Union;
a)
suderintos DI sistemų pateikimo rinkai, pradėjimo naudoti ir naudojimo Sąjungoje taisyklės;
(b)
prohibitions of certain AI practices;
b)
tam tikros su DI susijusios praktikos draudimai;
(c)
specific requirements for high-risk AI systems and obligations for operators of such systems;
c)
konkretūs didelės rizikos DI sistemoms taikomi reikalavimai ir su tokiomis sistemomis susijusios veiklos vykdytojų pareigos;
(d)
harmonised transparency rules for certain AI systems;
d)
suderintos tam tikroms DI sistemoms taikomos skaidrumo taisyklės;
(e)
harmonised rules for the placing on the market of general-purpose AI models;
e)
bendrosios paskirties DI modelių pateikimo rinkai suderintos taisyklės;
(f)
rules on market monitoring, market surveillance, governance and enforcement;
f)
rinkos stebėsenos, rinkos priežiūros, valdymo ir vykdymo užtikrinimo taisyklės;
(g)
measures to support innovation, with a particular focus on SMEs, including start-ups.
g)
inovacijų rėmimo priemonės, ypatingą dėmesį skiriant MVĮ, įskaitant startuolius.
Article 2
2 straipsnis
Scope
Taikymo sritis
1. This Regulation applies to:
1. Šis reglamentas taikomas:
(a)
providers placing on the market or putting into service AI systems or placing on the market general-purpose AI models in the Union, irrespective of whether those providers are established or located within the Union or in a third country;
a)
tiekėjams, pateikiantiems rinkai arba pradedantiems naudoti DI sistemas, arba pateikiantiems rinkai bendrosios paskirties DI modelius Sąjungoje, nepriklausomai nuo to, ar tie tiekėjai yra įsisteigę ar yra Sąjungoje, ar trečiojoje valstybėje;
(b)
deployers of AI systems that have their place of establishment or are located within the Union;
b)
Sąjungoje įsisteigimo vietą turintiems arba esantiems DI diegėjams;
(c)
providers and deployers of AI systems that have their place of establishment or are located in a third country, where the output produced by the AI system is used in the Union;
c)
trečiojoje valstybėje įsisteigimo vietą turintiems arba esantiems DI sistemų, kurių sugeneruoti išvediniai naudojami Sąjungoje, tiekėjams ir diegėjams;
(d)
importers and distributors of AI systems;
d)
DI sistemų importuotojams ir platintojams;
(e)
product manufacturers placing on the market or putting into service an AI system together with their product and under their own name or trademark;
e)
gaminių gamintojams, kurie pateikia rinkai arba pradeda naudoti DI sistemą kartu su savo gaminiu ir savo vardu ar naudodami savo prekių ženklą;
(f)
authorised representatives of providers, which are not established in the Union;
f)
ne Sąjungoje įsisteigusių tiekėjų įgaliotiesiems atstovams;
(g)
affected persons that are located in the Union.
g)
Sąjungoje esantiems asmenims, kuriems daromas poveikis.
2. For AI systems classified as high-risk AI systems in accordance with Article 6(1) related to products covered by the Union harmonisation legislation listed in Section B of Annex I, only Article 6(1), Articles 102 to 109 and Article 112 apply. Article 57 applies only in so far as the requirements for high-risk AI systems under this Regulation have been integrated in that Union harmonisation legislation.
2. DI sistemoms, kurios pagal 6 straipsnio 1 dalį klasifikuojamos kaip didelės rizikos DI sistemos ir yra susijusios su gaminiais, kuriems taikomi I priedo B skirsnyje išvardyti Sąjungos derinamieji teisės aktai, taikomi tik 6 straipsnio 1 dalis, 102–109 straipsniai ir 112 straipsnis. 57 straipsnis taikomas tik tiek, kiek didelės rizikos DI sistemoms pagal šį reglamentą taikomi reikalavimai buvo integruoti į tuos Sąjungos derinamuosius teisės aktus.
3. This Regulation does not apply to areas outside the scope of Union law, and shall not, in any event, affect the competences of the Member States concerning national security, regardless of the type of entity entrusted by the Member States with carrying out tasks in relation to those competences.
3. Šis reglamentas netaikomas sritims, kurios nepatenka į Sąjungos teisės taikymo sritį, ir bet kuriuo atveju nedaro poveikio valstybių narių kompetencijai nacionalinio saugumo srityje, neatsižvelgiant į subjektų, kuriems valstybės narės patikėjo vykdyti su ta kompetencija susijusias užduotis, rūšį.
This Regulation does not apply to AI systems where and in so far they are placed on the market, put into service, or used with or without modification exclusively for military, defence or national security purposes, regardless of the type of entity carrying out those activities.
Šis reglamentas netaikomas DI sistemoms, kai ir tiek, kiek jos pateikiamos rinkai, pradedamos naudoti arba naudojamos su pakeitimais ar be jų tik kariniais, gynybos ar nacionalinio saugumo tikslais, neatsižvelgiant į tą veiklą vykdančio subjekto rūšį.
This Regulation does not apply to AI systems which are not placed on the market or put into service in the Union, where the output is used in the Union exclusively for military, defence or national security purposes, regardless of the type of entity carrying out those activities.
Šis reglamentas netaikomas DI sistemoms, kurios nėra pateiktos rinkai ir nėra pradėtos naudoti Sąjungoje, kai jų išvediniai yra naudojami Sąjungoje tik kariniais, gynybos ar nacionalinio saugumo tikslais, neatsižvelgiant į tą veiklą vykdančio subjekto rūšį.
4. This Regulation applies neither to public authorities in a third country nor to international organisations falling within the scope of this Regulation pursuant to paragraph 1, where those authorities or organisations use AI systems in the framework of international cooperation or agreements for law enforcement and judicial cooperation with the Union or with one or more Member States, provided that such a third country or international organisation provides adequate safeguards with respect to the protection of fundamental rights and freedoms of individuals.
4. Šis reglamentas taip pat netaikomas trečiosios valstybės valdžios institucijoms ir tarptautinėms organizacijoms, kurios pagal 1 dalį patenka į šio reglamento taikymo sritį, kai tos institucijos ar organizacijos DI sistemas naudoja vykdydamos tarptautinį bendradarbiavimą arba susitarimus teisėsaugos ir teisminio bendradarbiavimo su Sąjunga arba su viena ar daugiau valstybių narių tikslais, jei tokia trečioji valstybė ar tarptautinė organizacija numato tinkamas saugumo priemones asmenų pagrindinėms teisėms ir laisvėms apsaugoti.
5. This Regulation shall not affect the application of the provisions on the liability of providers of intermediary services as set out in Chapter II of Regulation (EU) 2022/2065.
5. Šis reglamentas nedaro poveikio Reglamento (ES) 2022/2065 II skyriuje išdėstytų nuostatų dėl tarpininkavimo paslaugų teikėjų atsakomybės taikymui.
6. This Regulation does not apply to AI systems or AI models, including their output, specifically developed and put into service for the sole purpose of scientific research and development.
6. Šis reglamentas netaikomas DI sistemoms ar DI modeliams, įskaitant jų išvedinius, kurie specialiai sukurti ir pradėti naudoti vien mokslinių tyrimų ir plėtros tikslais.
7. Union law on the protection of personal data, privacy and the confidentiality of communications applies to personal data processed in connection with the rights and obligations laid down in this Regulation. This Regulation shall not affect Regulation (EU) 2016/679 or (EU) 2018/1725, or Directive 2002/58/EC or (EU) 2016/680, without prejudice to Article 10(5) and Article 59 of this Regulation.
7. Asmens duomenims, tvarkomiems atsižvelgiant į šiame reglamente nustatytas teises ir pareigas, taikoma Sąjungos teisė dėl asmens duomenų apsaugos, privatumo ir pranešimų konfidencialumo. Šis reglamentas nedaro poveikio Reglamentui (ES) 2016/679 ar (ES) 2018/1725, Direktyvai 2002/58/EB ar (ES) 2016/680, nedarant poveikio šio reglamento 10 straipsnio 5 daliai ir 59 straipsniui.
8. This Regulation does not apply to any research, testing or development activity regarding AI systems or AI models prior to their being placed on the market or put into service. Such activities shall be conducted in accordance with applicable Union law. Testing in real world conditions shall not be covered by that exclusion.
8. Šis reglamentas netaikomas jokiai mokslinių tyrimų, bandymų ar plėtros veiklai, susijusiai su DI sistemomis ar DI modeliais, prieš juos pateikiant rinkai ar pradedant naudoti. Tokia veikla vykdoma laikantis taikytinos Sąjungos teisės. Ši nuostata dėl netaikymo netaikoma bandymams realiomis sąlygomis.
9. This Regulation is without prejudice to the rules laid down by other Union legal acts related to consumer protection and product safety.
9. Šiuo reglamentu nedaromas poveikis kitais Sąjungos teisės aktais, susijusiais su vartotojų apsauga ir gaminių sauga, nustatytoms taisyklėms.
10. This Regulation does not apply to obligations of deployers who are natural persons using AI systems in the course of a purely personal non-professional activity.
10. Šis reglamentas netaikomas diegėjų, kurie yra fiziniai asmenys, naudojantys DI sistemas vykdydami tik asmeninę neprofesinę veiklą, pareigoms.
11. This Regulation does not preclude the Union or Member States from maintaining or introducing laws, regulations or administrative provisions which are more favourable to workers in terms of protecting their rights in respect of the use of AI systems by employers, or from encouraging or allowing the application of collective agreements which are more favourable to workers.
11. Šiuo reglamentu Sąjungai ar valstybėms narėms neužkertamas kelias toliau taikyti arba priimti darbuotojams palankesnius įstatymus ir kitus teisės aktus, kiek tai susiję su jų teisių apsauga, kai darbdaviai naudoja DI sistemas, arba skatinti ar leisti taikyti darbuotojams palankesnes kolektyvines sutartis.
12. This Regulation does not apply to AI systems released under free and open-source licences, unless they are placed on the market or put into service as high-risk AI systems or as an AI system that falls under Article 5 or 50.
12. Šis reglamentas netaikomas DI sistemoms, išleistoms pagal nemokamas atvirojo kodo licencijas, nebent jos pateikiamos rinkai arba pradedamos naudoti kaip didelės rizikos DI sistemos arba kaip DI sistemos, patenkančios į 5 arba 50 straipsnio taikymo sritį.
Article 3
3 straipsnis
Definitions
Terminų apibrėžtys
For the purposes of this Regulation, the following definitions apply:
Šiame reglamente vartojamų terminų apibrėžtys:
(1)
‘AI system’ means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments;
1)
DI sistema – mašina grindžiama sistema, suprojektuota veikti įvairiais autonomijos lygiais, kuri po diegimo gali veikti prisitaikydama ir kuri, siekiant aiškių ar numanomų tikslų, iš gautos įvesties duomenų daro išvadą, kaip generuoti išvedinius, pavyzdžiui, predikcijas, turinį, rekomendacijas ar sprendimus, kurie gali turėti įtakos fizinei ar virtualiai aplinkai;
(2)
‘risk’ means the combination of the probability of an occurrence of harm and the severity of that harm;
2)
rizika – žalos atsiradimo tikimybės ir tos žalos masto derinys;
(3)
‘provider’ means a natural or legal person, public authority, agency or other body that develops an AI system or a general-purpose AI model or that has an AI system or a general-purpose AI model developed and places it on the market or puts the AI system into service under its own name or trademark, whether for payment or free of charge;
3)
tiekėjas – fizinis arba juridinis asmuo, valdžios institucija, agentūra ar kita įstaiga, kurie kuria DI sistemą arba bendrosios paskirties DI modelį arba nurodo kurti DI sistemą arba bendrosios paskirties DI modelį ir pateikia juos rinkai arba pradeda DI sistemą naudoti savo vardu ar su savo prekių ženklu už atlygį arba nemokamai;
(4)
‘deployer’ means a natural or legal person, public authority, agency or other body using an AI system under its authority except where the AI system is used in the course of a personal non-professional activity;
4)
diegėjas – fizinis arba juridinis asmuo, valdžios institucija, agentūra ar kita įstaiga, naudojantys DI sistemą pagal savo įgaliojimus, išskyrus atvejus, kai DI sistema naudojama asmeniniais neprofesinės veiklos tikslais;
(5)
‘authorised representative’ means a natural or legal person located or established in the Union who has received and accepted a written mandate from a provider of an AI system or a general-purpose AI model to, respectively, perform and carry out on its behalf the obligations and procedures established by this Regulation;
5)
įgaliotasis atstovas – Sąjungoje esantis ar įsisteigęs fizinis arba juridinis asmuo, gavęs ir priėmęs raštišką DI sistemos arba bendrosios paskirties DI modelio tiekėjo įgaliojimą jo vardu vykdyti šiame reglamente nustatytas pareigas ir procedūras;
(6)
‘importer’ means a natural or legal person located or established in the Union that places on the market an AI system that bears the name or trademark of a natural or legal person established in a third country;
6)
importuotojas – Sąjungoje esantis ar įsisteigęs fizinis arba juridinis asmuo, rinkai pateikiantis DI sistemą, kurios pavadinimas arba prekių ženklas priklauso trečiojoje valstybėje įsisteigusiam fiziniam arba juridiniam asmeniui;
(7)
‘distributor’ means a natural or legal person in the supply chain, other than the provider or the importer, that makes an AI system available on the Union market;
7)
platintojas – tiekimo grandinėje veikiantis fizinis arba juridinis asmuo, išskyrus tiekėją ir importuotoją, kuris tiekia DI sistemą Sąjungos rinkai;
(8)
‘operator’ means a provider, product manufacturer, deployer, authorised representative, importer or distributor;
8)
veiklos vykdytojas – tiekėjas, gaminių gamintojas, diegėjas, įgaliotasis atstovas, importuotojas arba platintojas;
(9)
‘placing on the market’ means the first making available of an AI system or a general-purpose AI model on the Union market;
9)
pateikimas rinkai – DI sistemos arba bendrosios paskirties DI modelio tiekimas Sąjungos rinkai pirmą kartą;
(10)
‘making available on the market’ means the supply of an AI system or a general-purpose AI model for distribution or use on the Union market in the course of a commercial activity, whether in return for payment or free of charge;
10)
tiekimas rinkai – DI sistemos arba bendrosios paskirties DI modelio tiekimas už atlygį arba nemokamai siekiant juos platinti arba naudoti Sąjungos rinkoje vykdant komercinę veiklą;
(11)
‘putting into service’ means the supply of an AI system for first use directly to the deployer or for own use in the Union for its intended purpose;
11)
pradėjimas naudoti – DI sistemos pateikimas pirmą kartą naudoti tiesiogiai diegėjui arba savo reikmėms Sąjungoje pagal jos numatytąją paskirtį;
(12)
‘intended purpose’ means the use for which an AI system is intended by the provider, including the specific context and conditions of use, as specified in the information supplied by the provider in the instructions for use, promotional or sales materials and statements, as well as in the technical documentation;
12)
numatytoji paskirtis – tiekėjo numatyta DI sistemos paskirtis, įskaitant konkrečias naudojimo aplinkybes ir sąlygas, nurodyta informacijoje, kurią tiekėjas pateikė naudojimo instrukcijoje, reklaminėje ar pardavimo medžiagoje bei teiginiuose ir techniniuose dokumentuose;
(13)
‘reasonably foreseeable misuse’ means the use of an AI system in a way that is not in accordance with its intended purpose, but which may result from reasonably foreseeable human behaviour or interaction with other systems, including other AI systems;
13)
pagrįstai numatomas netinkamas naudojimas – DI sistemos naudojimas ne pagal numatytąją paskirtį, kurį gali nulemti pagrįstai numatomas žmogaus elgesys ar sąveika su kitomis sistemomis, įskaitant kitas DI sistemas;
(14)
‘safety component’ means a component of a product or of an AI system which fulfils a safety function for that product or AI system, or the failure or malfunctioning of which endangers the health and safety of persons or property;
14)
saugos komponentas – gaminio arba DI sistemos komponentas, kuris atlieka to gaminio ar DI sistemos saugos funkciją arba dėl kurio gedimo ar veikimo sutrikimo kyla rizika žmonių sveikatai ir saugai arba turtui;
(15)
‘instructions for use’ means the information provided by the provider to inform the deployer of, in particular, an AI system’s intended purpose and proper use;
15)
naudojimo instrukcija – informacija, kurią tiekėjas pateikia siekdamas informuoti diegėją visų pirma apie numatytąją DI sistemos paskirtį bei tinkamą jos naudojimą;
(16)
‘recall of an AI system’ means any measure aiming to achieve the return to the provider or taking out of service or disabling the use of an AI system made available to deployers;
16)
DI sistemos atšaukimas – priemonės, kuriomis siekiama, kad diegėjams jau pateikta DI sistema būtų grąžinta tiekėjui arba kad ji būtų nebenaudojama arba jos naudojimas būtų padarytas neįmanomas;
(17)
‘withdrawal of an AI system’ means any measure aiming to prevent an AI system in the supply chain being made available on the market;
17)
DI sistemos pašalinimas – priemonės, kuriomis siekiama neleisti tiekimo grandinėje esančios DI sistemos tiekti rinkai;
(18)
‘performance of an AI system’ means the ability of an AI system to achieve its intended purpose;
18)
DI sistemos veikimo efektyvumas – DI sistemos gebėjimas veikti pagal numatytąją paskirtį;
(19)
‘notifying authority’ means the national authority responsible for setting up and carrying out the necessary procedures for the assessment, designation and notification of conformity assessment bodies and for their monitoring;
19)
notifikuojančioji institucija – nacionalinė institucija, atsakinga už atitikties vertinimo įstaigoms vertinti, skirti ir notifikuoti būtinų procedūrų nustatymą bei vykdymą ir už tų įstaigų stebėseną;
(20)
‘conformity assessment’ means the process of demonstrating whether the requirements set out in Chapter III, Section 2 relating to a high-risk AI system have been fulfilled;
20)
atitikties vertinimas – procesas, kurio metu įrodoma, kad įvykdyti III skyriaus 2 skirsnyje nustatyti su didelės rizikos DI sistema susiję reikalavimai;
(21)
‘conformity assessment body’ means a body that performs third-party conformity assessment activities, including testing, certification and inspection;
21)
atitikties vertinimo įstaiga – įstaiga, kaip trečioji šalis vykdanti atitikties vertinimo veiklą, įskaitant bandymus, sertifikavimą ir tikrinimą;
(22)
‘notified body’ means a conformity assessment body notified in accordance with this Regulation and other relevant Union harmonisation legislation;
22)
notifikuotoji įstaiga – atitikties vertinimo įstaiga, notifikuota pagal šį reglamentą ir kitus atitinkamus Sąjungos derinamuosius teisės aktus;
(23)
‘substantial modification’ means a change to an AI system after its placing on the market or putting into service which is not foreseen or planned in the initial conformity assessment carried out by the provider and as a result of which the compliance of the AI system with the requirements set out in Chapter III, Section 2 is affected or results in a modification to the intended purpose for which the AI system has been assessed;
23)
esminis pakeitimas – rinkai pateiktos arba pradėtos naudoti DI sistemos pakeitimas, kuris nėra numatytas ar suplanuotas tiekėjo atliekamame pradiniame atitikties vertinime ir kuris daro poveikį DI sistemos atitikčiai III skyriaus 2 skirsnyje nustatytiems reikalavimams arba dėl kurio pasikeičia numatytoji paskirtis, dėl kurios DI sistema buvo vertinta;
(24)
‘CE marking’ means a marking by which a provider indicates that an AI system is in conformity with the requirements set out in Chapter III, Section 2 and other applicable Union harmonisation legislation providing for its affixing;
24)
CE ženklas – ženklas, kuriuo tiekėjas nurodo, kad DI sistema atitinka reikalavimus, nustatytus III skyriaus 2 skirsnyje ir kituose taikytinuose Sąjungos derinamuosiuose teisės aktuose, kuriuose numatytas ženklinimas juo;
(25)
‘post-market monitoring system’ means all activities carried out by providers of AI systems to collect and review experience gained from the use of AI systems they place on the market or put into service for the purpose of identifying any need to immediately apply any necessary corrective or preventive actions;
25)
stebėsenos po pateikimo rinkai sistema – visa DI sistemų tiekėjų atliekama veikla, skirta rinkai pateiktų arba pradėtų naudoti DI sistemų naudojimo patirčiai rinkti ir peržiūrėti, siekiant nustatyti, ar yra poreikis nedelsiant imtis būtinų taisomųjų ar prevencinių veiksmų;
(26)
‘market surveillance authority’ means the national authority carrying out the activities and taking the measures pursuant to Regulation (EU) 2019/1020;
26)
rinkos priežiūros institucija – nacionalinė institucija, vykdanti veiklą ir taikanti priemones pagal Reglamentą (ES) 2019/1020;
(27)
‘harmonised standard’ means a harmonised standard as defined in Article 2(1), point (c), of Regulation (EU) No 1025/2012;
27)
darnusis standartas – Europos standartas, kaip apibrėžta Reglamento (ES) Nr. 1025/2012 2 straipsnio 1 dalies c punkte;
(28)
‘common specification’ means a set of technical specifications as defined in Article 2, point (4) of Regulation (EU) No 1025/2012, providing means to comply with certain requirements established under this Regulation;
28)
bendroji specifikacija – techninių specifikacijų, kaip apibrėžta Reglamento (ES) Nr. 1025/2012 4 straipsnio 2 punkte, rinkinys, kuris sudaro galimybę laikytis tam tikrų šiuo reglamentu nustatytų reikalavimų;
(29)
‘training data’ means data used for training an AI system through fitting its learnable parameters;
29)
mokymo duomenys – duomenys, naudojami DI sistemai mokyti pritaikant jos mokymosi parametrus;
(30)
‘validation data’ means data used for providing an evaluation of the trained AI system and for tuning its non-learnable parameters and its learning process in order, inter alia, to prevent underfitting or overfitting;
30)
validavimo duomenys – duomenys, naudojami išmokytai DI sistemai įvertinti ir jos kitiems nei mokymosi parametrams bei mokymosi procesui suderinti, be kita ko, siekiant išvengti nepakankamo mokymosi arba persimokymo;
(31)
‘validation data set’ means a separate data set or part of the training data set, either as a fixed or variable split;
31)
validavimo duomenų rinkinys – atskiras duomenų rinkinys arba mokymo duomenų rinkinio dalis (fiksuota arba kintama);
(32)
‘testing data’ means data used for providing an independent evaluation of the AI system in order to confirm the expected performance of that system before its placing on the market or putting into service;
32)
bandymo duomenys – duomenys, naudojami nepriklausomam DI sistemos vertinimui atlikti siekiant patvirtinti numatomą tos sistemos veikimo efektyvumą prieš ją pateikiant rinkai arba pradedant naudoti;
(33)
‘input data’ means data provided to or directly acquired by an AI system on the basis of which the system produces an output;
33)
įvesties duomenys – DI sistemai teikiami arba jos tiesiogiai gaunami duomenys, kuriais remdamasi ji generuoja išvedinį;
(34)
‘biometric data’ means personal data resulting from specific technical processing relating to the physical, physiological or behavioural characteristics of a natural person, such as facial images or dactyloscopic data;
34)
biometriniai duomenys – po specialaus techninio apdorojimo gauti asmens duomenys, susiję su fizinio asmens fizinėmis, fiziologinėmis arba elgesio savybėmis, pavyzdžiui, veido atvaizdai arba daktiloskopiniai duomenys;
(35)
‘biometric identification’ means the automated recognition of physical, physiological, behavioural, or psychological human features for the purpose of establishing the identity of a natural person by comparing biometric data of that individual to biometric data of individuals stored in a database;
35)
biometrinis tapatybės nustatymas – automatinis žmogaus fizinių, fiziologinių, elgesio ar psichologinių savybių atpažinimas siekiant nustatyti fizinio asmens tapatybę, lyginant to asmens biometrinius duomenis su duomenų bazėje saugomais asmenų biometriniais duomenimis;
(36)
‘biometric verification’ means the automated, one-to-one verification, including authentication, of the identity of natural persons by comparing their biometric data to previously provided biometric data;
36)
biometrinis sutikrinimas – automatizuotas vieno su vienu fizinių asmenų tapatybės tikrinimas, įskaitant autentiškumo patvirtinimą, lyginant jų biometrinius duomenis su anksčiau pateiktais biometriniais duomenimis;
(37)
‘special categories of personal data’ means the categories of personal data referred to in Article 9(1) of Regulation (EU) 2016/679, Article 10 of Directive (EU) 2016/680 and Article 10(1) of Regulation (EU) 2018/1725;
37)
specialių kategorijų asmens duomenys – tam tikrų kategorijų asmens duomenys, nurodyti Reglamento (ES) 2016/679 9 straipsnio 1 dalyje, Direktyvos (ES) 2016/680 10 straipsnyje ir Reglamento (ES) 2018/1725 10 straipsnio 1 dalyje;
(38)
‘sensitive operational data’ means operational data related to activities of prevention, detection, investigation or prosecution of criminal offences, the disclosure of which could jeopardise the integrity of criminal proceedings;
38)
neskelbtini operatyviniai duomenys – operatyviniai duomenys, susiję su nusikalstamų veikų prevencijos, nustatymo, tyrimo ar patraukimo baudžiamojon atsakomybėn už jas veikla, kurių atskleidimas galėtų pakenkti baudžiamojo proceso integralumui;
(39)
‘emotion recognition system’ means an AI system for the purpose of identifying or inferring emotions or intentions of natural persons on the basis of their biometric data;
39)
emocijų atpažinimo sistema – DI sistema, kurios paskirtis – atpažinti arba nuspėti fizinių asmenų emocijas ar ketinimus remiantis jų biometriniais duomenimis;
(40)
‘biometric categorisation system’ means an AI system for the purpose of assigning natural persons to specific categories on the basis of their biometric data, unless it is ancillary to another commercial service and strictly necessary for objective technical reasons;
40)
biometrinio kategorizavimo sistema – DI sistema, kurios paskirtis – remiantis fizinių asmenų biometriniais duomenimis priskirti juos konkrečioms kategorijoms, išskyrus atvejus, kai ji naudojama kitai komercinei paslaugai teikti ir yra tikrai būtina dėl objektyvių techninių priežasčių;
(41)
‘remote biometric identification system’ means an AI system for the purpose of identifying natural persons, without their active involvement, typically at a distance through the comparison of a person’s biometric data with the biometric data contained in a reference database;
41)
nuotolinio biometrinio tapatybės nustatymo sistema – DI sistema, kurios paskirtis – nustatyti fizinių asmenų tapatybę be jų aktyvaus įsitraukimo, paprastai nuotoliniu būdu, lyginant asmens biometrinius duomenis su informacinėje duomenų bazėje esančiais biometriniais duomenimis;
(42)
‘real-time remote biometric identification system’ means a remote biometric identification system, whereby the capturing of biometric data, the comparison and the identification all occur without a significant delay, comprising not only instant identification, but also limited short delays in order to avoid circumvention;
42)
tikralaikio nuotolinio biometrinio tapatybės nustatymo sistema – nuotolinio biometrinio tapatybės nustatymo sistema, kuri fiksuoja, lygina biometrinius duomenis ir nustato tapatybę be didelės delsos; jai būdingas ne tik tapatybės nustatymas iš karto, bet ir apriboti trumpi delsos laikotarpiai, kad būtų išvengta apėjimo;
(43)
‘post-remote biometric identification system’ means a remote biometric identification system other than a real-time remote biometric identification system;
43)
netikralaikio nuotolinio biometrinio tapatybės nustatymo sistema – kita nei tikralaikio nuotolinio biometrinio tapatybės nustatymo sistema;
(44)
‘publicly accessible space’ means any publicly or privately owned physical place accessible to an undetermined number of natural persons, regardless of whether certain conditions for access may apply, and regardless of the potential capacity restrictions;
44)
viešai prieinama erdvė – viešam ar privačiam subjektui priklausanti fizinė vieta, prieinama neapibrėžtam skaičiui fizinių asmenų, neatsižvelgiant į tai, ar gali būti taikomos tam tikros patekimo į ją sąlygos, ir neatsižvelgiant į potencialius talpumo apribojimus;
(45)
‘law enforcement authority’ means:
45)
teisėsaugos institucija –
(a)
any public authority competent for the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security; or
a)
valdžios institucija, kurios kompetencijai priklauso nusikalstamos veikos prevencija, tyrimas, atskleidimas ar baudžiamasis persekiojimas už ją arba baudžiamųjų sankcijų vykdymas, be kita ko, apsauga nuo grėsmių visuomenės saugumui ir jų prevencija, arba
(b)
any other body or entity entrusted by Member State law to exercise public authority and public powers for the purposes of the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security;
b)
kita įstaiga arba subjektas, kuriems pagal valstybės narės teisę pavesta vykdyti viešosios valdžios funkcijas ir naudotis viešaisiais įgaliojimais nusikalstamos veikos prevencijos, tyrimo, atskleidimo ar baudžiamojo persekiojimo už ją arba baudžiamųjų sankcijų vykdymo, be kita ko, apsaugos nuo grėsmių visuomenės saugumui ir jų prevencijos, tikslais;
(46)
‘law enforcement’ means activities carried out by law enforcement authorities or on their behalf for the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including safeguarding against and preventing threats to public security;
46)
teisėsauga – veikla, kurią teisėsaugos institucijos vykdo ar kuri yra vykdoma jų vardu nusikalstamos veikos prevencijos, tyrimo, atskleidimo ar baudžiamojo persekiojimo už ją arba baudžiamųjų sankcijų vykdymo, be kita ko, apsaugos nuo grėsmių visuomenės saugumui ir jų prevencijos, tikslais;
(47)
‘AI Office’ means the Commission’s function of contributing to the implementation, monitoring and supervision of AI systems and general-purpose AI models, and AI governance, provided for in Commission Decision of 24 January 2024; references in this Regulation to the AI Office shall be construed as references to the Commission;
47)
DI tarnyba – Komisijos funkcija, skirta padėti įgyvendinti, stebėti ir prižiūrėti DI sistemas ir bendrosios paskirties DI modelius ir valdyti DI, numatyta 2024 m. sausio 24 d. Komisijos sprendimu; šiame reglamente daromos nuorodos į DI tarnybą laikomos nuorodomis į Komisiją;
(48)
‘national competent authority’ means a notifying authority or a market surveillance authority; as regards AI systems put into service or used by Union institutions, agencies, offices and bodies, references to national competent authorities or market surveillance authorities in this Regulation shall be construed as references to the European Data Protection Supervisor;
48)
nacionalinė kompetentinga institucija – notifikuojančioji institucija arba rinkos priežiūros institucija; kalbant apie DI sistemas, kurias pradeda naudoti arba naudoja Sąjungos institucijos, agentūros, organai ir įstaigos, nuorodos į nacionalines kompetentingas institucijas arba rinkos priežiūros institucijas šiame reglamente aiškinamos kaip nuorodos į Europos duomenų apsaugos priežiūros pareigūną;
(49)
‘serious incident’ means an incident or malfunctioning of an AI system that directly or indirectly leads to any of the following:
49)
rimtas incidentas – incidentas arba DI sistemos veikimo sutrikimas, kuris tiesiogiai ar netiesiogiai nulemia kurį nors iš toliau išvardytų dalykų:
(a)
the death of a person, or serious harm to a person’s health;
a)
asmens mirtį arba didelę žalą asmens sveikatai;
(b)
a serious and irreversible disruption of the management or operation of critical infrastructure;
b)
didelį ir negrįžtamą ypatingos svarbos infrastruktūros valdymo ar eksploatavimo sutrikimą;
(c)
the infringement of obligations under Union law intended to protect fundamental rights;
c)
Sąjungos teisėje, kuria siekiama apsaugoti pagrindines teises, nustatytų pareigų nesilaikymą;
(d)
serious harm to property or the environment;
d)
didelę žalą turtui arba aplinkai;
(50)
‘personal data’ means personal data as defined in Article 4, point (1), of Regulation (EU) 2016/679;
50)
asmens duomenys – asmens duomenys, kaip apibrėžta Reglamento (ES) 2016/679 4 straipsnio 1 dalyje;
(51)
‘non-personal data’ means data other than personal data as defined in Article 4, point (1), of Regulation (EU) 2016/679;
51)
ne asmens duomenys – duomenys, kurie nėra asmens duomenys, kaip apibrėžta Reglamento (ES) 2016/679 4 straipsnio 1 punkte;
(52)
‘profiling’ means profiling as defined in Article 4, point (4), of Regulation (EU) 2016/679;
52)
profiliavimas – profiliavimas, kaip apibrėžta Reglamento (ES) 2016/679 4 straipsnio 4 punkte;
(53)
‘real-world testing plan’ means a document that describes the objectives, methodology, geographical, population and temporal scope, monitoring, organisation and conduct of testing in real-world conditions;
53)
bandymo realiomis sąlygomis planas – dokumentas, kuriame aprašomi bandymo realiomis sąlygomis tikslai, metodika, geografinė aprėptis, populiacija ir laiko aprėptis, stebėsena, organizavimas ir eiga;
(54)
‘sandbox plan’ means a document agreed between the participating provider and the competent authority describing the objectives, conditions, timeframe, methodology and requirements for the activities carried out within the sandbox;
54)
apribotos bandomosios reglamentavimo aplinkos planas – dokumentas, dėl kurio susitarė dalyvaujantis tiekėjas ir kompetentinga institucija ir kuriame aprašomi apribotoje bandomojoje reglamentavimo aplinkoje vykdomos veiklos tikslai, sąlygos, tvarkaraštis, metodika ir reikalavimai;
(55)
‘AI regulatory sandbox’ means a controlled framework set up by a competent authority which offers providers or prospective providers of AI systems the possibility to develop, train, validate and test, where appropriate in real-world conditions, an innovative AI system, pursuant to a sandbox plan for a limited time under regulatory supervision;
55)
apribota bandomoji DI reglamentavimo aplinka – kompetentingos institucijos sukurta kontroliuojama sistema, kurioje DI sistemų tiekėjams arba galimiems tiekėjams suteikiama galimybė (kai tikslinga – realiomis sąlygomis) kurti, mokyti, patvirtinti ir išbandyti novatorišką DI sistemą ribotą laiką pagal apribotos bandomosios reglamentavimo aplinkos planą, prižiūrint reguliavimo institucijoms;
(56)
‘AI literacy’ means skills, knowledge and understanding that allow providers, deployers and affected persons, taking into account their respective rights and obligations in the context of this Regulation, to make an informed deployment of AI systems, as well as to gain awareness about the opportunities and risks of AI and possible harm it can cause;
56)
raštingumas DI srityje – įgūdžiai, žinios ir supratimas, leidžiantys tiekėjams, diegėjams ir asmenims, kuriems daromas poveikis, atsižvelgiant į atitinkamas jų teises ir pareigas pagal šį reglamentą, vykdyti informacija pagrįstą DI sistemų diegimą, taip pat didinti savo informuotumą apie DI teikiamas galimybes ir riziką bei žalą, kurią gali sukelti DI;
(57)
‘testing in real-world conditions’ means the temporary testing of an AI system for its intended purpose in real-world conditions outside a laboratory or otherwise simulated environment, with a view to gathering reliable and robust data and to assessing and verifying the conformity of the AI system with the requirements of this Regulation and it does not qualify as placing the AI system on the market or putting it into service within the meaning of this Regulation, provided that all the conditions laid down in Article 57 or 60 are fulfilled;
57)
bandymas realiomis sąlygomis – laikinas DI sistemos bandymas pagal numatytąją paskirtį realiomis sąlygomis ne laboratorijoje ar kitaip imituojamoje aplinkoje, siekiant surinkti patikimus ir įtikinamus duomenis ir įvertinti bei patikrinti DI sistemos atitiktį šio reglamento reikalavimams; toks bandymas nelaikomas DI sistemos pateikimu rinkai arba pradėjimu naudoti, kaip tai suprantama šiame reglamente, jeigu tenkinamos visos 57 arba 60 straipsnyje nustatytos sąlygos;
(58)
‘subject’, for the purpose of real-world testing, means a natural person who participates in testing in real-world conditions;
58)
subjektas – bandymo realiomis sąlygomis tikslu – fizinis asmuo, dalyvaujantis bandyme realiomis sąlygomis;
(59)
‘informed consent’ means a subject’s freely given, specific, unambiguous and voluntary expression of his or her willingness to participate in a particular testing in real-world conditions, after having been informed of all aspects of the testing that are relevant to the subject’s decision to participate;
59)
informuoto asmens sutikimas – laisva valia pateiktas, konkretus, vienareikšmiškas ir savanoriškas subjekto noro dalyvauti konkrečiame bandyme realiomis sąlygomis pareiškimas po to, kai jis buvo informuotas apie visus bandymo aspektus, aktualius subjekto sprendimui dalyvauti;
(60)
‘deep fake’ means AI-generated or manipulated image, audio or video content that resembles existing persons, objects, places, entities or events and would falsely appear to a person to be authentic or truthful;
60)
sintetinė sankaita – DI generuojamas arba atlikus manipuliacijas gaunamas į realius asmenis, objektus, vietas, subjektus ar įvykius labai panašus judamo ar nejudamo vaizdo arba garso turinys, kurį asmuo gali klaidingai palaikyti autentišku ar tikru;
(61)
‘widespread infringement’ means any act or omission contrary to Union law protecting the interest of individuals, which:
61)
plačiai paplitęs pažeidimas – asmenų interesų apsaugos Sąjungos teisės aktams prieštaraujantis veiksmas ar neveikimas:
(a)
has harmed or is likely to harm the collective interests of individuals residing in at least two Member States other than the Member State in which:
a)
kuriuo buvo padaryta žala arba gali būti padaryta žala kolektyviniams interesams asmenų, gyvenančių bent dviejose kitose valstybėse narėse nei ta, kurioje:
(i)
the act or omission originated or took place;
i)
tas veiksmas ar neveikimas buvo inicijuotas ar įvyko;
(ii)
the provider concerned, or, where applicable, its authorised representative is located or established; or
ii)
fiziškai yra arba yra įsisteigęs atitinkamas tiekėjas arba, jei taikytina, jo įgaliotasis atstovas arba
(iii)
the deployer is established, when the infringement is committed by the deployer;
iii)
yra įsisteigęs diegėjas, kai pažeidimą padaro diegėjas;
(b)
has caused, causes or is likely to cause harm to the collective interests of individuals and has common features, including the same unlawful practice or the same interest being infringed, and is occurring concurrently, committed by the same operator, in at least three Member States;
b)
kuris sukėlė, sukelia arba gali sukelti žalą kolektyviniams asmenų interesams, pasižymi bendrais bruožais, įskaitant tą pačią neteisėtą veiką ar to paties intereso pažeidimą, ir vyksta vienu metu, jį vykdant tam pačiam veiklos vykdytojui, bent trijose valstybėse narėse;
(62)
‘critical infrastructure’ means critical infrastructure as defined in Article 2, point (4), of Directive (EU) 2022/2557;
62)
ypatingos svarbos infrastruktūra – ypatingos svarbos infrastruktūra, kaip apibrėžta Direktyvos (ES) 2022/2557 2 straipsnio 4 punkte;
(63)
‘general-purpose AI model’ means an AI model, including where such an AI model is trained with a large amount of data using self-supervision at scale, that displays significant generality and is capable of competently performing a wide range of distinct tasks regardless of the way the model is placed on the market and that can be integrated into a variety of downstream systems or applications, except AI models that are used for research, development or prototyping activities before they are placed on the market;
63)
bendrosios paskirties DI modelis – DI modelis, įskaitant atvejus, kai toks DI modelis yra apmokomas pasitelkiant didelį duomenų kiekį taikant didelio masto savipriežiūrą, kuris yra itin bendro pobūdžio ir gali veiksmingai atlikti daug skirtingų užduočių, neatsižvelgiant į tai, kaip tas modelis yra pateikiamas rinkai, ir kuris gali būti integruotas į įvairias tolesnės grandies sistemas ar prietaikas, išskyrus DI modelius, kurie naudojami mokslinių tyrimų, plėtros ar prototipų kūrimo veikloje prieš tai, kai jie pateikiami į rinką;
(64)
‘high-impact capabilities’ means capabilities that match or exceed the capabilities recorded in the most advanced general-purpose AI models;
64)
didelio poveikio pajėgumai – pajėgumai, kurie atitinka arba viršija pažangiausiuose bendrosios paskirties DI modeliuose užfiksuotus pajėgumus;
(65)
‘systemic risk’ means a risk that is specific to the high-impact capabilities of general-purpose AI models, having a significant impact on the Union market due to their reach, or due to actual or reasonably foreseeable negative effects on public health, safety, public security, fundamental rights, or the society as a whole, that can be propagated at scale across the value chain;
65)
sisteminė rizika – bendrosios paskirties DI modelių didelio poveikio pajėgumams būdinga rizika, daranti reikšmingą poveikį Sąjungos rinkai dėl jų paplitimo arba dėl faktinių ar pagrįstai numatomų neigiamų pasekmių visuomenės sveikatai, saugai, visuomenės saugumui, pagrindinėms teisėms arba visai visuomenei, ir galinti dideliu mastu paplisti visoje vertės grandinėje;
(66)
‘general-purpose AI system’ means an AI system which is based on a general-purpose AI model and which has the capability to serve a variety of purposes, both for direct use as well as for integration in other AI systems;
66)
bendrosios paskirties DI sistema – DI sistema, kuri yra grindžiama bendrosios paskirties DI modeliu ir kurią galima naudoti įvairiais tikslais – tiek naudoti tiesiogiai, tiek integruoti į kitas DI sistemas;
(67)
‘floating-point operation’ means any mathematical operation or assignment involving floating-point numbers, which are a subset of the real numbers typically represented on computers by an integer of fixed precision scaled by an integer exponent of a fixed base;
67)
slankiojo kablelio operacija – matematinė operacija arba užduotis, kurioje operuojama slankiojo kablelio skaičiais; pastarieji yra realiųjų skaičių poaibis ir kompiuteriuose paprastai atvaizduojami pateikiant fiksuoto tikslumo sveikąjį skaičių ir jo eilę nurodantį fiksuoto pagrindo laipsnio rodiklį;
(68)
‘downstream provider’ means a provider of an AI system, including a general-purpose AI system, which integrates an AI model, regardless of whether the AI model is provided by themselves and vertically integrated or provided by another entity based on contractual relations.
68)
tolesnės grandies tiekėjas – DI sistemos (įskaitant bendrosios paskirties DI sistemą), į kurią integruotas DI modelis, tiekėjas, neatsižvelgiant į tai, ar DI modelis tiekiamas jo paties ir yra vertikaliai integruotas, ar tiekiamas kito subjekto remiantis sutartiniais santykiais.
Article 4
4 straipsnis
AI literacy
Raštingumas DI srityje
Providers and deployers of AI systems shall take measures to ensure, to their best extent, a sufficient level of AI literacy of their staff and other persons dealing with the operation and use of AI systems on their behalf, taking into account their technical knowledge, experience, education and training and the context the AI systems are to be used in, and considering the persons or groups of persons on whom the AI systems are to be used.
DI sistemų tiekėjai ir diegėjai imasi priemonių kuo geriau užtikrinti savo darbuotojų ir kitų asmenų, dirbančių DI sistemų veikimo ir naudojimo jų vardu srityje, pakankamą raštingumo DI srityje lygį, atsižvelgdami į jų technines žinias, patirtį, išsilavinimą bei pasirengimą ir kontekstą, kuriame tos DI sistemos numatomos naudoti, ir atsižvelgdami į asmenis ar asmenų grupes, kurių atžvilgiu tos DI sistemos numatomos naudoti.
CHAPTER II
II SKYRIUS
PROHIBITED AI PRACTICES
DRAUDŽIAMA SU DI SUSIJUSI PRAKTIKA
Article 5
5 straipsnis
Prohibited AI practices
Draudžiama su DI susijusi praktika
1. The following AI practices shall be prohibited:
1. Draudžiama taikyti šią su DI susijusią praktiką:
(a)
the placing on the market, the putting into service or the use of an AI system that deploys subliminal techniques beyond a person’s consciousness or purposefully manipulative or deceptive techniques, with the objective, or the effect of materially distorting the behaviour of a person or a group of persons by appreciably impairing their ability to make an informed decision, thereby causing them to take a decision that they would not have otherwise taken in a manner that causes or is reasonably likely to cause that person, another person or group of persons significant harm;
a)
pateikti rinkai, pradėti naudoti arba naudoti DI sistemą, kurioje pasitelkiami pasąmonę veikiantys metodai, kurių asmuo nesuvokia, arba tikslingai pasitelkiami manipuliavimo ar apgaulės metodai, siekiant iš esmės pakeisti asmens ar asmenų grupės elgesį arba tą elgesį iš esmės pakeičiant, pastebimai susilpninant jų gebėjimą priimti pagrįstą sprendimą, taip juos priverčiant priimti sprendimą, kurio jie kitu atveju nebūtų priėmę, taip, kad jis pats arba kitas asmuo, arba asmenų grupė patiria didelę žalą arba yra pagrįstai tikėtina, kad jis ar kitas asmuo ar asmenų grupė tokią žalą patirs;
(b)
the placing on the market, the putting into service or the use of an AI system that exploits any of the vulnerabilities of a natural person or a specific group of persons due to their age, disability or a specific social or economic situation, with the objective, or the effect, of materially distorting the behaviour of that person or a person belonging to that group in a manner that causes or is reasonably likely to cause that person or another person significant harm;
b)
pateikti rinkai, pradėti naudoti arba naudoti DI sistemą, kurioje išnaudojamas fizinio asmens ar konkrečios asmenų grupės pažeidžiamumas dėl jų amžiaus, negalios ar konkrečios socialinės ar ekonominės padėties, siekiant iš esmės pakeisti to asmens ar tai grupei priklausančio asmens elgesį arba to asmens elgesį iš esmės pakeičiant taip, kad jis pats arba kitas asmuo patiria didelę žalą arba yra pagrįstai tikėtina, kad jis ar kitas asmuo tokią žalą patirs;
(c)
the placing on the market, the putting into service or the use of AI systems for the evaluation or classification of natural persons or groups of persons over a certain period of time based on their social behaviour or known, inferred or predicted personal or personality characteristics, with the social score leading to either or both of the following:
c)
pateikti rinkai, pradėti naudoti arba naudoti DI sistemas fiziniams asmenims ar asmenų grupėms tam tikru laikotarpiu vertinti ar klasifikuoti pagal jų socialinį elgesį arba žinomus, numanomus ar nuspėjamus asmeninius ar asmenybės bruožus, kai socialinis reitingas lemia vieną arba abu toliau išvardytus dalykus:
(i)
detrimental or unfavourable treatment of certain natural persons or groups of persons in social contexts that are unrelated to the contexts in which the data was originally generated or collected;
i)
žalingą ar nepalankų elgesį su tam tikrais fiziniais asmenimis ar asmenų grupėmis socialiniuose kontekstuose, kurie nėra susiję su kontekstais, kuriuose duomenys buvo iš pradžių sugeneruoti ar surinkti;
(ii)
detrimental or unfavourable treatment of certain natural persons or groups of persons that is unjustified or disproportionate to their social behaviour or its gravity;
ii)
žalingą ar nepalankų elgesį su tam tikrais fiziniais asmenimis ar asmenų grupėmis, kuris yra nepagrįstas arba neproporcingas jų socialiniam elgesiui ar jo pavojingumui;
(d)
the placing on the market, the putting into service for this specific purpose, or the use of an AI system for making risk assessments of natural persons in order to assess or predict the risk of a natural person committing a criminal offence, based solely on the profiling of a natural person or on assessing their personality traits and characteristics; this prohibition shall not apply to AI systems used to support the human assessment of the involvement of a person in a criminal activity, which is already based on objective and verifiable facts directly linked to a criminal activity;
d)
pateikti rinkai, pradėti naudoti šiuo konkrečiu tikslu arba naudoti DI sistemą fizinių asmenų rizikos vertinimams atlikti, siekiant įvertinti arba prognozuoti, kokia būtų rizika, kad fizinis asmuo įvykdys nusikalstamą veiką, remiantis tik fizinio asmens profiliavimu arba jo asmenybės bruožų ir savybių vertinimu; šis draudimas netaikomas DI sistemoms, naudojamoms žmogaus atliekamam asmens dalyvavimo nusikalstamoje veikloje vertinimui, kuris jau yra pagrįstas objektyviais ir patikrinamais faktais, tiesiogiai susijusiais su nusikalstama veikla;
(e)
the placing on the market, the putting into service for this specific purpose, or the use of AI systems that create or expand facial recognition databases through the untargeted scraping of facial images from the internet or CCTV footage;
e)
pateikti rinkai, pradėti naudoti šiuo konkrečiu tikslu arba naudoti DI sistemas, kuriomis kuriamos arba išplečiamos veido atpažinimo duomenų bazės, netikslingai renkant veido atvaizdus iš interneto arba apsauginių vaizdo stebėjimo sistemų (AVSS) įrašų;
(f)
the placing on the market, the putting into service for this specific purpose, or the use of AI systems to infer emotions of a natural person in the areas of workplace and education institutions, except where the use of the AI system is intended to be put in place or into the market for medical or safety reasons;
f)
pateikti rinkai, pradėti naudoti šiuo konkrečiu tikslu arba naudoti DI sistemas fizinio asmens emocijoms darbo ir švietimo įstaigų srityse numanyti, išskyrus atvejus, kai DI sistemos naudojimą ketinama įdiegti arba pateikti rinkai dėl medicininių ar saugos priežasčių;
(g)
the placing on the market, the putting into service for this specific purpose, or the use of biometric categorisation systems that categorise individually natural persons based on their biometric data to deduce or infer their race, political opinions, trade union membership, religious or philosophical beliefs, sex life or sexual orientation; this prohibition does not cover any labelling or filtering of lawfully acquired biometric datasets, such as images, based on biometric data or categorizing of biometric data in the area of law enforcement;
g)
pateikti rinkai, pradėti naudoti šiuo konkrečiu tikslu arba naudoti biometrinio kategorizavimo sistemas, pagal kurias fiziniai asmenys individualiai skirstomi į kategorijas pagal jų biometrinius duomenis, kad būtų galima nustatyti ar numanyti jų rasę, politines pažiūras, narystę profesinėse sąjungose, religinius ar filosofinius įsitikinimus, lytinį gyvenimą ar seksualinę orientaciją; šis draudimas netaikomas teisėtai įgytų biometrinių duomenų rinkinių, pavyzdžiui, vaizdų, grindžiamų biometriniais duomenimis ar biometrinių duomenų kategorizavimu teisėsaugos srityje, ženklinimui ar filtravimui;
(h)
the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purposes of law enforcement, unless and in so far as such use is strictly necessary for one of the following objectives:
h)
viešai prieinamose erdvėse teisėsaugos tikslais naudoti tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemas, nebent toks naudojimas tikrai būtinas ir tokiu mastu, kiek jis tikrai būtinas siekiant vieno iš šių tikslų:
(i)
the targeted search for specific victims of abduction, trafficking in human beings or sexual exploitation of human beings, as well as the search for missing persons;
i)
vykdyti tikslinę konkrečių pagrobimo, prekybos žmonėmis, seksualinio išnaudojimo aukų, taip pat dingusių asmenų paiešką;
(ii)
the prevention of a specific, substantial and imminent threat to the life or physical safety of natural persons or a genuine and present or genuine and foreseeable threat of a terrorist attack;
ii)
užkirsti kelią konkrečiai, didelei ir tikrai grėsmei fizinių asmenų gyvybei ar fizinei saugai arba užkirsti kelią realiai ir esamai arba realiai ir numanomai teroristinio išpuolio grėsmei;
(iii)
the localisation or identification of a person suspected of having committed a criminal offence, for the purpose of conducting a criminal investigation or prosecution or executing a criminal penalty for offences referred to in Annex II and punishable in the Member State concerned by a custodial sentence or a detention order for a maximum period of at least four years.
iii)
lokalizuoti ar nustatyti asmenį, įtariamą įvykdžius nusikalstamą veiką, nusikalstamos veikos tyrimo, baudžiamojo persekiojimo ar baudžiamųjų sankcijų vykdymo už II priede nurodytas nusikalstamas veikas, už kurias atitinkamoje valstybėje narėje baudžiama laisvės atėmimo bausme arba įkalinimu, kurių ilgiausias terminas – bent ketveri metai, tikslais.
Point (h) of the first subparagraph is without prejudice to Article 9 of Regulation (EU) 2016/679 for the processing of biometric data for purposes other than law enforcement.
Pirmos pastraipos h punktu nedaromas poveikis Reglamento (ES) 2016/679 9 straipsniui dėl biometrinių duomenų tvarkymo kitais nei teisėsaugos tikslais.
2. The use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purposes of law enforcement for any of the objectives referred to in paragraph 1, first subparagraph, point (h), shall be deployed for the purposes set out in that point only to confirm the identity of the specifically targeted individual, and it shall take into account the following elements:
2. Kai tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos viešai prieinamose erdvėse teisėsaugos tikslais naudojamos siekiant kurio nors iš 1 dalies pirmos pastraipos h punkte nurodytų tikslų, jos gali būti diegiamos tame punkte išdėstytais tikslais tik siekiant patvirtinti konkrečiai tiriamo asmens tapatybę, ir privalo atsižvelgti į šiuos aspektus:
(a)
the nature of the situation giving rise to the possible use, in particular the seriousness, probability and scale of the harm that would be caused if the system were not used;
a)
padėties, dėl kurios gali tekti pasinaudoti tokia sistema, pobūdį, visų pirma žalos, kuri būtų padaryta, jei tokia sistema nebūtų naudojama, rimtumą, tikimybę ir mastą;
(b)
the consequences of the use of the system for the rights and freedoms of all persons concerned, in particular the seriousness, probability and scale of those consequences.
b)
sistemos naudojimo pasekmes, susijusias su visų atitinkamų asmenų teisėmis ir laisvėmis, visų pirma tų pasekmių rimtumą, tikimybę ir mastą.
In addition, the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purposes of law enforcement for any of the objectives referred to in paragraph 1, first subparagraph, point (h), of this Article shall comply with necessary and proportionate safeguards and conditions in relation to the use in accordance with the national law authorising the use thereof, in particular as regards the temporal, geographic and personal limitations. The use of the ‘real-time’ remote biometric identification system in publicly accessible spaces shall be authorised only if the law enforcement authority has completed a fundamental rights impact assessment as provided for in Article 27 and has registered the system in the EU database according to Article 49. However, in duly justified cases of urgency, the use of such systems may be commenced without the registration in the EU database, provided that such registration is completed without undue delay.
Be to, kai tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos viešai prieinamose erdvėse teisėsaugos tikslais naudojamos siekiant kurio nors iš šio straipsnio 1 dalies pirmos pastraipos h punkte nurodytų tikslų, atsižvelgiama į būtinas ir proporcingas su jų naudojimu, laikantis jų naudojimą leidžiančių nacionalinės teisės aktų, susijusias apsaugos priemones ir sąlygas, visų pirma laiko, geografinius ir su asmenimis susijusius apribojimus. Tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemą viešai prieinamose erdvėse leidžiama naudoti tik tuo atveju, jei teisėsaugos institucija yra atlikusi poveikio pagrindinėms teisėms vertinimą, kaip numatyta 27 straipsnyje, ir yra užregistravusi sistemą ES duomenų bazėje pagal 49 straipsnį. Tačiau deramai pagrįstais skubos atvejais tokias sistemas galima pradėti naudoti be registracijos ES duomenų bazėje, jei tokia registracija užbaigiama nepagrįstai nedelsiant.
3. For the purposes of paragraph 1, first subparagraph, point (h) and paragraph 2, each use for the purposes of law enforcement of a ‘real-time’ remote biometric identification system in publicly accessible spaces shall be subject to a prior authorisation granted by a judicial authority or an independent administrative authority whose decision is binding of the Member State in which the use is to take place, issued upon a reasoned request and in accordance with the detailed rules of national law referred to in paragraph 5. However, in a duly justified situation of urgency, the use of such system may be commenced without an authorisation provided that such authorisation is requested without undue delay, at the latest within 24 hours. If such authorisation is rejected, the use shall be stopped with immediate effect and all the data, as well as the results and outputs of that use shall be immediately discarded and deleted.
3. 1 dalies pirmos pastraipos h punkto ir 2 dalies tikslais tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemą naudoti viešai prieinamose erdvėse teisėsaugos tikslais galima tik kiekvienu atveju gavus išankstinį valstybės narės, kurioje tą sistemą ketinama naudoti, teisminės institucijos arba nepriklausomos administracinės institucijos, kurios sprendimas yra privalomas, leidimą, išduotą pateikus pagrįstą prašymą ir laikantis 5 dalyje nurodytų išsamių nacionalinės teisės taisyklių. Tačiau deramai pagrįstais skubos atvejais tokią sistemą galima pradėti naudoti be leidimo su sąlyga, kad tokio leidimo paprašoma nepagrįstai nedelsiant, ne vėliau kaip per 24 valandas. Jei tokį leidimą atsisakoma išduoti, naudojimas nedelsiant nutraukiamas, o visi šio naudojimo atvejo duomenys, taip pat rezultatai ir išvediniai nedelsiant pašalinami ir ištrinami.
The competent judicial authority or an independent administrative authority whose decision is binding shall grant the authorisation only where it is satisfied, on the basis of objective evidence or clear indications presented to it, that the use of the ‘real-time’ remote biometric identification system concerned is necessary for, and proportionate to, achieving one of the objectives specified in paragraph 1, first subparagraph, point (h), as identified in the request and, in particular, remains limited to what is strictly necessary concerning the period of time as well as the geographic and personal scope. In deciding on the request, that authority shall take into account the elements referred to in paragraph 2. No decision that produces an adverse legal effect on a person may be taken based solely on the output of the ‘real-time’ remote biometric identification system.
Kompetentinga teisminė institucija arba nepriklausoma administracinė institucija, kurios sprendimas yra privalomas, išduoda leidimą tik tuo atveju, jei, remdamasi jai pateiktais objektyviais duomenimis arba akivaizdžiais įrodymais, įsitikina, kad atitinkamos tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos naudojimas yra būtinas ir proporcingas siekiant prašyme nurodyto kurio nors iš 1 dalies pirmos pastraipos h punkte nustatytų tikslų, ir visų pirma neviršija to, kas tikrai būtina, kiek tai susiję su laiko trukme, geografine ir su asmenimis susijusia taikymo sritimi. Priimdama sprendimą dėl prašymo, ta institucija atsižvelgia į 2 dalyje nurodytus elementus. Negalima priimti jokio sprendimo, kuris sukeltų asmeniui nepalankų teisinį poveikį, remiantis vien tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos išvediniu.
4. Without prejudice to paragraph 3, each use of a ‘real-time’ remote biometric identification system in publicly accessible spaces for law enforcement purposes shall be notified to the relevant market surveillance authority and the national data protection authority in accordance with the national rules referred to in paragraph 5. The notification shall, as a minimum, contain the information specified under paragraph 6 and shall not include sensitive operational data.
4. Nedarant poveikio 3 daliai, apie kiekvieną tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos naudojimą viešai prieinamose erdvėse teisėsaugos tikslais pranešama atitinkamai rinkos priežiūros institucijai ir nacionalinei duomenų apsaugos institucijai pagal 5 dalyje nurodytas nacionalines taisykles. Pranešime pateikiama bent 6 dalyje nurodyta informacija, bet nepateikiama neskelbtinų operatyvinių duomenų.
5. A Member State may decide to provide for the possibility to fully or partially authorise the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for the purposes of law enforcement within the limits and under the conditions listed in paragraph 1, first subparagraph, point (h), and paragraphs 2 and 3. Member States concerned shall lay down in their national law the necessary detailed rules for the request, issuance and exercise of, as well as supervision and reporting relating to, the authorisations referred to in paragraph 3. Those rules shall also specify in respect of which of the objectives listed in paragraph 1, first subparagraph, point (h), including which of the criminal offences referred to in point (h)(iii) thereof, the competent authorities may be authorised to use those systems for the purposes of law enforcement. Member States shall notify those rules to the Commission at the latest 30 days following the adoption thereof. Member States may introduce, in accordance with Union law, more restrictive laws on the use of remote biometric identification systems.
5. Valstybė narė gali nuspręsti numatyti galimybę visiškai arba iš dalies leisti tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemas naudoti viešai prieinamose erdvėse teisėsaugos tikslais, laikantis 1 dalies pirmos pastraipos h punkte ir 2 bei 3 dalyse nurodytų apribojimų ir sąlygų. Atitinkamos valstybės narės savo nacionalinėje teisėje nustato būtinas išsamias taisykles, kuriomis reglamentuojama 3 dalyje nurodytų leidimų prašymo, išdavimo, vykdymo ir su jais susijusios priežiūros ir ataskaitų teikimo tvarka. Tose taisyklėse taip pat nurodoma, kurių iš 1 dalies pirmos pastraipos h punkte išvardytų ir su kuria to h punkto iii papunktyje nurodyta nusikalstama veika susijusių tikslų siekiant kompetentingoms institucijoms gali būti leidžiama naudoti tas sistemas teisėsaugos tikslais. Valstybės narės apie tas taisykles praneša Komisijai ne vėliau kaip per 30 dienų nuo jų priėmimo. Valstybės narės, laikydamosi Sąjungos teisės, gali priimti griežtesnius teisės aktus dėl nuotolinio biometrinio tapatybės nustatymo sistemų naudojimo.
6. National market surveillance authorities and the national data protection authorities of Member States that have been notified of the use of ‘real-time’ remote biometric identification systems in publicly accessible spaces for law enforcement purposes pursuant to paragraph 4 shall submit to the Commission annual reports on such use. For that purpose, the Commission shall provide Member States and national market surveillance and data protection authorities with a template, including information on the number of the decisions taken by competent judicial authorities or an independent administrative authority whose decision is binding upon requests for authorisations in accordance with paragraph 3 and their result.
6. Nacionalinės rinkos priežiūros institucijos ir valstybių narių nacionalinės duomenų apsaugos institucijos, kurioms pagal 4 dalį buvo pranešta apie tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemų naudojimą viešai prieinamose erdvėse teisėsaugos tikslais, Komisijai teikia metines ataskaitas apie tokį naudojimą. Tuo tikslu Komisija pateikia valstybėms narėms ir nacionalinėms rinkos priežiūros ir duomenų apsaugos institucijoms šabloną, įskaitant informaciją apie kompetentingų teisminių institucijų arba nepriklausomos administracinės institucijos, kurios sprendimas yra privalomas, priimtų sprendimų dėl prašymų suteikti leidimą pagal 3 dalį skaičių ir jų rezultatus.
7. The Commission shall publish annual reports on the use of real-time remote biometric identification systems in publicly accessible spaces for law enforcement purposes, based on aggregated data in Member States on the basis of the annual reports referred to in paragraph 6. Those annual reports shall not include sensitive operational data of the related law enforcement activities.
7. Komisija skelbia metines ataskaitas dėl tikralaikio nuotolinio biometrinio tapatybės nustatymo sistemų naudojimo viešai prieinamose erdvėse teisėsaugos tikslais, remdamasi agreguotais duomenimis valstybėse narėse, pasitelkdama 6 dalyje nurodytas metines ataskaitas. Tose metinėse ataskaitose nepateikiama su susijusia teisėsaugos veikla susijusių neskelbtinų operatyvinių duomenų.
8. This Article shall not affect the prohibitions that apply where an AI practice infringes other Union law.
8. Šiuo straipsniu nedaromas poveikis draudimams, taikomiems tais atvejais, kai su DI susijusi praktika pažeidžia kitus Sąjungos teisės aktus.
CHAPTER III
III SKYRIUS
HIGH-RISK AI SYSTEMS
DIDELĖS RIZIKOS DI SISTEMOS
SECTION 1
1 SKIRSNIS
Classification of AI systems as high-risk
DI sistemų priskyrimas prie didelės rizikos sistemų
Article 6
6 straipsnis
Classification rules for high-risk AI systems
Didelės rizikos DI sistemų klasifikavimo taisyklės
1. Irrespective of whether an AI system is placed on the market or put into service independently of the products referred to in points (a) and (b), that AI system shall be considered to be high-risk where both of the following conditions are fulfilled:
1. Nepriklausomai nuo to, ar DI sistema pateikiama rinkai ar pradedama naudoti atskirai nuo a ir b punktuose nurodytų gaminių, ta DI sistema laikoma didelės rizikos sistema, jei tenkinamos abi šios sąlygos:
(a)
the AI system is intended to be used as a safety component of a product, or the AI system is itself a product, covered by the Union harmonisation legislation listed in Annex I;
a)
DI sistema yra skirta naudoti kaip gaminio, kuriam taikomi I priede išvardyti Sąjungos derinamieji teisės aktai, saugos komponentas arba DI sistema pati savaime yra toks gaminys;
(b)
the product whose safety component pursuant to point (a) is the AI system, or the AI system itself as a product, is required to undergo a third-party conformity assessment, with a view to the placing on the market or the putting into service of that product pursuant to the Union harmonisation legislation listed in Annex I.
b)
reikalaujama, kad gaminio, kurio saugos komponentas pagal a punktą yra DI sistema, arba pačios DI sistemos kaip gaminio atitikties vertinimą, kurio reikia, kad tą gaminį būtų galima pateikti rinkai arba pradėti naudoti pagal I priede išvardytus Sąjungos derinamuosius teisės aktus, atliktų trečioji šalis.
2. In addition to the high-risk AI systems referred to in paragraph 1, AI systems referred to in Annex III shall be considered to be high-risk.
2. Be nurodytųjų 1 dalyje, didelės rizikos DI sistemomis taip pat laikomos III priede nurodytos DI sistemos.
3. By derogation from paragraph 2, an AI system referred to in Annex III shall not be considered to be high-risk where it does not pose a significant risk of harm to the health, safety or fundamental rights of natural persons, including by not materially influencing the outcome of decision making.
3. Nukrypstant nuo 2 dalies, III priede nurodyta DI sistema nelaikoma didelės rizikos sistema, jei ji nekelia didelės rizikos, susijusios su žala fizinių asmenų sveikatai, saugai ar pagrindinėms teisėms ir, be kita ko, reikšmingai nedaro įtakos sprendimų priėmimo rezultatams.
The first subparagraph shall apply where any of the following conditions is fulfilled:
Pirma pastraipa taikoma, jei tenkinama bet kuri iš šių sąlygų:
(a)
the AI system is intended to perform a narrow procedural task;
a)
DI sistema skirta atlikti siaurą procedūrinę užduotį;
(b)
the AI system is intended to improve the result of a previously completed human activity;
b)
DI sistema skirta pagerinti veiklos, kurią pirmiau atliko žmogus, rezultatus;
(c)
the AI system is intended to detect decision-making patterns or deviations from prior decision-making patterns and is not meant to replace or influence the previously completed human assessment, without proper human review; or
c)
DI sistema skirta nustatyti sprendimų priėmimo modelius arba nukrypimus nuo ankstesnių sprendimų priėmimo modelių ir nėra skirta pakeisti vertinimo, kurį pirmiau atliko žmogus, ar daryti jam įtaką be tinkamos žmogaus atliekamos peržiūros arba
(d)
the AI system is intended to perform a preparatory task to an assessment relevant for the purposes of the use cases listed in Annex III.
d)
DI sistema skirta atlikti vieną iš vertinimo, susijusio su III priede išvardytais naudojimo atvejų tikslais, parengiamųjų užduočių.
Notwithstanding the first subparagraph, an AI system referred to in Annex III shall always be considered to be high-risk where the AI system performs profiling of natural persons.
Nepaisant pirmos pastraipos, III priede nurodyta DI sistema visada laikoma didelės rizikos sistema, kai ji atlieka fizinių asmenų profiliavimą.
4. A provider who considers that an AI system referred to in Annex III is not high-risk shall document its assessment before that system is placed on the market or put into service. Such provider shall be subject to the registration obligation set out in Article 49(2). Upon request of national competent authorities, the provider shall provide the documentation of the assessment.
4. Tiekėjas, manantis, kad III priede nurodyta DI sistema nėra didelės rizikos sistema, dokumentuoja tos sistemos vertinimą prieš pateikdamas ją rinkai arba pradėdamas ją naudoti. Tokiam tiekėjui taikoma 49 straipsnio 2 dalyje nustatyta registravimo pareiga. Nacionalinėms kompetentingoms institucijoms paprašius tiekėjas pateikia vertinimo dokumentus.
5. The Commission shall, after consulting the European Artificial Intelligence Board (the ‘Board’), and no later than 2 February 2026, provide guidelines specifying the practical implementation of this Article in line with Article 96 together with a comprehensive list of practical examples of use cases of AI systems that are high-risk and not high-risk.
5. Komisija, pasikonsultavusi su Europos dirbtinio intelekto valdyba (toliau – Valdyba) ir ne vėliau kaip 2026 m. vasario 2 d., pateikia gaires, kuriose nurodomas praktinis šio straipsnio įgyvendinimas pagal 96 straipsnį, taip pat išsamų DI sistemų, kurios yra didelės rizikos sistemos ir kurios nėra didelės rizikos sistemos, naudojimo atvejų praktinių pavyzdžių sąrašą.
6. The Commission is empowered to adopt delegated acts in accordance with Article 97 in order to amend paragraph 3, second subparagraph, of this Article by adding new conditions to those laid down therein, or by modifying them, where there is concrete and reliable evidence of the existence of AI systems that fall under the scope of Annex III, but do not pose a significant risk of harm to the health, safety or fundamental rights of natural persons.
6. Komisijai suteikiami įgaliojimai pagal 97 straipsnį priimti deleguotuosius aktus, siekiant iš dalies pakeisti šio straipsnio 3 dalies antroje pastraipoje nustatytas sąlygas, papildant joje nustatytas sąlygas naujomis sąlygomis arba jas pakeičiant, jei yra konkrečių ir patikimų įrodymų, kad esama į III priedo taikymo sritį patenkančių DI sistemų, kurios nekelia didelės rizikos, susijusios su žala fizinių asmenų sveikatai, saugai ar pagrindinėms teisėms.
7. The Commission shall adopt delegated acts in accordance with Article 97 in order to amend paragraph 3, second subparagraph, of this Article by deleting any of the conditions laid down therein, where there is concrete and reliable evidence that this is necessary to maintain the level of protection of health, safety and fundamental rights provided for by this Regulation.
7. Komisija pagal 97 straipsnį priima deleguotuosius aktus, kad iš dalies pakeistų šio straipsnio 3 dalies antrą pastraipą išbraukdama bet kurią iš joje nustatytų sąlygų, jei yra konkrečių ir patikimų įrodymų, kad tai būtina siekiant išlaikyti sveikatos, saugos ir pagrindinių teisių apsaugos lygį, nustatytą šiuo reglamentu.
8. Any amendment to the conditions laid down in paragraph 3, second subparagraph, adopted in accordance with paragraphs 6 and 7 of this Article shall not decrease the overall level of protection of health, safety and fundamental rights provided for by this Regulation and shall ensure consistency with the delegated acts adopted pursuant to Article 7(1), and take account of market and technological developments.
8. Joks 3 dalies antroje pastraipoje nustatytų sąlygų dalinis pakeitimas, priimtas pagal šio straipsnio 6 ir 7 dalis, negali sumažinti bendro sveikatos, saugos ir pagrindinių teisių apsaugos lygio, nustatyto šiuo reglamentu ir juo turi būti užtikrintas suderinamumas su deleguotaisiais aktais, priimtais pagal 7 straipsnio 1 dalį, ir atsižvelgiama į rinkos ir technologinę plėtrą.
Article 7
7 straipsnis
Amendments to Annex III
III priedo daliniai pakeitimai
1. The Commission is empowered to adopt delegated acts in accordance with Article 97 to amend Annex III by adding or modifying use-cases of high-risk AI systems where both of the following conditions are fulfilled:
1. Komisijai suteikiami įgaliojimai pagal 97 straipsnį priimti deleguotuosius aktus, kuriais iš dalies keičiamas III priedas įtraukiant arba pakeičiant didelės rizikos DI sistemų naudojimo atvejus, jei tenkinamos abi šios sąlygos:
(a)
the AI systems are intended to be used in any of the areas listed in Annex III;
a)
DI sistemos yra skirtos naudoti bet kurioje iš III priede išvardytų sričių;
(b)
the AI systems pose a risk of harm to health and safety, or an adverse impact on fundamental rights, and that risk is equivalent to, or greater than, the risk of harm or of adverse impact posed by the high-risk AI systems already referred to in Annex III.
b)
DI sistemos kelia riziką, susijusią su žala sveikatai ir saugai arba neigiamu poveikiu pagrindinėms teisėms, ir ta rizika yra lygiavertė III priede jau nurodytų didelės rizikos DI sistemų keliamai rizikai, susijusiai su žala ar neigiamu poveikiu, arba yra už ją didesnė.
2. When assessing the condition under paragraph 1, point (b), the Commission shall take into account the following criteria:
2. Vertindama 1 dalies b punkte pateiktą sąlygą, Komisija atsižvelgia į šiuos kriterijus:
(a)
the intended purpose of the AI system;
a)
numatytąją DI sistemos paskirtį;
(b)
the extent to which an AI system has been used or is likely to be used;
b)
kokiu mastu DI sistema buvo arba, tikėtina, bus naudojama;
(c)
the nature and amount of the data processed and used by the AI system, in particular whether special categories of personal data are processed;
c)
DI sistemos tvarkomų ir naudojamų duomenų pobūdį ir kiekį, visų pirma tai, ar tvarkomi specialių kategorijų asmens duomenys;
(d)
the extent to which the AI system acts autonomously and the possibility for a human to override a decision or recommendations that may lead to potential harm;
d)
kokiu mastu DI sistema veikia autonomiškai ir galimybę žmogui panaikinti sprendimą ar rekomendacijas, dėl kurių gali būti padaryta žala;
(e)
the extent to which the use of an AI system has already caused harm to health and safety, has had an adverse impact on fundamental rights or has given rise to significant concerns in relation to the likelihood of such harm or adverse impact, as demonstrated, for example, by reports or documented allegations submitted to national competent authorities or by other reports, as appropriate;
e)
kokiu mastu DI sistemos naudojimas jau padarė žalą sveikatai ir saugai arba neigiamą poveikį pagrindinėms teisėms arba sukėlė didelį susirūpinimą dėl tokios žalos ar neigiamo poveikio tikimybės, kaip matyti, pavyzdžiui, iš nacionalinėms kompetentingoms institucijoms pateiktų pranešimų arba dokumentais pagrįstų įtarimų, arba atitinkamai iš kitų pranešimų;
(f)
the potential extent of such harm or such adverse impact, in particular in terms of its intensity and its ability to affect multiple persons or to disproportionately affect a particular group of persons;
f)
galimą tokios žalos arba tokio neigiamo poveikio mastą, visų pirma atsižvelgiant į jų dydį ir galėjimą paveikti daugelį asmenų arba padaryti neproporcingą poveikį tam tikrai asmenų grupei;
(g)
the extent to which persons who are potentially harmed or suffer an adverse impact are dependent on the outcome produced with an AI system, in particular because for practical or legal reasons it is not reasonably possible to opt-out from that outcome;
g)
kiek asmenys, kuriems gali būti padaryta žala arba kurie gali nukentėti dėl neigiamo poveikio, priklauso nuo DI sistemos generuotų išvedinių, visų pirma todėl, kad dėl praktinių ar teisinių priežasčių tų išvedinių nėra pagrįstai įmanoma išvengti;
(h)
the extent to which there is an imbalance of power, or the persons who are potentially harmed or suffer an adverse impact are in a vulnerable position in relation to the deployer of an AI system, in particular due to status, authority, knowledge, economic or social circumstances, or age;
h)
kokiu mastu egzistuoja galios disbalansas arba kiek asmenys, kuriems gali būti padaryta žala arba kurie gali nukentėti dėl neigiamo poveikio, yra pažeidžiami DI sistemos diegėjo požiūriu, visų pirma dėl statuso, įgaliojimų, žinių, ekonominių ar socialinių aplinkybių arba amžiaus;
(i)
the extent to which the outcome produced involving an AI system is easily corrigible or reversible, taking into account the technical solutions available to correct or reverse it, whereby outcomes having an adverse impact on health, safety or fundamental rights, shall not be considered to be easily corrigible or reversible;
i)
kaip lengvai generuotus išvedinius, susijusius su DI sistema, galima ištaisyti ar atšaukti, atsižvelgiant į esamus techninius sprendimus tiems išvediniams ištaisyti ar atšaukti (išvediniai, darantys neigiamą poveikį sveikatai, saugai ar pagrindinėms teisėms, nėra laikomi lengvai ištaisomais ar atšaukiamais);
(j)
the magnitude and likelihood of benefit of the deployment of the AI system for individuals, groups, or society at large, including possible improvements in product safety;
j)
naudos asmenims, grupėms ar plačiajai visuomenei, gaunamos įdiegus DI sistemą, įskaitant galimą gaminių saugos pagerinimą, dydį ir tikimybę;
(k)
the extent to which existing Union law provides for:
k)
kiek esamuose Sąjungos teisės aktuose numatyta:
(i)
effective measures of redress in relation to the risks posed by an AI system, with the exclusion of claims for damages;
i)
veiksmingų teisių gynimo priemonių, susijusių su DI sistemos keliama rizika, išskyrus reikalavimus atlyginti žalą;
(ii)
effective measures to prevent or substantially minimise those risks.
ii)
veiksmingų priemonių, kuriomis galima išvengti tokios rizikos arba ją iš esmės sumažinti.
3. The Commission is empowered to adopt delegated acts in accordance with Article 97 to amend the list in Annex III by removing high-risk AI systems where both of the following conditions are fulfilled:
3. Komisijai suteikiami įgaliojimai pagal 97 straipsnį priimti deleguotuosius aktus, kuriais III priede pateikiamas sąrašas iš dalies pakeičiamas iš jo išbraukiant didelės rizikos DI sistemas, jei tenkinamos abi šios sąlygos:
(a)
the high-risk AI system concerned no longer poses any significant risks to fundamental rights, health or safety, taking into account the criteria listed in paragraph 2;
a)
atitinkama didelės rizikos DI sistema nebekelia jokios didelės rizikos pagrindinėms teisėms, sveikatai ar saugai, atsižvelgiant į 2 dalyje išvardytus kriterijus;
(b)
the deletion does not decrease the overall level of protection of health, safety and fundamental rights under Union law.
b)
išbraukus tokią sistemą nesumažėja bendras sveikatos, saugos ir pagrindinių teisių apsaugos lygis pagal Sąjungos teisę.
SECTION 2
2 SKIRSNIS
Requirements for high-risk AI systems
Didelės rizikos DI sistemoms taikomi reikalavimai
Article 8
8 straipsnis
Compliance with the requirements
Atitiktis reikalavimams
1. High-risk AI systems shall comply with the requirements laid down in this Section, taking into account their intended purpose as well as the generally acknowledged state of the art on AI and AI-related technologies. The risk management system referred to in Article 9 shall be taken into account when ensuring compliance with those requirements.
1. Didelės rizikos DI sistemos turi atitikti šiame skirsnyje nustatytus reikalavimus, atsižvelgiant į jų numatytąją paskirtį ir visuotinai pripažintą pažangą DI ir su DI susijusių technologijų sektoriuose. Užtikrinant atitiktį tiems reikalavimams atsižvelgiama į 9 straipsnyje nurodytą rizikos valdymo sistemą.
2. Where a product contains an AI system, to which the requirements of this Regulation as well as requirements of the Union harmonisation legislation listed in Section A of Annex I apply, providers shall be responsible for ensuring that their product is fully compliant with all applicable requirements under applicable Union harmonisation legislation. In ensuring the compliance of high-risk AI systems referred to in paragraph 1 with the requirements set out in this Section, and in order to ensure consistency, avoid duplication and minimise additional burdens, providers shall have a choice of integrating, as appropriate, the necessary testing and reporting processes, information and documentation they provide with regard to their product into documentation and procedures that already exist and are required under the Union harmonisation legislation listed in Section A of Annex I.
2. Jei gaminyje yra DI sistema, kuriai taikomi šio reglamento reikalavimai ir I priedo A skirsnyje išvardytų Sąjungos derinamųjų teisės aktų reikalavimai, tiekėjai yra atsakingi už tai, kad būtų užtikrinta, jog jų gaminys visiškai atitiktų visus taikytinus reikalavimus, kurie yra nustatyti taikytinais Sąjungos derinamaisiais teisės aktais. Siekdami užtikrinti 1 dalyje nurodytų didelės rizikos DI sistemų atitiktį šiame skirsnyje nustatytiems reikalavimams ir kad būtų užtikrintas nuoseklumas, išvengta dubliavimosi ir kuo labiau sumažinta papildoma našta, tiekėjai gali atitinkamai pasirinkti, ar įtraukti reikalingus bandymų ir ataskaitų teikimo procesus, jų teikiamą su jų gaminiu susijusią informaciją ir dokumentus į jau esamus dokumentus ir procedūras, kurių reikalaujama pagal I priedo A skirsnyje išvardytus Sąjungos derinamuosius teisės aktus.
Article 9
9 straipsnis
Risk management system
Rizikos valdymo sistema
1. A risk management system shall be established, implemented, documented and maintained in relation to high-risk AI systems.
1. Turi būti sukuriamos, įgyvendinamos, dokumentuojamos ir prižiūrimos didelės rizikos DI sistemų keliamos rizikos valdymo sistemos.
2. The risk management system shall be understood as a continuous iterative process planned and run throughout the entire lifecycle of a high-risk AI system, requiring regular systematic review and updating. It shall comprise the following steps:
2. Rizikos valdymo sistema turi būti suprantama kaip visą didelės rizikos DI sistemos gyvavimo ciklą planuojamas ir vykstantis nuolatinis kartotinis procesas, kurį reikia reguliariai sistemingai peržiūrėti ir atnaujinti. Ją sudaro šie etapai:
(a)
the identification and analysis of the known and the reasonably foreseeable risks that the high-risk AI system can pose to health, safety or fundamental rights when the high-risk AI system is used in accordance with its intended purpose;
a)
žinomos ir pagrįstai numatomos rizikos, kurią didelės rizikos DI sistema gali kelti sveikatai, saugai ar pagrindinėms teisėms, kai didelės rizikos DI sistema naudojama pagal numatytąją paskirtį, nustatymas ir analizė;
(b)
the estimation and evaluation of the risks that may emerge when the high-risk AI system is used in accordance with its intended purpose, and under conditions of reasonably foreseeable misuse;
b)
rizikos, kuri gali kilti didelės rizikos DI sistemą naudojant pagal numatytąją paskirtį ir pagrįstai numatomo netinkamo naudojimo sąlygomis, apskaičiavimas ir vertinimas;
(c)
the evaluation of other risks possibly arising, based on the analysis of data gathered from the post-market monitoring system referred to in Article 72;
c)
kitos galinčios kilti rizikos vertinimas remiantis duomenų, surinktų taikant 72 straipsnyje nurodytą stebėsenos po pateikimo rinkai sistemą, analize;
(d)
the adoption of appropriate and targeted risk management measures designed to address the risks identified pursuant to point (a).
d)
tinkamų ir tikslinių rizikos valdymo priemonių, parengtų šalinti rizikai, nustatytai pagal a punktą, priėmimas.
3. The risks referred to in this Article shall concern only those which may be reasonably mitigated or eliminated through the development or design of the high-risk AI system, or the provision of adequate technical information.
3. Šiame straipsnyje nurodyta rizika susijusi tik su ta rizika, kurią galima pagrįstai sumažinti arba pašalinti didelės rizikos DI sistemos kūrimo ar projektavimo metu arba suteikiant tinkamą techninę informaciją.
4. The risk management measures referred to in paragraph 2, point (d), shall give due consideration to the effects and possible interaction resulting from the combined application of the requirements set out in this Section, with a view to minimising risks more effectively while achieving an appropriate balance in implementing the measures to fulfil those requirements.
4. Taikant 2 dalies d punkte nurodytas rizikos valdymo priemones deramai atsižvelgiama į poveikį ir galimą sąveiką, kuriuos lemia bendras šiame skirsnyje nustatytų reikalavimų taikymas, siekiant veiksmingiau iki minimumo sumažinti riziką, kartu užtikrinant tinkamą pusiausvyrą įgyvendinant priemones, skirtas tiems reikalavimams įvykdyti.
5. The risk management measures referred to in paragraph 2, point (d), shall be such that the relevant residual risk associated with each hazard, as well as the overall residual risk of the high-risk AI systems is judged to be acceptable.
5. 2 dalies d punkte nurodytos rizikos valdymo priemonės turi būti tokios, kad su kiekvienu pavojumi susijusi atitinkama liekamoji rizika ir bendra didelės rizikos DI sistemų liekamoji rizika būtų laikomos priimtinomis.
In identifying the most appropriate risk management measures, the following shall be ensured:
Nustatant tinkamiausias rizikos valdymo priemones, užtikrinama, kad:
(a)
elimination or reduction of risks identified and evaluated pursuant to paragraph 2 in as far as technically feasible through adequate design and development of the high-risk AI system;
a)
pagal 2 dalį nustatyta ir įvertinta rizika būtų šalinama arba mažinama tinkamomis didelės rizikos DI sistemos projektavimo ir kūrimo priemonėmis, kiek tai techniškai įmanoma;
(b)
where appropriate, implementation of adequate mitigation and control measures addressing risks that cannot be eliminated;
b)
jei rizikos pašalinti neįmanoma, kai tikslinga, į ją reaguojant būtų įgyvendinamos tinkamos rizikos mažinimo ir kontrolės priemonės;
(c)
provision of information required pursuant to Article 13 and, where appropriate, training to deployers.
c)
būtų teikiama pagal 13 straipsnį reikalaujama informacija ir, kai tikslinga, diegėjams būtų rengiami mokymai.
With a view to eliminating or reducing risks related to the use of the high-risk AI system, due consideration shall be given to the technical knowledge, experience, education, the training to be expected by the deployer, and the presumable context in which the system is intended to be used.
Siekiant pašalinti arba sumažinti didelės rizikos DI sistemos naudojimo keliamą riziką, turi būti tinkamai atsižvelgiama į technines žinias, patirtį, išsilavinimą ir apmokymą, kurių tikimasi iš diegėjo, ir į numatomą kontekstą, kuriame sistema yra skirta naudoti.
6. High-risk AI systems shall be tested for the purpose of identifying the most appropriate and targeted risk management measures. Testing shall ensure that high-risk AI systems perform consistently for their intended purpose and that they are in compliance with the requirements set out in this Section.
6. Siekiant nustatyti tinkamiausias ir tikslines rizikos valdymo priemones, didelės rizikos DI sistemos turi būti išbandomos. Bandymais užtikrinama, kad didelės rizikos DI sistemos nuosekliai veiktų pagal numatytąją paskirtį ir atitiktų šiame skirsnyje nustatytus reikalavimus.
7. Testing procedures may include testing in real-world conditions in accordance with Article 60.
7. Bandymo procedūros gali apimti bandymą realiomis sąlygomis pagal 60 straipsnį.
8. The testing of high-risk AI systems shall be performed, as appropriate, at any time throughout the development process, and, in any event, prior to their being placed on the market or put into service. Testing shall be carried out against prior defined metrics and probabilistic thresholds that are appropriate to the intended purpose of the high-risk AI system.
8. Prireikus didelės rizikos DI sistemų bandymai atliekami atitinkamai bet kuriuo metu jų kūrimo proceso etapu ir bet kuriuo atveju prieš jas pateikiant rinkai arba pradedant naudoti. Bandymai atliekami taikant iš anksto nustatytą metriką ir tikimybines ribines vertes, atitinkančias didelės rizikos DI sistemos numatytąją paskirtį.
9. When implementing the risk management system as provided for in paragraphs 1 to 7, providers shall give consideration to whether in view of its intended purpose the high-risk AI system is likely to have an adverse impact on persons under the age of 18 and, as appropriate, other vulnerable groups.
9. Įgyvendindami rizikos valdymo sistemą, kaip numatyta 1–7 dalyse, tiekėjai dėmesį skiria tam, ar, atsižvelgiant į didelės rizikos DI sistemos numatytąją paskirtį, tikėtina, kad ji darys neigiamą poveikį jaunesniems nei 18 metų asmenims ir, atitinkamai, kitoms pažeidžiamoms grupėms.
10. For providers of high-risk AI systems that are subject to requirements regarding internal risk management processes under other relevant provisions of Union law, the aspects provided in paragraphs 1 to 9 may be part of, or combined with, the risk management procedures established pursuant to that law.
10. Didelės rizikos DI sistemų, kurioms reikalavimai dėl vidaus rizikos valdymo procesų taikomi pagal kitas atitinkamas Sąjungos teisės nuostatas, tiekėjų atveju 1–9 dalyse pateikti aspektai gali būti įtraukiami į pagal tą teisę nustatytas rizikos valdymo procedūras arba su jomis derinami.
Article 10
10 straipsnis
Data and data governance
Duomenys ir jų valdymas
1. High-risk AI systems which make use of techniques involving the training of AI models with data shall be developed on the basis of training, validation and testing data sets that meet the quality criteria referred to in paragraphs 2 to 5 whenever such data sets are used.
1. Didelės rizikos DI sistemos, kuriose naudojami DI modelių mokymo pasitelkiant duomenis metodai, kuriamos remiantis mokymo, validavimo ir bandymo duomenų rinkiniais, atitinkančiais 2–5 dalyse nurodytus kokybės kriterijus, kai tokie duomenų rinkiniai naudojami.
2. Training, validation and testing data sets shall be subject to data governance and management practices appropriate for the intended purpose of the high-risk AI system. Those practices shall concern in particular:
2. Mokymo, validavimo ir bandymo duomenų rinkiniams taikoma duomenų valdymo ir tvarkymo praktika, atitinkanti numatytąją didelės rizikos DI sistemos paskirtį. Ta praktika visų pirma yra susijusi su:
(a)
the relevant design choices;
a)
atitinkamais projektavimo sprendimais;
(b)
data collection processes and the origin of data, and in the case of personal data, the original purpose of the data collection;
b)
duomenų rinkimo procesais ir duomenų kilme, o asmens duomenų atveju – pradiniu duomenų rinkimo tikslu;
(c)
relevant data-preparation processing operations, such as annotation, labelling, cleaning, updating, enrichment and aggregation;
c)
atitinkamomis paruošiamosiomis duomenų tvarkymo operacijomis, pavyzdžiui, anotavimu, žymėjimu, valymu, naujinimu, papildymu ir agregavimu;
(d)
the formulation of assumptions, in particular with respect to the information that the data are supposed to measure and represent;
d)
prielaidų, visų pirma susijusių su informacija, kuri turėtų būti išreikšta ir perteikta duomenimis, formulavimu;
(e)
an assessment of the availability, quantity and suitability of the data sets that are needed;
e)
reikiamų duomenų rinkinių prieinamumo, kiekio ir tinkamumo vertinimu;
(f)
examination in view of possible biases that are likely to affect the health and safety of persons, have a negative impact on fundamental rights or lead to discrimination prohibited under Union law, especially where data outputs influence inputs for future operations;
f)
nagrinėjimu atsižvelgiant į galimą šališkumą, kuris gali turėti įtakos asmenų sveikatai ir saugai, turėti neigiamą poveikį pagrindinėms teisėms arba lemti pagal Sąjungos teisę draudžiamą diskriminaciją, ypač tais atvejais, kai duomenų išvediniai turi įtakos būsimų operacijų įvediniams;
(g)
appropriate measures to detect, prevent and mitigate possible biases identified according to point (f);
g)
tinkamomis priemonėmis pagal f punktą nustatytam galimam šališkumui aptikti, užkirsti jam kelią ir jį sumažinti;
(h)
the identification of relevant data gaps or shortcomings that prevent compliance with this Regulation, and how those gaps and shortcomings can be addressed.
h)
atitinkamų duomenų spragų ar trūkumų, kurie trukdo užtikrinti, kad būtų laikomasi šio reglamento, ir galimų jų šalinimo būdų nustatymu.
3. Training, validation and testing data sets shall be relevant, sufficiently representative, and to the best extent possible, free of errors and complete in view of the intended purpose. They shall have the appropriate statistical properties, including, where applicable, as regards the persons or groups of persons in relation to whom the high-risk AI system is intended to be used. Those characteristics of the data sets may be met at the level of individual data sets or at the level of a combination thereof.
3. Mokymo, validavimo ir bandymo duomenų rinkiniai turi būti tinkami, pakankamai reprezentatyvūs ir, kiek įmanoma, be klaidų ir išsamūs, atsižvelgiant į numatytąją paskirtį. Jie turi turėti tinkamas statistines savybes, įskaitant, kai taikytina, susijusias su asmenimis ar asmenų grupėmis, kurių atžvilgiu didelės rizikos DI sistema yra skirta naudoti. Šias duomenų rinkinių savybes gali turėti atskiri duomenų rinkiniai arba jų derinys.
4. Data sets shall take into account, to the extent required by the intended purpose, the characteristics or elements that are particular to the specific geographical, contextual, behavioural or functional setting within which the high-risk AI system is intended to be used.
4. Kiek to reikia atsižvelgiant į numatytąją paskirtį, duomenų rinkiniai turi būti grindžiami savybėmis ar elementais, būdingais konkrečiai geografinei, kontekstinei, elgsenos ar funkcinei aplinkai, kurioje ketinama naudoti didelės rizikos DI sistemą.
5. To the extent that it is strictly necessary for the purpose of ensuring bias detection and correction in relation to the high-risk AI systems in accordance with paragraph (2), points (f) and (g) of this Article, the providers of such systems may exceptionally process special categories of personal data, subject to appropriate safeguards for the fundamental rights and freedoms of natural persons. In addition to the provisions set out in Regulations (EU) 2016/679 and (EU) 2018/1725 and Directive (EU) 2016/680, all the following conditions must be met in order for such processing to occur:
5. Didelės rizikos DI sistemų tiekėjai, kiek tai tikrai būtina siekiant užtikrinti tų sistemų šališkumo aptikimą ir ištaisymą pagal šio straipsnio 2 dalies f ir g punktus, gali išimties tvarka tvarkyti specialių kategorijų asmens duomenis, taikydami tinkamas fizinių asmenų pagrindinių teisių ir laisvių apsaugos priemones. Be reglamentų (ES) 2016/679 ir (ES) 2018/1725 bei Direktyvos (ES) 2016/680 nuostatų, tokiam duomenų tvarkymui turi būti tenkinamos visos šios sąlygos:
(a)
the bias detection and correction cannot be effectively fulfilled by processing other data, including synthetic or anonymised data;
a)
šališkumo nustatymo ir ištaisymo neįmanoma veiksmingai atlikti apdorojant kitus duomenis, įskaitant sintetinius arba anonimizuotus duomenis;
(b)
the special categories of personal data are subject to technical limitations on the re-use of the personal data, and state-of-the-art security and privacy-preserving measures, including pseudonymisation;
b)
specialių kategorijų asmens duomenims taikomi pakartotinio asmens duomenų naudojimo techniniai apribojimai ir pažangiausios saugumo ir privatumo užtikrinimo priemonės, be kita ko, pseudoniminimas;
(c)
the special categories of personal data are subject to measures to ensure that the personal data processed are secured, protected, subject to suitable safeguards, including strict controls and documentation of the access, to avoid misuse and ensure that only authorised persons have access to those personal data with appropriate confidentiality obligations;
c)
specialių kategorijų asmens duomenims taikomos priemonės, kuriomis užtikrinama, kad tvarkomi asmens duomenys būtų apsaugoti, saugomi taikant tinkamas apsaugos priemones, įskaitant griežtą prieigos kontrolę ir dokumentavimą, siekiant išvengti netinkamo naudojimo ir užtikrinti, kad prieigą prie tų asmens duomenų turėtų tik įgalioti asmenys, turintys atitinkamas konfidencialumo pareigas;
(d)
the special categories of personal data are not to be transmitted, transferred or otherwise accessed by other parties;
d)
specialių kategorijų asmens duomenys negali būti perduodami, perkeliami ar kitaip prieinami kitoms šalims;
(e)
the special categories of personal data are deleted once the bias has been corrected or the personal data has reached the end of its retention period, whichever comes first;
e)
specialių kategorijų asmens duomenys ištrinami iškart po to, kai ištaisomas šališkumas, arba kai pasibaigia asmens duomenų saugojimo laikotarpis, atsižvelgiant į tai, kuri data yra ankstesnė;
(f)
the records of processing activities pursuant to Regulations (EU) 2016/679 and (EU) 2018/1725 and Directive (EU) 2016/680 include the reasons why the processing of special categories of personal data was strictly necessary to detect and correct biases, and why that objective could not be achieved by processing other data.
f)
duomenų tvarkymo veiklos įrašai pagal reglamentus (ES) 2016/679 ir (ES) 2018/1725 ir Direktyvą (ES) 2016/680 apima priežastis, dėl kurių specialių kategorijų asmens duomenų tvarkymas buvo tikrai būtinas šališkumui nustatyti ir ištaisyti ir dėl kurių to tikslo nebuvo galima pasiekti tvarkant kitus duomenis.
6. For the development of high-risk AI systems not using techniques involving the training of AI models, paragraphs 2 to 5 apply only to the testing data sets.
6. Kuriant didelės rizikos DI sistemas nenaudojant DI modelių mokymo metodų, 2–5 dalys taikomos tik bandymo duomenų rinkiniams.
Article 11
11 straipsnis
Technical documentation
Techniniai dokumentai
1. The technical documentation of a high-risk AI system shall be drawn up before that system is placed on the market or put into service and shall be kept up-to date.
1. Didelės rizikos DI sistemos techniniai dokumentai parengiami prieš tą sistemą pateikiant rinkai arba pradedant ją naudoti ir yra nuolat atnaujinami.
The technical documentation shall be drawn up in such a way as to demonstrate that the high-risk AI system complies with the requirements set out in this Section and to provide national competent authorities and notified bodies with the necessary information in a clear and comprehensive form to assess the compliance of the AI system with those requirements. It shall contain, at a minimum, the elements set out in Annex IV. SMEs, including start-ups, may provide the elements of the technical documentation specified in Annex IV in a simplified manner. To that end, the Commission shall establish a simplified technical documentation form targeted at the needs of small and microenterprises. Where an SME, including a start-up, opts to provide the information required in Annex IV in a simplified manner, it shall use the form referred to in this paragraph. Notified bodies shall accept the form for the purposes of the conformity assessment.
Techniniai dokumentai parengiami taip, kad iš jų matytųsi, jog didelės rizikos DI sistema atitinka šiame skirsnyje nustatytus reikalavimus, ir nacionalinėms kompetentingoms institucijoms bei notifikuotosioms įstaigoms juose būtų aiškia ir išsamia forma pateikta informacija, būtina DI sistemos atitikčiai tiems reikalavimams įvertinti. Tuos dokumentus turi sudaryti bent IV priede nustatyti elementai. MVĮ, įskaitant startuolius, gali IV priede nurodytų techninių dokumentų elementus pateikti supaprastintai. Tuo tikslu Komisija parengia mažųjų ir labai mažų įmonių poreikiams skirtą supaprastintą techninių dokumentų formą. Jeigu MVĮ, įskaitant startuolius, nusprendžia IV priede reikalaujamą informaciją pateikti supaprastintai, ji naudoja šioje dalyje nurodytą formą. Notifikuotosios įstaigos priima šią formą atitikties vertinimo tikslais.
2. Where a high-risk AI system related to a product covered by the Union harmonisation legislation listed in Section A of Annex I is placed on the market or put into service, a single set of technical documentation shall be drawn up containing all the information set out in paragraph 1, as well as the information required under those legal acts.
2. Kai rinkai pateikiama arba pradedama naudoti su gaminiu, kuriam taikomi I priedo A skirsnyje išvardyti Sąjungos derinamieji teisės aktai, susijusi didelės rizikos DI sistema, parengiamas vienas bendras techninių dokumentų rinkinys, kuriame pateikiama visa 1 dalyje nustatyta informacija ir pagal tuos teisės aktus reikalaujama informacija.
3. The Commission is empowered to adopt delegated acts in accordance with Article 97 in order to amend Annex IV, where necessary, to ensure that, in light of technical progress, the technical documentation provides all the information necessary to assess the compliance of the system with the requirements set out in this Section.
3. Komisijai suteikiami įgaliojimai pagal 97 straipsnį priimti deleguotuosius aktus, siekiant iš dalies pakeisti IV priedą, kad būtų užtikrinta, jog, atsižvelgiant į technikos pažangą, techniniuose dokumentuose būtų pateikta visa informacija, būtina sistemos atitikčiai šiame skirsnyje nustatytiems reikalavimams įvertinti.
Article 12
12 straipsnis
Record-keeping
Registravimas
1. High-risk AI systems shall technically allow for the automatic recording of events (logs) over the lifetime of the system.
1. Didelės rizikos DI sistemos turi būti tokios, kad per visą savo gyvavimo laiką būtų techniškai įmanoma automatiškai registruoti įvykius (žurnaluose).
2. In order to ensure a level of traceability of the functioning of a high-risk AI system that is appropriate to the intended purpose of the system, logging capabilities shall enable the recording of events relevant for:
2. Siekiant užtikrinti tam tikrą didelės rizikos DI sistemos veikimo atsekamumo lygį, kuris būtų tinkamas numatytajai sistemos paskirčiai, registravimo pajėgumais turi būti sudaryta galimybė registruoti įvykius, svarbius:
(a)
identifying situations that may result in the high-risk AI system presenting a risk within the meaning of Article 79(1) or in a substantial modification;
a)
situacijų, kuriose didelės rizikos DI sistema gali kelti riziką, kaip tai suprantama 79 straipsnio 1 dalyje, arba dėl kurių gali prireikti atlikti esminį pakeitimą, nustatymui;
(b)
facilitating the post-market monitoring referred to in Article 72; and
b)
72 straipsnyje nurodytos stebėsenos po pateikimo rinkai palengvinimui ir
(c)
monitoring the operation of high-risk AI systems referred to in Article 26(5).
c)
26 straipsnio 5 dalyje nurodytai didelės rizikos DI sistemų veikimo stebėsenai.
3. For high-risk AI systems referred to in point 1 (a), of Annex III, the logging capabilities shall provide, at a minimum:
3. III priedo 1 punkto a papunktyje nurodyti didelės rizikos DI sistemų registravimo pajėgumai apima bent:
(a)
recording of the period of each use of the system (start date and time and end date and time of each use);
a)
kiekvieno sistemos naudojimo laikotarpio (kiekvieno naudojimo pradžios datos ir laiko, taip pat pabaigos datos ir laiko) registravimą;
(b)
the reference database against which input data has been checked by the system;
b)
informacinę duomenų bazę, su kurios duomenimis sistema sutikrino įvesties duomenis;
(c)
the input data for which the search has led to a match;
c)
įvesties duomenis, kurių atitikmenys rasti atlikus paiešką;
(d)
the identification of the natural persons involved in the verification of the results, as referred to in Article 14(5).
d)
14 straipsnio 5 dalyje nurodytų fizinių asmenų, dalyvaujančių tikrinant rezultatus, tapatybės duomenis.
Article 13
13 straipsnis
Transparency and provision of information to deployers
Skaidrumas ir informacijos teikimas diegėjams
1. High-risk AI systems shall be designed and developed in such a way as to ensure that their operation is sufficiently transparent to enable deployers to interpret a system’s output and use it appropriately. An appropriate type and degree of transparency shall be ensured with a view to achieving compliance with the relevant obligations of the provider and deployer set out in Section 3.
1. Didelės rizikos DI sistemos projektuojamos ir kuriamos taip, kad būtų užtikrinama, kad jos veiktų pakankamai skaidriai, jog diegėjai galėtų tinkamai interpretuoti ir naudoti sistemos išvedinį. Turi būti užtikrintas atitinkamos rūšies ir lygio skaidrumas, kad tiekėjai ir diegėjai galėtų įvykdyti atitinkamas 3 skirsnyje nustatytas pareigas.
2. High-risk AI systems shall be accompanied by instructions for use in an appropriate digital format or otherwise that include concise, complete, correct and clear information that is relevant, accessible and comprehensible to deployers.
2. Su didelės rizikos DI sistemomis pateikiama tinkamo skaitmeninio arba kitokio formato naudojimo instrukcija, kurioje pateikiama glausta, išsami, teisinga ir aiški diegėjams svarbi, prieinama ir suprantama informacija.
3. The instructions for use shall contain at least the following information:
3. Naudojimo instrukcija apima bent šią informaciją:
(a)
the identity and the contact details of the provider and, where applicable, of its authorised representative;
a)
tiekėjo ir, kai taikytina, jo įgaliotojo atstovo tapatybę ir kontaktinius duomenis;
(b)
the characteristics, capabilities and limitations of performance of the high-risk AI system, including:
b)
didelės rizikos DI sistemos veikimo efektyvumo ypatumus, pajėgumus ir ribotumus, įskaitant:
(i)
its intended purpose;
i)
jos numatytąją paskirtį;
(ii)
the level of accuracy, including its metrics, robustness and cybersecurity referred to in Article 15 against which the high-risk AI system has been tested and validated and which can be expected, and any known and foreseeable circumstances that may have an impact on that expected level of accuracy, robustness and cybersecurity;
ii)
15 straipsnyje nurodytą didelės rizikos DI sistemos tikslumo, įskaitant tikslumo metriką, patvarumo ir kibernetinio saugumo lygį, kuris buvo išbandytas ir validuotas ir kurio galima tikėtis, taip pat visas žinomas ir numatomas aplinkybes, galinčias daryti poveikį numatomam tikslumo, patvarumo ir kibernetinio saugumo lygiui;
(iii)
any known or foreseeable circumstance, related to the use of the high-risk AI system in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, which may lead to risks to the health and safety or fundamental rights referred to in Article 9(2);
iii)
visas žinomas ar numatomas aplinkybes, susijusias su didelės rizikos DI sistemos naudojimu pagal numatytąją paskirtį arba pagrįstai numatomo netinkamo naudojimo sąlygomis, dėl kurio gali kilti 9 straipsnio 2 dalyje nurodyta rizika sveikatai ir saugai arba pagrindinėms teisėms;
(iv)
where applicable, the technical capabilities and characteristics of the high-risk AI system to provide information that is relevant to explain its output;
iv)
kai taikytina, didelės rizikos DI sistemos pajėgumus ir ypatumus teikti informaciją, kuri yra svarbi paaiškinant jos išvedinį;
(v)
when appropriate, its performance regarding specific persons or groups of persons on which the system is intended to be used;
v)
kai tikslinga, jos veikimo efektyvumą, susijusį su konkrečiais asmenimis ar asmenų grupėmis, kurių atžvilgiu sistema yra skirta naudoti;
(vi)
when appropriate, specifications for the input data, or any other relevant information in terms of the training, validation and testing data sets used, taking into account the intended purpose of the high-risk AI system;
vi)
kai tikslinga, įvesties duomenų specifikacijas arba visą kitą svarbią informaciją, susijusią su naudojamais mokymo, validavimo ir bandymo duomenų rinkiniais, atsižvelgiant į numatytąją didelės rizikos DI sistemos paskirtį;
(vii)
where applicable, information to enable deployers to interpret the output of the high-risk AI system and use it appropriately;
vii)
kai taikytina, informaciją, kurią pasitelkdami diegėjai galėtų tinkamai interpretuoti ir naudoti didelės rizikos DI sistemos išvedinį;
(c)
the changes to the high-risk AI system and its performance which have been pre-determined by the provider at the moment of the initial conformity assessment, if any;
c)
didelės rizikos DI sistemos ir jos veikimo efektyvumo, kurį tiekėjas iš anksto nustatė per pirminį atitikties vertinimą, pokyčius, jei tokių yra;
(d)
the human oversight measures referred to in Article 14, including the technical measures put in place to facilitate the interpretation of the outputs of the high-risk AI systems by the deployers;
d)
14 straipsnyje nurodytas žmogaus atliekamos priežiūros priemones, įskaitant technines priemones, įdiegtas tam, kad diegėjams būtų lengviau interpretuoti didelės rizikos DI sistemų išvedinius;
(e)
the computational and hardware resources needed, the expected lifetime of the high-risk AI system and any necessary maintenance and care measures, including their frequency, to ensure the proper functioning of that AI system, including as regards software updates;
e)
būtinus kompiuterinio apdorojimo ir aparatinės įrangos išteklius, numatomą didelės rizikos DI sistemos gyvavimo laiką ir visas techninės ir kitos priežiūros priemones, įskaitant jų dažnumą, būtinas tinkamam tos DI sistemos veikimui užtikrinti, įskaitant programinės įrangos atnaujinimą;
(f)
where relevant, a description of the mechanisms included within the high-risk AI system that allows deployers to properly collect, store and interpret the logs in accordance with Article 12.
f)
kai aktualu, į didelės rizikos DI sistemą įtrauktų mechanizmų, suteikiančių galimybę diegėjams tinkamai rinkti, saugoti ir interpretuoti žurnalus pagal 12 straipsnį, aprašymą.
Article 14
14 straipsnis
Human oversight
Žmogaus atliekama priežiūra
1. High-risk AI systems shall be designed and developed in such a way, including with appropriate human-machine interface tools, that they can be effectively overseen by natural persons during the period in which they are in use.
1. Didelės rizikos DI sistemos projektuojamos ir kuriamos taip (įskaitant tinkamas žmogaus ir mašinos sąsajos priemones), kad tuo metu, kai jos naudojamos, jas galėtų veiksmingai prižiūrėti fiziniai asmenys.
2. Human oversight shall aim to prevent or minimise the risks to health, safety or fundamental rights that may emerge when a high-risk AI system is used in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, in particular where such risks persist despite the application of other requirements set out in this Section.
2. Žmogaus atliekama priežiūra turi būti siekiama išvengti rizikos sveikatai, saugai ar pagrindinėms teisėms, kuri gali kilti didelės rizikos DI sistemą naudojant pagal numatytąją paskirtį arba pagrįstai numatomo netinkamo naudojimo sąlygomis, arba tą riziką kuo labiau sumažinti, visų pirma tais atvejais, kai ji išlieka nepaisant kitų šiame skirsnyje nustatytų reikalavimų taikymo.
3. The oversight measures shall be commensurate with the risks, level of autonomy and context of use of the high-risk AI system, and shall be ensured through either one or both of the following types of measures:
3. Priežiūros priemonės turi būti proporcingos didelės rizikos DI sistemos keliamai rizikai, autonomijos lygiui ir naudojimo aplinkybėms ir turi būti užtikrinamos viena arba abiem šių rūšių priemonėmis:
(a)
measures identified and built, when technically feasible, into the high-risk AI system by the provider before it is placed on the market or put into service;
a)
priemonėmis, kurias tiekėjas nustatė ir, kai techniškai įmanoma, įdiegė į didelės rizikos DI sistemą prieš ją pateikdamas rinkai arba pradėdamas naudoti;
(b)
measures identified by the provider before placing the high-risk AI system on the market or putting it into service and that are appropriate to be implemented by the deployer.
b)
priemonėmis, kurias tiekėjas nustatė prieš didelės rizikos DI sistemą pateikdamas rinkai arba pradėdamas ją naudoti ir kurios yra tinkamos diegėjui įgyvendinti.
4. For the purpose of implementing paragraphs 1, 2 and 3, the high-risk AI system shall be provided to the deployer in such a way that natural persons to whom human oversight is assigned are enabled, as appropriate and proportionate:
4. 1, 2 ir 3 dalių įgyvendinimo tikslu didelės rizikos DI sistema diegėjui tiekiama taip, kad fiziniai asmenys, kuriems pavesta atlikti tokią priežiūrą, galėtų, jei tai tinkama ir proporcinga:
(a)
to properly understand the relevant capacities and limitations of the high-risk AI system and be able to duly monitor its operation, including in view of detecting and addressing anomalies, dysfunctions and unexpected performance;
a)
tinkamai suprasti atitinkamas didelės rizikos DI sistemos gebėjimus ir ribotumus ir sugebėti tinkamai stebėti jos veikimą, be kita ko, siekiant aptikti ir pašalinti anomalijas, sutrikimus ir netikėtą veikimą;
(b)
to remain aware of the possible tendency of automatically relying or over-relying on the output produced by a high-risk AI system (automation bias), in particular for high-risk AI systems used to provide information or recommendations for decisions to be taken by natural persons;
b)
nepamiršti galimos tendencijos automatiškai arba pernelyg pasikliauti didelės rizikos DI sistemos generuotu išvediniu (automatiško šališkumo), visų pirma tais atvejais, kai didelės rizikos DI sistemos naudojamos informacijai arba rekomendacijoms, kuriomis remdamiesi fiziniai asmenys turi priimti sprendimus, teikti;
(c)
to correctly interpret the high-risk AI system’s output, taking into account, for example, the interpretation tools and methods available;
c)
sugebėti teisingai interpretuoti didelės rizikos DI sistemos išvedinį, atsižvelgiant, pavyzdžiui, į turimas interpretavimo priemones bei metodus;
(d)
to decide, in any particular situation, not to use the high-risk AI system or to otherwise disregard, override or reverse the output of the high-risk AI system;
d)
nuspręsti nenaudoti didelės rizikos DI sistemos tam tikroje situacijoje arba kitaip nepaisyti tos didelės rizikos DI sistemos išvedinio, jį panaikinti ar ištaisyti;
(e)
to intervene in the operation of the high-risk AI system or interrupt the system through a ‘stop’ button or a similar procedure that allows the system to come to a halt in a safe state.
e)
įsikišti į didelės rizikos DI sistemos veikimą arba sistemą išjungti „stop“ mygtuku ar panašiu būdu, leidžiančiu saugiai sustabdyti sistemą.
5. For high-risk AI systems referred to in point 1(a) of Annex III, the measures referred to in paragraph 3 of this Article shall be such as to ensure that, in addition, no action or decision is taken by the deployer on the basis of the identification resulting from the system unless that identification has been separately verified and confirmed by at least two natural persons with the necessary competence, training and authority.
5. III priedo 1 punkto a papunktyje nurodytų didelės rizikos DI sistemų atveju šio straipsnio 3 dalyje nurodytomis priemonėmis turi būti užtikrinta, kad, be minėtų dalykų, diegėjas nesiimtų jokių veiksmų ir nepriimtų jokių sprendimų remdamasis sistemos pateiktu tapatybės nustatymo rezultatu, nebent tą rezultatą atskirai patikrino ir patvirtino bent du fiziniai asmenys, kurie turi reikiamą kompetenciją, kvalifikaciją ir įgaliojimus.
The requirement for a separate verification by at least two natural persons shall not apply to high-risk AI systems used for the purposes of law enforcement, migration, border control or asylum, where Union or national law considers the application of this requirement to be disproportionate.
Reikalavimas dėl to, kad rezultatą būtų atskirai patikrinę bent du fiziniai asmenys, netaikomas didelės rizikos DI sistemoms, naudojamoms teisėsaugos, migracijos, sienų kontrolės ar prieglobsčio tikslais, kai pagal Sąjungos ar nacionalinę teisę šio reikalavimo taikymas laikomas neproporcingu.
Article 15
15 straipsnis
Accuracy, robustness and cybersecurity
Tikslumas, patvarumas ir kibernetinis saugumas
1. High-risk AI systems shall be designed and developed in such a way that they achieve an appropriate level of accuracy, robustness, and cybersecurity, and that they perform consistently in those respects throughout their lifecycle.
1. Didelės rizikos DI sistemos projektuojamos ir kuriamos taip, kad būtų pasiektas tinkamas tikslumo, patvarumo ir kibernetinio saugumo lygis ir kad tuo atžvilgiu jos veiktų nuosekliai per visą jų gyvavimo ciklą.
2. To address the technical aspects of how to measure the appropriate levels of accuracy and robustness set out in paragraph 1 and any other relevant performance metrics, the Commission shall, in cooperation with relevant stakeholders and organisations such as metrology and benchmarking authorities, encourage, as appropriate, the development of benchmarks and measurement methodologies.
2. Siekdama atsižvelgti į techninius 1 dalyje nustatyto tinkamo tikslumo ir patvarumo lygio ir visos kitos susijusios veikimo efektyvumo metrikos matavimo aspektus, Komisija, bendradarbiaudama su atitinkamais suinteresuotaisiais subjektais ir organizacijomis, pavyzdžiui, metrologijos ir lyginamosios analizės institucijomis, atitinkamai skatina rengti lyginamuosius parametrus ir matavimo metodikas.
3. The levels of accuracy and the relevant accuracy metrics of high-risk AI systems shall be declared in the accompanying instructions of use.
3. Didelės rizikos DI sistemų tikslumo lygiai ir atitinkama tikslumo metrika nurodomi pridedamoje naudojimo instrukcijoje.
4. High-risk AI systems shall be as resilient as possible regarding errors, faults or inconsistencies that may occur within the system or the environment in which the system operates, in particular due to their interaction with natural persons or other systems. Technical and organisational measures shall be taken in this regard.
4. Didelės rizikos DI sistemos turi būti kiek įmanoma atsparios klaidoms, triktims ar nesuderinamumo atvejams, kurių gali atsirasti sistemoje arba jos veikimo aplinkoje, visų pirma dėl sistemos sąveikos su fiziniais asmenimis ar kitomis sistemomis. Šiuo atžvilgiu imamasi techninių ir organizacinių priemonių.
The robustness of high-risk AI systems may be achieved through technical redundancy solutions, which may include backup or fail-safe plans.
Didelės rizikos DI sistemų patvarumą galima užtikrinti techniniais atsarginio dubliavimo sprendimais, kurie gali apimti atsarginio kopijavimo arba atsparumo gedimams planus.
High-risk AI systems that continue to learn after being placed on the market or put into service shall be developed in such a way as to eliminate or reduce as far as possible the risk of possibly biased outputs influencing input for future operations (feedback loops), and as to ensure that any such feedback loops are duly addressed with appropriate mitigation measures.
Kuriant didelės rizikos DI sistemas, kurios, pateiktos rinkai arba pradėtos naudoti, toliau mokosi, turi būti užtikrinta, kad būtų pašalinta arba kuo labiau sumažinta išvedinių, kurie gali būti šališki ir daryti įtaką būsimų operacijų įvediniui (grįžtamojo ryšio grandinių), rizika ir kad būtų užtikrinta, kad bet kokių tokių grįžtamojo ryšio grandinių atžvilgiu būtų deramai taikomos tinkamos rizikos mažinimo priemonės.
5. High-risk AI systems shall be resilient against attempts by unauthorised third parties to alter their use, outputs or performance by exploiting system vulnerabilities.
5. Didelės rizikos DI sistemos turi būti atsparios leidimo neturinčių trečiųjų šalių bandymams pakeisti jų naudojimo paskirtį, išvedinius ar veikimo efektyvumą pasinaudojant sistemų pažeidžiamumu.
The technical solutions aiming to ensure the cybersecurity of high-risk AI systems shall be appropriate to the relevant circumstances and the risks.
Techniniai sprendimai, kuriais siekiama užtikrinti didelės rizikos DI sistemų kibernetinį saugumą, turi atitikti konkrečias aplinkybes ir riziką.
The technical solutions to address AI specific vulnerabilities shall include, where appropriate, measures to prevent, detect, respond to, resolve and control for attacks trying to manipulate the training data set (data poisoning), or pre-trained components used in training (model poisoning), inputs designed to cause the AI model to make a mistake (adversarial examples or model evasion), confidentiality attacks or model flaws.
Techniniai DI būdingų pažeidžiamumo problemų sprendimai, kai tinkama, turi apimti priemones, padedančias išvengti, aptikti, reaguoti ir rasti sprendimą dėl išpuolių, kuriais bandoma manipuliuoti mokymo duomenų rinkiniu (klaidingų duomenų įrašymo), arba iš anksto išmokytų komponentų, kurie naudojami mokyme (klaidingų modelių įrašymo), įvedinių, kurių paskirtis – priversti DI modelį padaryti klaidą (priešiškų pavyzdžių arba modelio vengimo), konfidencialumo pažeidimo išpuolių arba modelių trūkumų, ir juos kontroliuoti.
SECTION 3
3 SKIRSNIS
Obligations of providers and deployers of high-risk AI systems and other parties
Didelės rizikos DI sistemų tiekėjų bei diegėjų ir kitų šalių pareigos
Article 16
16 straipsnis
Obligations of providers of high-risk AI systems
Didelės rizikos DI sistemų tiekėjų pareigos
Providers of high-risk AI systems shall:
Didelės rizikos DI sistemų tiekėjai:
(a)
ensure that their high-risk AI systems are compliant with the requirements set out in Section 2;
a)
užtikrina, kad jų didelės rizikos DI sistemos atitiktų 2 skirsnyje nustatytus reikalavimus;
(b)
indicate on the high-risk AI system or, where that is not possible, on its packaging or its accompanying documentation, as applicable, their name, registered trade name or registered trade mark, the address at which they can be contacted;
b)
ant didelės rizikos DI sistemos arba, jei to padaryti neįmanoma, ant jos pakuotės arba prie jos pridedamuose dokumentuose atitinkamai nurodo savo pavadinimą, registruotą prekybinį pavadinimą arba registruotą prekių ženklą ir adresą, kuriuo su jais galima susisiekti;
(c)
have a quality management system in place which complies with Article 17;
c)
įdiegia 17 straipsnio reikalavimus atitinkančią kokybės valdymo sistemą;
(d)
keep the documentation referred to in Article 18;
d)
saugo 18 straipsnyje nurodytus dokumentus;
(e)
when under their control, keep the logs automatically generated by their high-risk AI systems as referred to in Article 19;
e)
saugo savo didelės rizikos DI sistemų automatiškai generuojamus žurnalus, jei tik tie žurnalai yra jų žinioje, kaip nurodyta 19 straipsnyje;
(f)
ensure that the high-risk AI system undergoes the relevant conformity assessment procedure as referred to in Article 43, prior to its being placed on the market or put into service;
f)
užtikrina, kad prieš pateikiant rinkai arba pradedant naudoti didelės rizikos DI sistemą būtų atliekama atitinkama jos atitikties vertinimo procedūra, kaip nurodyta 43 straipsnyje;
(g)
draw up an EU declaration of conformity in accordance with Article 47;
g)
parengia ES atitikties deklaraciją pagal 47 straipsnį;
(h)
affix the CE marking to the high-risk AI system or, where that is not possible, on its packaging or its accompanying documentation, to indicate conformity with this Regulation, in accordance with Article 48;
h)
siekdami parodyti, kad jų didelės rizikos DI sistemos atitinka šio reglamento reikalavimus, pagal 48 straipsnį jas paženklina CE ženklu arba, jei to padaryti neįmanoma, paženklina jos pakuotę arba prie jos pridedamus dokumentus;
(i)
comply with the registration obligations referred to in Article 49(1);
i)
vykdo 49 straipsnio 1 dalyje nurodytas registravimo pareigas;
(j)
take the necessary corrective actions and provide information as required in Article 20;
j)
imasi būtinų taisomųjų veiksmų ir teikia informaciją, kaip reikalaujama 20 straipsnyje;
(k)
upon a reasoned request of a national competent authority, demonstrate the conformity of the high-risk AI system with the requirements set out in Section 2;
k)
nacionalinės kompetentingos institucijos pagrįstu prašymu įrodo, kad didelės rizikos DI sistema atitinka 2 skirsnyje nustatytus reikalavimus;
(l)
ensure that the high-risk AI system complies with accessibility requirements in accordance with Directives (EU) 2016/2102 and (EU) 2019/882.
l)
užtikrina, kad didelės rizikos DI sistema atitiktų prieinamumo reikalavimus pagal direktyvas (ES) 2016/2102 ir (ES) 2019/882.
Article 17
17 straipsnis
Quality management system
Kokybės valdymo sistema
1. Providers of high-risk AI systems shall put a quality management system in place that ensures compliance with this Regulation. That system shall be documented in a systematic and orderly manner in the form of written policies, procedures and instructions, and shall include at least the following aspects:
1. Didelės rizikos DI sistemų tiekėjai įdiegia kokybės valdymo sistemą, kuria užtikrinama atitiktis šiam reglamentui. Ta sistema sistemingai ir tvarkingai įtvirtinama raštiškuose politikos, procedūrų ir nurodymų dokumentuose ir apima bent šiuos aspektus:
(a)
a strategy for regulatory compliance, including compliance with conformity assessment procedures and procedures for the management of modifications to the high-risk AI system;
a)
atitikties reguliavimo normoms strategiją, apimančią atitikties vertinimo procedūrų ir didelės rizikos DI sistemos pakeitimų valdymo procedūrų laikymąsi;
(b)
techniques, procedures and systematic actions to be used for the design, design control and design verification of the high-risk AI system;
b)
metodus, procedūras ir sistemingus veiksmus, taikytinus projektuojant didelės rizikos DI sistemą, vykdant jos projekto kontrolę ir tikrinimą;
(c)
techniques, procedures and systematic actions to be used for the development, quality control and quality assurance of the high-risk AI system;
c)
metodus, procedūras ir sistemingus veiksmus, taikytinus kuriant didelės rizikos DI sistemą, atliekant jos kokybės patikrinimą ir vykdant su ja susijusią kokybės užtikrinimo veiklą;
(d)
examination, test and validation procedures to be carried out before, during and after the development of the high-risk AI system, and the frequency with which they have to be carried out;
d)
tikrinimo, bandymo ir validavimo procedūras, atliktinas prieš kuriant didelės rizikos DI sistemą, jos kūrimo metu ir ją sukūrus, ir kokiu dažnumu jos turi būti atliekamos;
(e)
technical specifications, including standards, to be applied and, where the relevant harmonised standards are not applied in full or do not cover all of the relevant requirements set out in Section 2, the means to be used to ensure that the high-risk AI system complies with those requirements;
e)
taikytinas technines specifikacijas, įskaitant standartus, ir, jei atitinkami darnieji standartai taikomi ne visa apimtimi arba apima ne visus atitinkamus 2 skirsnyje nustatytus reikalavimus, priemones, naudotinas siekiant užtikrinti, kad didelės rizikos DI sistema atitiktų tuos reikalavimus;
(f)
systems and procedures for data management, including data acquisition, data collection, data analysis, data labelling, data storage, data filtration, data mining, data aggregation, data retention and any other operation regarding the data that is performed before and for the purpose of the placing on the market or the putting into service of high-risk AI systems;
f)
duomenų tvarkymo sistemas ir procedūras, įskaitant duomenų gavimo, duomenų rinkimo, duomenų analizės, duomenų žymėjimo, duomenų laikymo, duomenų filtravimo, duomenų gavybos, duomenų agregavimo, duomenų saugojimo ir bet kokią kitą su duomenimis susijusią operaciją, kuri atliekama prieš didelės rizikos DI sistemą pateikiant rinkai arba pradedant naudoti ir kuri atliekama tuo tikslu;
(g)
the risk management system referred to in Article 9;
g)
9 straipsnyje nurodytą rizikos valdymo sistemą;
(h)
the setting-up, implementation and maintenance of a post-market monitoring system, in accordance with Article 72;
h)
stebėsenos po pateikimo rinkai sistemos nustatymą, įgyvendinimą ir priežiūrą pagal 72 straipsnį;
(i)
procedures related to the reporting of a serious incident in accordance with Article 73;
i)
pranešimo apie rimtą incidentą pagal 73 straipsnį procedūras;
(j)
the handling of communication with national competent authorities, other relevant authorities, including those providing or supporting the access to data, notified bodies, other operators, customers or other interested parties;
j)
ryšių su nacionalinėmis kompetentingomis institucijomis, kitomis atitinkamomis institucijomis, įskaitant tas, kurios teikia arba palaiko prieigą prie duomenų, notifikuotosiomis įstaigomis, kitais veiklos vykdytojais, klientais ar kitais suinteresuotaisiais subjektais palaikymą;
(k)
systems and procedures for record-keeping of all relevant documentation and information;
k)
visų svarbių dokumentų ir informacijos registravimo sistemas ir procedūras;
(l)
resource management, including security-of-supply related measures;
l)
išteklių valdymą, įskaitant su tiekimo saugumu susijusias priemones;
(m)
an accountability framework setting out the responsibilities of the management and other staff with regard to all the aspects listed in this paragraph.
m)
atskaitomybės sistemą, kurioje nustatyta vadovybės ir kitų darbuotojų atsakomybė, apimanti visus šioje dalyje išvardytus aspektus.
2. The implementation of the aspects referred to in paragraph 1 shall be proportionate to the size of the provider’s organisation. Providers shall, in any event, respect the degree of rigour and the level of protection required to ensure the compliance of their high-risk AI systems with this Regulation.
2. 1 dalyje nurodyti aspektai įgyvendinami proporcingai tiekėjo organizacijos dydžiui. Bet kuriuo atveju tiekėjai turi laikytis tokio kruopštumo ir apsaugos lygio, kokio reikia, kad būtų užtikrinta jų didelės rizikos DI sistemų atitiktis šiam reglamentui.
3. Providers of high-risk AI systems that are subject to obligations regarding quality management systems or an equivalent function under relevant sectoral Union law may include the aspects listed in paragraph 1 as part of the quality management systems pursuant to that law.
3. Didelės rizikos DI sistemų tiekėjai, kuriems pagal atitinkamą sektorių Sąjungos teisę taikomos pareigos dėl kokybės valdymo sistemų ar lygiaverčių funkcijų, gali įtraukti 1 dalyje išdėstytus aspektus į pagal tą teisę nustatytas rizikos valdymo sistemas.
4. For providers that are financial institutions subject to requirements regarding their internal governance, arrangements or processes under Union financial services law, the obligation to put in place a quality management system, with the exception of paragraph 1, points (g), (h) and (i) of this Article, shall be deemed to be fulfilled by complying with the rules on internal governance arrangements or processes pursuant to the relevant Union financial services law. To that end, any harmonised standards referred to in Article 40 shall be taken into account.
4. Kalbant apie tiekėjus, kurie yra finansų įstaigos, kurioms pagal Sąjungos finansinių paslaugų teisės aktus taikomi su vidaus valdymu, tvarka ar procesais susiję reikalavimai, pareiga įdiegti kokybės valdymo sistemą, išskyrus šio straipsnio 1 dalies g, h ir i punktuose nustatytas nuostatas, laikoma įvykdyta, jei laikomasi atitinkamuose Sąjungos finansinių paslaugų teisės aktuose nustatytų taisyklių dėl vidaus valdymo, tvarkos ar procesų. Tuo tikslu atsižvelgiama į visus 40 straipsnyje nurodytus darniuosius standartus.
Article 18
18 straipsnis
Documentation keeping
Dokumentų saugojimas
1. The provider shall, for a period ending 10 years after the high-risk AI system has been placed on the market or put into service, keep at the disposal of the national competent authorities:
1. Tiekėjas 10 metų po didelės rizikos DI sistemos pateikimo rinkai arba pradėjimo naudoti dienos saugo toliau nurodytus dokumentus, kad nacionalinės kompetentingos institucijos galėtų juos patikrinti:
(a)
the technical documentation referred to in Article 11;
a)
11 straipsnyje nurodytus techninius dokumentus;
(b)
the documentation concerning the quality management system referred to in Article 17;
b)
su 17 straipsnyje nurodyta kokybės valdymo sistema susijusius dokumentus;
(c)
the documentation concerning the changes approved by notified bodies, where applicable;
c)
kai taikytina, su notifikuotųjų įstaigų patvirtintais pakeitimais susijusius dokumentus;
(d)
the decisions and other documents issued by the notified bodies, where applicable;
d)
kai taikytina, notifikuotųjų įstaigų priimtus sprendimus ir kitus jų išduotus dokumentus;
(e)
the EU declaration of conformity referred to in Article 47.
e)
47 straipsnyje nurodytą ES atitikties deklaraciją.
2. Each Member State shall determine conditions under which the documentation referred to in paragraph 1 remains at the disposal of the national competent authorities for the period indicated in that paragraph for the cases when a provider or its authorised representative established on its territory goes bankrupt or ceases its activity prior to the end of that period.
2. Kiekviena valstybė narė nustato sąlygas, kuriomis nacionalinės kompetentingos institucijos gali 1 dalyje nurodytu laikotarpiu susipažinti su toje dalyje nurodytais dokumentais tais atvejais, kai jos teritorijoje įsisteigęs tiekėjas arba jo įgaliotasis atstovas bankrutuoja arba nutraukia savo veiklą nepasibaigus tam laikotarpiui.
3. Providers that are financial institutions subject to requirements regarding their internal governance, arrangements or processes under Union financial services law shall maintain the technical documentation as part of the documentation kept under the relevant Union financial services law.
3. Tiekėjai, kurie yra finansų įstaigos, kurioms pagal Sąjungos finansinių paslaugų teisės aktus taikomi su jų vidaus valdymu, tvarka ar procesais susiję reikalavimai, techninius dokumentus tvarko kaip dalį dokumentų, saugomų pagal atitinkamus Sąjungos finansinių paslaugų teisės aktus.
Article 19
19 straipsnis
Automatically generated logs
Automatiškai generuojami žurnalai
1. Providers of high-risk AI systems shall keep the logs referred to in Article 12(1), automatically generated by their high-risk AI systems, to the extent such logs are under their control. Without prejudice to applicable Union or national law, the logs shall be kept for a period appropriate to the intended purpose of the high-risk AI system, of at least six months, unless provided otherwise in the applicable Union or national law, in particular in Union law on the protection of personal data.
1. Didelės rizikos DI sistemų diegėjai saugo jų didelės rizikos DI sistemų automatiškai generuojamus 12 straipsnio 1 dalyje nurodytus žurnalus, jei tik tokie žurnalai yra jų žinioje. Nedarant poveikio taikytinai Sąjungos ar nacionalinei teisei, žurnalai saugomi laikotarpį, kuris yra tinkamas atsižvelgiant į numatytąją didelės rizikos DI sistemos paskirtį, ir ne trumpiau kaip šešis mėnesius, nebent taikytinoje Sąjungos ar nacionalinėje teisėje, visų pirma Sąjungos teisėje dėl asmens duomenų apsaugos, numatyta kitaip.
2. Providers that are financial institutions subject to requirements regarding their internal governance, arrangements or processes under Union financial services law shall maintain the logs automatically generated by their high-risk AI systems as part of the documentation kept under the relevant financial services law.
2. Tiekėjai, kurie yra finansų įstaigos, kurioms pagal Sąjungos finansinių paslaugų teisės aktus taikomi su vidaus valdymu, tvarka ar procesais susiję reikalavimai, jų didelės rizikos DI sistemų automatiškai generuojamus žurnalus tvarko kaip dalį dokumentų, saugomų pagal atitinkamus finansinių paslaugų teisės aktus.
Article 20
20 straipsnis
Corrective actions and duty of information
Taisomieji veiksmai ir pareiga informuoti
1. Providers of high-risk AI systems which consider or have reason to consider that a high-risk AI system that they have placed on the market or put into service is not in conformity with this Regulation shall immediately take the necessary corrective actions to bring that system into conformity, to withdraw it, to disable it, or to recall it, as appropriate. They shall inform the distributors of the high-risk AI system concerned and, where applicable, the deployers, the authorised representative and importers accordingly.
1. Didelės rizikos DI sistemų tiekėjai, manantys arba turintys pagrindo manyti, kad didelės rizikos DI sistema, kurią jie pateikė rinkai arba pradėjo naudoti, neatitinka šio reglamento, nedelsdami imasi taisomųjų veiksmų, reikalingų siekiant atitinkamai užtikrinti tos sistemos atitiktį, ją pašalinti iš rinkos, ją išjungti arba atšaukti. Jie apie tai informuoja atitinkamos didelės rizikos DI sistemos platintojus ir, kai taikytina, diegėjus, įgaliotuosius atstovus bei importuotojus.
2. Where the high-risk AI system presents a risk within the meaning of Article 79(1) and the provider becomes aware of that risk, it shall immediately investigate the causes, in collaboration with the reporting deployer, where applicable, and inform the market surveillance authorities competent for the high-risk AI system concerned and, where applicable, the notified body that issued a certificate for that high-risk AI system in accordance with Article 44, in particular, of the nature of the non-compliance and of any relevant corrective action taken.
2. Jei didelės rizikos DI sistema kelia riziką, kaip tai suprantama 79 straipsnio 1 dalyje, ir tiekėjas sužino apie tą riziką, jis nedelsdamas ištiria priežastis bendradarbiaudamas su apie riziką pranešusiu diegėju, kai taikytina, ir informuoja už tas didelės rizikos DI sistemas kompetentingas rinkos priežiūros institucijas ir, kai taikytina, notifikuotąją įstaigą, išdavusią tos didelės rizikos DI sistemos sertifikatą pagal 44 straipsnį, visų pirma apie neatitikties pobūdį ir atitinkamus taisomuosius veiksmus, kurių buvo imtasi.
Article 21
21 straipsnis
Cooperation with competent authorities
Bendradarbiavimas su kompetentingomis institucijomis
1. Providers of high-risk AI systems shall, upon a reasoned request by a competent authority, provide that authority all the information and documentation necessary to demonstrate the conformity of the high-risk AI system with the requirements set out in Section 2, in a language which can be easily understood by the authority in one of the official languages of the institutions of the Union as indicated by the Member State concerned.
1. Gavę kompetentingos institucijos pagrįstą prašymą, didelės rizikos DI sistemų tiekėjai tai institucijai jai lengvai suprantama kalba, viena iš oficialiųjų Sąjungos institucijų kalbų, kurią nurodo atitinkama valstybė narė, pateikia visą informaciją ir dokumentus, būtinus siekiant įrodyti, kad didelės rizikos DI sistema atitinka 2 skirsnyje nustatytus reikalavimus.
2. Upon a reasoned request by a competent authority, providers shall also give the requesting competent authority, as applicable, access to the automatically generated logs of the high-risk AI system referred to in Article 12(1), to the extent such logs are under their control.
2. Gavę pagrįstą kompetentingos institucijos prašymą, tiekėjai prašymą pateikusiai kompetentingai institucijai taip pat atitinkamai suteikia prieigą prie 12 straipsnio 1 dalyje nurodytų automatiškai generuojamų didelės rizikos DI sistemos žurnalų, jei tokie žurnalai yra jų žinioje.
3. Any information obtained by a competent authority pursuant to this Article shall be treated in accordance with the confidentiality obligations set out in Article 78.
3. Visa kompetentingos institucijos pagal šį straipsnį gauta informacija tvarkoma laikantis 78 straipsnyje nustatytų konfidencialumo pareigų.
Article 22
22 straipsnis
Authorised representatives of providers of high-risk AI systems
Didelės rizikos DI sistemų tiekėjų įgaliotieji atstovai
1. Prior to making their high-risk AI systems available on the Union market, providers established in third countries shall, by written mandate, appoint an authorised representative which is established in the Union.
1. Prieš pateikdami savo didelės rizikos DI sistemas Sąjungos rinkai, trečiosiose valstybėse įsisteigę tiekėjai rašytiniu įgaliojimu paskiria Sąjungoje įsisteigusį įgaliotąjį atstovą.
2. The provider shall enable its authorised representative to perform the tasks specified in the mandate received from the provider.
2. Tiekėjas paveda įgaliotajam atstovui atlikti tiekėjo suteiktame įgaliojime nurodytas užduotis.
3. The authorised representative shall perform the tasks specified in the mandate received from the provider. It shall provide a copy of the mandate to the market surveillance authorities upon request, in one of the official languages of the institutions of the Union, as indicated by the competent authority. For the purposes of this Regulation, the mandate shall empower the authorised representative to carry out the following tasks:
3. Įgaliotasis atstovas atlieka tiekėjo suteiktame įgaliojime nurodytas užduotis. Gavęs prašymą, jis pateikia rinkos priežiūros institucijoms įgaliojimo kopiją viena iš oficialiųjų Sąjungos institucijų kalbų, kurią nurodo kompetentinga institucija. Šio reglamento tikslais įgaliojimu įgaliotajam atstovui suteikiama teisė atlikti šias užduotis:
(a)
verify that the EU declaration of conformity referred to in Article 47 and the technical documentation referred to in Article 11 have been drawn up and that an appropriate conformity assessment procedure has been carried out by the provider;
a)
patikrinti, ar parengti 47 straipsnyje nurodyta ES atitikties deklaracija ir 11 straipsnyje nurodyti techniniai dokumentai ir ar tiekėjas atliko tinkamą atitikties vertinimo procedūrą;
(b)
keep at the disposal of the competent authorities and national authorities or bodies referred to in Article 74(10), for a period of 10 years after the high-risk AI system has been placed on the market or put into service, the contact details of the provider that appointed the authorised representative, a copy of the EU declaration of conformity referred to in Article 47, the technical documentation and, if applicable, the certificate issued by the notified body;
b)
10 metų po didelės rizikos DI sistemos pateikimo rinkai arba pradėjimo naudoti dienos saugoti tiekėjo, kuris yra paskyręs įgaliotąjį atstovą, kontaktinius duomenis, 47 straipsnyje nurodytos ES atitikties deklaracijos kopiją, techninius dokumentus, ir, jei taikytina, notifikuotosios įstaigos išduotą sertifikatą, kad juos galėtų patikrinti kompetentingos institucijos arba 74 straipsnio 10 dalyje nurodytos nacionalinės institucijos ar įstaigos;
(c)
provide a competent authority, upon a reasoned request, with all the information and documentation, including that referred to in point (b) of this subparagraph, necessary to demonstrate the conformity of a high-risk AI system with the requirements set out in Section 2, including access to the logs, as referred to in Article 12(1), automatically generated by the high-risk AI system, to the extent such logs are under the control of the provider;
c)
gavus pagrįstą prašymą, pateikti kompetentingai institucijai visą informaciją ir dokumentus, įskaitant nurodytuosius šios pastraipos b punkte, būtinus siekiant įrodyti, kad didelės rizikos DI sistema atitinka 2 skirsnyje nustatytus reikalavimus, be kita ko, suteikti galimybę susipažinti su didelės rizikos DI sistemos automatiškai generuojamais 12 straipsnio 1 dalyje nurodytais žurnalais, jei tik tokie žurnalai yra tiekėjo žinioje;
(d)
cooperate with competent authorities, upon a reasoned request, in any action the latter take in relation to the high-risk AI system, in particular to reduce and mitigate the risks posed by the high-risk AI system;
d)
gavus pagrįstą prašymą, bendradarbiauti su kompetentingomis institucijomis įgyvendinant veiksmus, kurių pastarosios imasi didelės rizikos DI sistemos atžvilgiu, visų pirma siekdamos sumažinti ir sušvelninti didelės rizikos DI sistemų keliamą riziką;
(e)
where applicable, comply with the registration obligations referred to in Article 49(1), or, if the registration is carried out by the provider itself, ensure that the information referred to in point 3 of Section A of Annex VIII is correct.
e)
kai taikytina, laikytis 49 straipsnio 1 dalyje nustatytų pareigų užregistruoti sistemą arba, jei ją užregistruoja pats tiekėjas, užtikrinti, kad VIII priedo A skirsnio 3 punkte pateikta informacija būtų teisinga.
The mandate shall empower the authorised representative to be addressed, in addition to or instead of the provider, by the competent authorities, on all issues related to ensuring compliance with this Regulation.
Dėl visų aspektų, susijusių su šio reglamento laikymosi užtikrinimu, pagal įgaliojimą į įgaliotąjį atstovą, be tiekėjo arba vietoj jo, kreipiasi kompetentingos institucijos.
4. The authorised representative shall terminate the mandate if it considers or has reason to consider the provider to be acting contrary to its obligations pursuant to this Regulation. In such a case, it shall immediately inform the relevant market surveillance authority, as well as, where applicable, the relevant notified body, about the termination of the mandate and the reasons therefor.
4. Įgaliotasis atstovas nutraukia įgaliojimą, jei mano arba turi pagrindo manyti, kad tiekėjo veikla prieštarauja pagal šį reglamentą nustatytoms jo pareigoms. Tokiu atveju jis nedelsdamas informuoja atitinkamą rinkos priežiūros instituciją, taip pat, kai taikytina, atitinkamą notifikuotąją įstaigą, apie įgaliojimo panaikinimą ir jo priežastis.
Article 23
23 straipsnis
Obligations of importers
Importuotojų pareigos
1. Before placing a high-risk AI system on the market, importers shall ensure that the system is in conformity with this Regulation by verifying that:
1. Prieš pateikdami rinkai didelės rizikos DI sistemą, importuotojai užtikrina, kad sistema atitiktų šį reglamentą, patikrindami, kad:
(a)
the relevant conformity assessment procedure referred to in Article 43 has been carried out by the provider of the high-risk AI system;
a)
didelės rizikos DI sistemos tiekėjas būtų atlikęs atitinkamą 43 straipsnyje nurodytą atitikties vertinimo procedūrą;
(b)
the provider has drawn up the technical documentation in accordance with Article 11 and Annex IV;
b)
tiekėjas būtų pagal 11 straipsnį ir IV priedą parengęs techninius dokumentus;
(c)
the system bears the required CE marking and is accompanied by the EU declaration of conformity referred to in Article 47 and instructions for use;
c)
sistema būtų paženklinta reikiamu CE ženklu ir kartu su ja būtų pateikiamos 47 straipsnyje nurodyta ES atitikties deklaracija ir naudojimo instrukcija;
(d)
the provider has appointed an authorised representative in accordance with Article 22(1).
d)
tiekėjas būtų paskyręs įgaliotąjį atstovą pagal 22 straipsnio 1 dalį.
2. Where an importer has sufficient reason to consider that a high-risk AI system is not in conformity with this Regulation, or is falsified, or accompanied by falsified documentation, it shall not place the system on the market until it has been brought into conformity. Where the high-risk AI system presents a risk within the meaning of Article 79(1), the importer shall inform the provider of the system, the authorised representative and the market surveillance authorities to that effect.
2. Jei importuotojas turi pakankamą priežastį manyti, kad didelės rizikos DI sistema neatitinka šio reglamento reikalavimų, yra suklastota arba su ja pateikiami suklastoti dokumentai, jis nepateikia tos sistemos rinkai tol, kol neužtikrinama jos atitiktis. Jei didelės rizikos sistema kelia riziką, kaip tai suprantama 79 straipsnio 1 dalyje, importuotojas apie tai informuoja DI sistemos tiekėją, įgaliotuosius atstovus ir rinkos priežiūros institucijas.
3. Importers shall indicate their name, registered trade name or registered trade mark, and the address at which they can be contacted on the high-risk AI system and on its packaging or its accompanying documentation, where applicable.
3. Importuotojai ant didelės rizikos DI sistemos ir, kai taikytina, ant jos pakuotės arba prie jos pridedamuose dokumentuose nurodo savo pavadinimą, registruotą prekybinį pavadinimą arba registruotą prekių ženklą ir adresą, kuriuo su jais galima susisiekti.
4. Importers shall ensure that, while a high-risk AI system is under their responsibility, storage or transport conditions, where applicable, do not jeopardise its compliance with the requirements set out in Section 2.
4. Kol atsakomybė už didelės rizikos DI sistemą tenka importuotojams, jie užtikrina, kad laikymo ar transportavimo sąlygos, kai taikytina, nepakenktų jos atitikčiai 2 skirsnyje nustatytiems reikalavimams.
5. Importers shall keep, for a period of 10 years after the high-risk AI system has been placed on the market or put into service, a copy of the certificate issued by the notified body, where applicable, of the instructions for use, and of the EU declaration of conformity referred to in Article 47.
5. Importuotojai 10 metų po didelės rizikos DI sistemos pateikimo rinkai arba pradėjimo naudoti dienos saugo notifikuotosios įstaigos išduoto sertifikato, kai taikytina, naudojimo instrukcijos ir 47 straipsnyje nurodyta ES atitikties deklaracijos kopiją.
6. Importers shall provide the relevant competent authorities, upon a reasoned request, with all the necessary information and documentation, including that referred to in paragraph 5, to demonstrate the conformity of a high-risk AI system with the requirements set out in Section 2 in a language which can be easily understood by them. For this purpose, they shall also ensure that the technical documentation can be made available to those authorities.
6. Gavę pagrįstą prašymą importuotojai atitinkamoms kompetentingoms institucijoms joms lengvai suprantama kalba pateikia visą informaciją ir dokumentus, įskaitant nurodytuosius 5 dalyje, būtinus siekiant įrodyti, kad didelės rizikos DI sistema atitinka 2 skirsnyje nustatytus reikalavimus. Šiuo tikslu jie taip pat užtikrina, kad tos institucijos galėtų susipažinti su techniniais dokumentais.
7. Importers shall cooperate with the relevant competent authorities in any action those authorities take in relation to a high-risk AI system placed on the market by the importers, in particular to reduce and mitigate the risks posed by it.
7. Importuotojai bendradarbiauja su atitinkamomis kompetentingomis institucijomis joms imantis bet kurių veiksmų dėl importuotojų rinkai pateiktos didelės rizikos DI sistemos, visų pirma siekiant sumažinti arba sušvelninti jos keliamą riziką.
Article 24
24 straipsnis
Obligations of distributors
Platintojų pareigos
1. Before making a high-risk AI system available on the market, distributors shall verify that it bears the required CE marking, that it is accompanied by a copy of the EU declaration of conformity referred to in Article 47 and instructions for use, and that the provider and the importer of that system, as applicable, have complied with their respective obligations as laid down in Article 16, points (b) and (c) and Article 23(3).
1. Prieš tiekdami didelės rizikos DI sistemą rinkai, platintojai patikrina, ar ji pažymėta reikiamu CE ženklu, ar kartu su ja pateikiama 47 straipsnyje nurodyta ES atitikties deklaracijos kopija ir naudojimo instrukcija ir ar tos sistemos tiekėjas ir importuotojas, jei taikytina, įvykdė savo atitinkamas 16 straipsnio b ir c punktuose ir 23 straipsnio 3 dalyje nustatytas pareigas.
2. Where a distributor considers or has reason to consider, on the basis of the information in its possession, that a high-risk AI system is not in conformity with the requirements set out in Section 2, it shall not make the high-risk AI system available on the market until the system has been brought into conformity with those requirements. Furthermore, where the high-risk AI system presents a risk within the meaning of Article 79(1), the distributor shall inform the provider or the importer of the system, as applicable, to that effect.
2. Jei platintojas, remdamasis turima informacija, mano arba turi pagrindo manyti, kad didelės rizikos DI sistema neatitinka 2 skirsnyje nustatytų reikalavimų, jis netiekia tos sistemos rinkai tol, kol neužtikrinama jos atitiktis tiems reikalavimams. Be to, jei didelės rizikos DI sistema kelia riziką, kaip tai suprantama 79 straipsnio 1 dalyje, platintojas apie tai informuoja atitinkamai sistemos tiekėją arba importuotoją.
3. Distributors shall ensure that, while a high-risk AI system is under their responsibility, storage or transport conditions, where applicable, do not jeopardise the compliance of the system with the requirements set out in Section 2.
3. Kol atsakomybė už didelės rizikos DI sistemą tenka platintojams, jie užtikrina, kad laikymo ar transportavimo sąlygos, jei taikytina, nepakenktų tos sistemos atitikčiai 2 skirsnyje nustatytiems reikalavimams.
4. A distributor that considers or has reason to consider, on the basis of the information in its possession, a high-risk AI system which it has made available on the market not to be in conformity with the requirements set out in Section 2, shall take the corrective actions necessary to bring that system into conformity with those requirements, to withdraw it or recall it, or shall ensure that the provider, the importer or any relevant operator, as appropriate, takes those corrective actions. Where the high-risk AI system presents a risk within the meaning of Article 79(1), the distributor shall immediately inform the provider or importer of the system and the authorities competent for the high-risk AI system concerned, giving details, in particular, of the non-compliance and of any corrective actions taken.
4. Platintojas, kuris, remdamasis turima informacija, mano arba turi pagrindo manyti, kad rinkai jo tiekiama didelės rizikos DI sistema neatitinka 2 skirsnyje nustatytų reikalavimų, imasi taisomųjų veiksmų, reikalingų siekiant užtikrinti tos sistemos atitiktį tiems reikalavimams, ją pašalinti iš rinkos arba atšaukti, arba užtikrina, kad tų taisomųjų veiksmų imtųsi atitinkamai tiekėjas, importuotojas arba atitinkamas veiklos vykdytojas. Jei didelės rizikos DI sistema kelia riziką, kaip tai suprantama 79 straipsnio 1 dalyje, platintojas nedelsdamas apie tai praneša sistemos tiekėjui arba importuotojui ir už atitinkamas didelės rizikos DI sistemas kompetentingoms institucijoms ir pateikia išsamią informaciją, visų pirma apie neatitiktį ir taisomuosius veiksmus, kurių imtasi.
5. Upon a reasoned request from a relevant competent authority, distributors of a high-risk AI system shall provide that authority with all the information and documentation regarding their actions pursuant to paragraphs 1 to 4 necessary to demonstrate the conformity of that system with the requirements set out in Section 2.
5. Gavę pagrįstą atitinkamos kompetentingos institucijos prašymą, didelės rizikos DI sistemos platintojai jai pateikia visą informaciją ir dokumentus, susijusius su savo veiksmais pagal 1–4 dalis, kurie būtini siekiant įrodyti, kad ta sistema atitinka 2 skirsnyje nustatytus reikalavimus.
6. Distributors shall cooperate with the relevant competent authorities in any action those authorities take in relation to a high-risk AI system made available on the market by the distributors, in particular to reduce or mitigate the risk posed by it.
6. Platintojai bendradarbiauja su atitinkamomis kompetentingomis institucijomis joms imantis bet kurių veiksmų dėl rinkai platintojų pateiktos didelės rizikos DI sistemos, visų pirma siekiant sumažinti arba sušvelninti jos keliamą riziką.
Article 25
25 straipsnis
Responsibilities along the AI value chain
DI vertės grandinės dalyvių atsakomybė
1. Any distributor, importer, deployer or other third-party shall be considered to be a provider of a high-risk AI system for the purposes of this Regulation and shall be subject to the obligations of the provider under Article 16, in any of the following circumstances:
1. Šio reglamento tikslais platintojas, importuotojas, diegėjas ar kita trečioji šalis laikomi didelės rizikos DI sistemos tiekėjais ir turi vykdyti 16 straipsnyje nustatytas tiekėjo pareigas bet kuriomis iš šių aplinkybių:
(a)
they put their name or trademark on a high-risk AI system already placed on the market or put into service, without prejudice to contractual arrangements stipulating that the obligations are otherwise allocated;
a)
jei jie nurodo savo pavadinimą ar prekių ženklą ant rinkai jau pateiktos ar pradėtos naudoti didelės rizikos DI sistemos, nedarant poveikio sutartiniams susitarimams, kuriais nustatyta, kad pareigos paskirstomos kitaip;
(b)
they make a substantial modification to a high-risk AI system that has already been placed on the market or has already been put into service in such a way that it remains a high-risk AI system pursuant to Article 6;
b)
jei jie atlieka esminį didelės rizikos DI sistemos, kuri jau buvo pateikta rinkai arba jau buvo pradėta naudoti, pakeitimą taip, kad ji išlieka didelės rizikos DI sistema pagal 6 straipsnį;
(c)
they modify the intended purpose of an AI system, including a general-purpose AI system, which has not been classified as high-risk and has already been placed on the market or put into service in such a way that the AI system concerned becomes a high-risk AI system in accordance with Article 6.
c)
jei jie pakeičia DI sistemos, įskaitant bendrosios paskirties DI sistemą, kuri nebuvo priskirta didelės rizikos DI sistemoms ir jau buvo pateikta rinkai arba pradėta naudoti, numatytąją paskirtį taip, kad atitinkama DI sistema tampa didelės rizikos DI sistema pagal 6 straipsnį.
2. Where the circumstances referred to in paragraph 1 occur, the provider that initially placed the AI system on the market or put it into service shall no longer be considered to be a provider of that specific AI system for the purposes of this Regulation. That initial provider shall closely cooperate with new providers and shall make available the necessary information and provide the reasonably expected technical access and other assistance that are required for the fulfilment of the obligations set out in this Regulation, in particular regarding the compliance with the conformity assessment of high-risk AI systems. This paragraph shall not apply in cases where the initial provider has clearly specified that its AI system is not to be changed into a high-risk AI system and therefore does not fall under the obligation to hand over the documentation.
2. Atsiradus bet kuriai iš 1 dalyje nurodytų aplinkybių, DI sistemą iš pradžių rinkai pateikęs arba pradėjęs naudoti tiekėjas nustojamas laikyti tos konkrečios DI sistemos tiekėju šio reglamento taikymo tikslais. Tas pirminis tiekėjas glaudžiai bendradarbiauja su naujais tiekėjais ir pateikia būtiną informaciją bei suteikia pagrįstai tikėtiną techninę prieigą ir kitą pagalbą, kurių reikia šiame reglamente nustatytoms pareigoms vykdyti, visų pirma kiek tai susiję su didelės rizikos DI sistemų atitikties vertinimo reikalavimų laikymusi. Ši dalis netaikoma tais atvejais, kai pirminis tiekėjas yra aiškiai nurodęs, kad jo DI sistema negali būti pakeista į didelės rizikos DI sistemą ir kad dėl šios priežasties jos atžvilgiu netaikoma pareiga perduoti dokumentus.
3. In the case of high-risk AI systems that are safety components of products covered by the Union harmonisation legislation listed in Section A of Annex I, the product manufacturer shall be considered to be the provider of the high-risk AI system, and shall be subject to the obligations under Article 16 under either of the following circumstances:
3. Didelės rizikos DI sistemų, kurios yra gaminių, kuriems taikomi I priedo A skirsnyje išvardyti Sąjungos derinamieji teisės aktai, saugos komponentai, atveju didelės rizikos DI sistemos tiekėju laikomas gaminio gamintojas ir jam taikomos 16 straipsnyje numatytos pareigos, jei yra kuri nors iš šių aplinkybių:
(a)
the high-risk AI system is placed on the market together with the product under the name or trademark of the product manufacturer;
a)
didelės rizikos DI sistema pateikiama rinkai kartu su gaminiu, naudojant gaminio gamintojo pavadinimą ar prekių ženklą;
(b)
the high-risk AI system is put into service under the name or trademark of the product manufacturer after the product has been placed on the market.
b)
didelės rizikos DI sistema pradedama naudoti su gaminio gamintojo pavadinimu arba prekių ženklu po to, kai gaminys pateikiamas rinkai.
4. The provider of a high-risk AI system and the third party that supplies an AI system, tools, services, components, or processes that are used or integrated in a high-risk AI system shall, by written agreement, specify the necessary information, capabilities, technical access and other assistance based on the generally acknowledged state of the art, in order to enable the provider of the high-risk AI system to fully comply with the obligations set out in this Regulation. This paragraph shall not apply to third parties making accessible to the public tools, services, processes, or components, other than general-purpose AI models, under a free and open-source licence.
4. Didelės rizikos DI sistemos tiekėjas ir trečioji šalis, tiekianti DI sistemą, priemones, paslaugas, komponentus ar procesus, kurie naudojami didelės rizikos DI sistemoje arba yra į ją integruoti, raštu sudarytoje sutartyje išsamiai apibūdina būtiną informaciją, pajėgumus, techninę prieigą ir kitą pagalbą, grindžiamus visuotinai pripažintais pažangiausiais metodais, kad didelės rizikos DI sistemos tiekėjas galėtų visapusiškai laikytis šiame reglamente nustatytų pareigų. Ši dalis netaikoma trečiosioms šalims, pagal nemokamą ir atvirojo kodo licenciją teikiančioms viešai prieinamas priemones, paslaugas, procesus ar komponentus, išskyrus bendrosios paskirties DI modelius.
The AI Office may develop and recommend voluntary model terms for contracts between providers of high-risk AI systems and third parties that supply tools, services, components or processes that are used for or integrated into high-risk AI systems. When developing those voluntary model terms, the AI Office shall take into account possible contractual requirements applicable in specific sectors or business cases. The voluntary model terms shall be published and be available free of charge in an easily usable electronic format.
DI tarnyba gali parengti ir rekomenduoti neprivalomas pavyzdines sutarčių tarp didelės rizikos DI sistemų tiekėjų ir trečiųjų šalių, tiekiančių priemones, paslaugas, komponentus ar procesus, kurie naudojami didelės rizikos DI sistemoms arba yra į jas integruoti, sąlygas. Rengdama tas neprivalomas pavyzdines sąlygas, DI tarnyba atsižvelgia į galimus sutartinius reikalavimus, taikomus konkretiems sektoriams ar verslo atvejams. Neprivalomos sąlygos paskelbiamos ir turi būti nemokamai prieinamos lengvai naudojamu elektroniniu formatu.
5. Paragraphs 2 and 3 are without prejudice to the need to observe and protect intellectual property rights, confidential business information and trade secrets in accordance with Union and national law.
5. 2 ir 3 dalimis nedaromas poveikis būtinybei laikytis intelektinės nuosavybės teisių, konfidencialios verslo informacijos ir komercinių paslapčių bei jas apsaugoti pagal Sąjungos ir nacionalinę teisę.
Article 26
26 straipsnis
Obligations of deployers of high-risk AI systems
Didelės rizikos DI sistemų diegėjų pareigos
1. Deployers of high-risk AI systems shall take appropriate technical and organisational measures to ensure they use such systems in accordance with the instructions for use accompanying the systems, pursuant to paragraphs 3 and 6.
1. Didelės rizikos DI sistemų diegėjai imasi tinkamų techninių ir organizacinių priemonių užtikrinti, kad jie tokias sistemas naudotų laikydamiesi kartu su jomis pateiktos naudojimo instrukcijos ir vadovaudamiesi 3–6 dalių nuostatomis.
2. Deployers shall assign human oversight to natural persons who have the necessary competence, training and authority, as well as the necessary support.
2. Įgyvendinti žmogaus atliekamą priežiūrą diegėjai paveda fiziniams asmenims, kurie turi reikiamą kompetenciją, kvalifikaciją ir įgaliojimus tai daryti ir kuriems teikiama būtina parama.
3. The obligations set out in paragraphs 1 and 2, are without prejudice to other deployer obligations under Union or national law and to the deployer’s freedom to organise its own resources and activities for the purpose of implementing the human oversight measures indicated by the provider.
3. 1 ir 2 dalyse nustatytos pareigos nedaro poveikio kitoms diegėjų pareigoms pagal Sąjungos ar nacionalinę teisę ir diegėjų laisvei savo nuožiūra organizuoti savo išteklius ir veiklą siekiant taikyti tiekėjo nurodytas žmogaus vykdomos priežiūros priemones.
4. Without prejudice to paragraphs 1 and 2, to the extent the deployer exercises control over the input data, that deployer shall ensure that input data is relevant and sufficiently representative in view of the intended purpose of the high-risk AI system.
4. Nedarant poveikio 1 ir 2 dalims, tiek, kiek diegėjas kontroliuoja įvesties duomenis, jis užtikrina, kad tie įvesties duomenys būtų aktualūs ir pakankamai reprezentatyvūs atsižvelgiant į numatytąją didelės rizikos DI sistemos paskirtį.
5. Deployers shall monitor the operation of the high-risk AI system on the basis of the instructions for use and, where relevant, inform providers in accordance with Article 72. Where deployers have reason to consider that the use of the high-risk AI system in accordance with the instructions may result in that AI system presenting a risk within the meaning of Article 79(1), they shall, without undue delay, inform the provider or distributor and the relevant market surveillance authority, and shall suspend the use of that system. Where deployers have identified a serious incident, they shall also immediately inform first the provider, and then the importer or distributor and the relevant market surveillance authorities of that incident. If the deployer is not able to reach the provider, Article 73 shall apply mutatis mutandis. This obligation shall not cover sensitive operational data of deployers of AI systems which are law enforcement authorities.
5. Diegėjai stebi didelės rizikos DI sistemos veikimą, atsižvelgdami į jos naudojimo instrukciją ir, kai aktualu, informuoja tiekėjus pagal 72 straipsnį. Jei diegėjai turi pagrindo manyti, kad pagal naudojimo instrukciją naudojama DI didelės rizikos sistema gali kelti DI sistemos riziką, kaip tai suprantama 79 straipsnio 1 dalyje, jie nepagrįstai nedelsdami apie tai informuoja tiekėją arba platintoją ir atitinkamą rinkos priežiūros instituciją bei sustabdo tos sistemos naudojimą. Jei diegėjai nustato rimtą incidentą, jie taip pat nedelsdami apie tą incidentą pirma informuoja tiekėją, o tada importuotoją arba platintoją ir atitinkamas rinkos priežiūros institucijas. Jei diegėjas negali susisiekti su tiekėju, mutatis mutandis taikomas 73 straipsnis. Ši pareiga netaikoma DI sistemos diegėjų, kurie yra teisėsaugos institucijos, neskelbtiniems operatyviniams duomenims.
For deployers that are financial institutions subject to requirements regarding their internal governance, arrangements or processes under Union financial services law, the monitoring obligation set out in the first subparagraph shall be deemed to be fulfilled by complying with the rules on internal governance arrangements, processes and mechanisms pursuant to the relevant financial service law.
Jei diegėjai yra finansų įstaigos, kurioms taikomi su vidaus valdymu, tvarka ar procesais susiję reikalavimai pagal Sąjungos finansinių paslaugų teisės aktus, pirmoje pastraipoje nustatyta stebėsenos pareiga laikoma įvykdyta, jei laikomasi atitinkamuose finansinių paslaugų teisės aktuose nustatytų taisyklių dėl vidaus valdymo priemonių, procesų ir mechanizmų.
6. Deployers of high-risk AI systems shall keep the logs automatically generated by that high-risk AI system to the extent such logs are under their control, for a period appropriate to the intended purpose of the high-risk AI system, of at least six months, unless provided otherwise in applicable Union or national law, in particular in Union law on the protection of personal data.
6. Didelės rizikos DI sistemos diegėjai saugo tos didelės rizikos DI sistemos automatiškai generuojamus žurnalus, jei tokie žurnalai yra jo žinioje, laikotarpį, kuris yra tinkamas atsižvelgiant į numatytąją didelės rizikos DI sistemos paskirtį, ir ne trumpiau kaip šešis mėnesius, nebent taikytinuose Sąjungos ar nacionalinės teisės aktuose, visų pirma Sąjungos teisės aktuose dėl asmens duomenų apsaugos, numatyta kitaip.
Deployers that are financial institutions subject to requirements regarding their internal governance, arrangements or processes under Union financial services law shall maintain the logs as part of the documentation kept pursuant to the relevant Union financial service law.
Diegėjai, kurie yra finansų įstaigos, kurioms pagal Sąjungos finansinių paslaugų teisės aktus taikomi su vidaus valdymu, tvarka ar procesais susiję reikalavimai, žurnalus saugo kartu su dokumentais, saugomais pagal atitinkamus Sąjungos finansinių paslaugų teisės aktus.
7. Before putting into service or using a high-risk AI system at the workplace, deployers who are employers shall inform workers’ representatives and the affected workers that they will be subject to the use of the high-risk AI system. This information shall be provided, where applicable, in accordance with the rules and procedures laid down in Union and national law and practice on information of workers and their representatives.
7. Prieš pradėdami naudoti arba prieš naudodami didelės rizikos DI sistemą darbo vietoje, diegėjai darbdaviai informuoja darbuotojų atstovus ir darbuotojus, kurie bus paveikti, kad jų atžvilgiu bus naudojama didelės rizikos DI sistema. Ši informacija teikiama, kai taikytina, laikantis taisyklių ir procedūrų pagal Sąjungos ir nacionalinės teisės aktus ir praktiką dėl darbuotojų ir jų atstovų informavimo.
8. Deployers of high-risk AI systems that are public authorities, or Union institutions, bodies, offices or agencies shall comply with the registration obligations referred to in Article 49. When such deployers find that the high-risk AI system that they envisage using has not been registered in the EU database referred to in Article 71, they shall not use that system and shall inform the provider or the distributor.
8. Didelės rizikos DI sistemų diegėjai, kurie yra viešojo sektoriaus institucijos arba Sąjungos institucijos, įstaigos, organai ar agentūros, vykdo 49 straipsnyje nurodytas registravimo pareigas. Nustatę, kad didelės rizikos DI sistema, kurią jie ketina naudoti, nėra įregistruota 71 straipsnyje nurodytoje ES duomenų bazėje, tokie diegėjai tos sistemos nenaudoja ir apie tai informuoja tiekėją arba platintoją.
9. Where applicable, deployers of high-risk AI systems shall use the information provided under Article 13 of this Regulation to comply with their obligation to carry out a data protection impact assessment under Article 35 of Regulation (EU) 2016/679 or Article 27 of Directive (EU) 2016/680.
9. Kad įvykdytų Reglamento (ES) 2016/679 35 straipsnyje arba Direktyvos (ES) 2016/680 27 straipsnyje nustatytą pareigą atlikti poveikio duomenų apsaugai vertinimą, didelės rizikos DI sistemų diegėjai, kai taikytina, naudojasi pagal šio reglamento 13 straipsnį pateikta informacija.
10. Without prejudice to Directive (EU) 2016/680, in the framework of an investigation for the targeted search of a person suspected or convicted of having committed a criminal offence, the deployer of a high-risk AI system for post-remote biometric identification shall request an authorisation, ex ante, or without undue delay and no later than 48 hours, by a judicial authority or an administrative authority whose decision is binding and subject to judicial review, for the use of that system, except when it is used for the initial identification of a potential suspect based on objective and verifiable facts directly linked to the offence. Each use shall be limited to what is strictly necessary for the investigation of a specific criminal offence.
10. Nedarant poveikio Direktyvai (ES) 2016/680, kai vykdomas tyrimas siekiant surasti konkretų asmenį, kuris įtariamas įvykdžius nusikalstamą veiką arba kuriam už tokią veiką yra paskelbtas apkaltinamasis nuosprendis, didelės rizikos DI sistemos, skirtos netikralaikiam nuotoliniam biometriniam tapatybės nustatymui, diegėjas ex ante arba nepagrįstai nedelsdamas ir ne vėliau kaip per 48 valandas paprašo teisminės institucijos arba administracinės institucijos, kurios sprendimai yra privalomi ir jiems taikoma teisminė peržiūra, leidimo naudoti tą sistemą, išskyrus atvejus, kai ji naudojama pradiniam galimo įtariamojo tapatybės nustatymui remiantis tiesiogiai su nusikalstama veika susijusiais objektyviais ir patikrinamais faktais. Kiekvienas naudojimas negali viršyti to, kas tikrai būtina konkrečiai nusikalstamai veikai ištirti.
If the authorisation requested pursuant to the first subparagraph is rejected, the use of the post-remote biometric identification system linked to that requested authorisation shall be stopped with immediate effect and the personal data linked to the use of the high-risk AI system for which the authorisation was requested shall be deleted.
Jei atsisakoma išduoti pagal pirmą pastraipą prašomą išduoti leidimą, su tuo prašomu leidimu susijęs netikralaikio nuotolinio biometrinio tapatybės nustatymo sistemos naudojimas nedelsiant nutraukiamas, o asmens duomenys, susiję su didelės rizikos DI sistemos naudojimu, kuriam prašyta suteikti leidimą, ištrinami.
In no case shall such high-risk AI system for post-remote biometric identification be used for law enforcement purposes in an untargeted way, without any link to a criminal offence, a criminal proceeding, a genuine and present or genuine and foreseeable threat of a criminal offence, or the search for a specific missing person. It shall be ensured that no decision that produces an adverse legal effect on a person may be taken by the law enforcement authorities based solely on the output of such post-remote biometric identification systems.
Tokia netikralaikiam nuotoliniam biometriniam tapatybės nustatymui skirta didelės rizikos DI sistema jokiu būdu teisėsaugos tikslais negali būti naudojama netikslingai, be jokios sąsajos su nusikalstama veika, baudžiamuoju procesu, tikra ir esama arba tikra ir numatoma nusikalstamos veikos grėsme, arba konkretaus dingusio asmens paieškai. Turi būti užtikrinama, kad remdamosi vien tokių netikralaikio nuotolinio biometrinio tapatybės nustatymo sistemų išvediniais teisėsaugos institucijos negalėtų priimti jokio sprendimo, kuris sukeltų asmeniui nepalankų teisinį poveikį.
This paragraph is without prejudice to Article 9 of Regulation (EU) 2016/679 and Article 10 of Directive (EU) 2016/680 for the processing of biometric data.
Šia pastraipa nedaromas poveikis Reglamento (ES) 2016/679 9 straipsniui ir Direktyvos (ES) 2016/680 10 straipsniui biometrinių duomenų tvarkymo atžvilgiu.
Regardless of the purpose or deployer, each use of such high-risk AI systems shall be documented in the relevant police file and shall be made available to the relevant market surveillance authority and the national data protection authority upon request, excluding the disclosure of sensitive operational data related to law enforcement. This subparagraph shall be without prejudice to the powers conferred by Directive (EU) 2016/680 on supervisory authorities.
Neatsižvelgiant į tikslą ar diegėją, kiekvienas tokios didelės rizikos DI sistemos panaudojimas yra užfiksuojamas atitinkamos policijos bylos dokumente ir su tokiu dokumentu leidžiama susipažinti atitinkamai rinkos priežiūros institucijai ir nacionalinei duomenų apsaugos institucijai, gavus pastarųjų prašymą, užtikrinant, kad nebūtų atskleidžiami su teisėsauga susiję neskelbtini operatyviniai duomenys. Šia pastraipa nedaromas poveikis įgaliojimams, kurie Direktyva (ES) 2016/680 yra suteikti priežiūros institucijoms.
Deployers shall submit annual reports to the relevant market surveillance and national data protection authorities on their use of post-remote biometric identification systems, excluding the disclosure of sensitive operational data related to law enforcement. The reports may be aggregated to cover more than one deployment.
Diegėjai atitinkamoms rinkos priežiūros institucijoms ir nacionalinėms duomenų apsaugos institucijoms teikia metines ataskaitas apie netikralaikio nuotolinio biometrinio tapatybės nustatymo sistemų naudojimą, bet neatskleidžia su teisėsauga susiję neskelbtini operatyviniai duomenys. Gali būti parengiama jungtinė ataskaita, apimanti daugiau nei vieną diegėjo sistemą.
Member States may introduce, in accordance with Union law, more restrictive laws on the use of post-remote biometric identification systems.
Valstybės narės, laikydamosi Sąjungos teisės, gali priimti griežtesnius teisės aktus dėl netikralaikio nuotolinio biometrinio tapatybės nustatymo sistemų naudojimo.
11. Without prejudice to Article 50 of this Regulation, deployers of high-risk AI systems referred to in Annex III that make decisions or assist in making decisions related to natural persons shall inform the natural persons that they are subject to the use of the high-risk AI system. For high-risk AI systems used for law enforcement purposes Article 13 of Directive (EU) 2016/680 shall apply.
11. Nedarant poveikio šio reglamento 50 straipsniui, III priede nurodytų didelės rizikos DI sistemų diegėjai, kurie priima su fiziniais asmenimis susijusius sprendimus arba padeda juos priimti, informuoja fizinius asmenis, kad jų atžvilgiu naudojama didelės rizikos DI sistema. Didelės rizikos DI sistemas naudojant teisėsaugos tikslais, taikomas Direktyvos (ES) 2016/680 13 straipsnis.
12. Deployers shall cooperate with the relevant competent authorities in any action those authorities take in relation to the high-risk AI system in order to implement this Regulation.
12. Diegėjai bendradarbiauja su atitinkamomis kompetentingomis institucijomis dėl visų veiksmų, kurių tos institucijos imasi didelės rizikos DI sistemos atžvilgiu, kad įgyvendintų šį reglamentą.
Article 27
27 straipsnis
Fundamental rights impact assessment for high-risk AI systems
Didelės rizikos DI sistemų poveikio pagrindinėms teisėms vertinimas
1. Prior to deploying a high-risk AI system referred to in Article 6(2), with the exception of high-risk AI systems intended to be used in the area listed in point 2 of Annex III, deployers that are bodies governed by public law, or are private entities providing public services, and deployers of high-risk AI systems referred to in points 5 (b) and (c) of Annex III, shall perform an assessment of the impact on fundamental rights that the use of such system may produce. For that purpose, deployers shall perform an assessment consisting of:
1. Prieš diegdami 6 straipsnio 2 dalyje nurodytą didelės rizikos DI sistemą, išskyrus didelės rizikos DI sistemas, skirtas naudoti III priedo 2 punkte nurodytoje srityje, diegėjai, kurie yra viešosios teisės reglamentuojamos įstaigos arba yra viešąsias paslaugas teikiantys privatūs subjektai, ir didelės rizikos DI sistemų, nurodytų III priedo 5 punkto b ir c papunkčiuose, diegėjai atlieka poveikio pagrindinėms teisėms, kurį gali turėti tokios sistemos naudojimas, vertinimą. Tuo tikslu diegėjai atlieka vertinimą, kurį sudaro šie elementai:
(a)
a description of the deployer’s processes in which the high-risk AI system will be used in line with its intended purpose;
a)
diegėjo procesų, kuriuose didelės rizikos DI sistema bus naudojama pagal numatytąją paskirtį, aprašymas;
(b)
a description of the period of time within which, and the frequency with which, each high-risk AI system is intended to be used;
b)
aprašymas, kokį laikotarpį ir kaip dažnai kiekviena didelės rizikos DI sistema yra skirta naudoti;
(c)
the categories of natural persons and groups likely to be affected by its use in the specific context;
c)
fizinių asmenų kategorijos ir grupės, kurias gali paveikti jos naudojimas konkrečiame kontekste;
(d)
the specific risks of harm likely to have an impact on the categories of natural persons or groups of persons identified pursuant to point (c) of this paragraph, taking into account the information given by the provider pursuant to Article 13;
d)
konkreti rizika, kad bus padaryta žala, kuri gali turėti poveikį pagal šios dalies c punktą nustatytoms fizinių asmenų kategorijoms ar asmenų grupėms, atsižvelgiant į tiekėjo pagal 13 straipsnį pateiktą informaciją;
(e)
a description of the implementation of human oversight measures, according to the instructions for use;
e)
žmogaus vykdomos priežiūros priemonių, kaip nurodyta naudojimo instrukcijoje, įgyvendinimo aprašymas;
(f)
the measures to be taken in the case of the materialisation of those risks, including the arrangements for internal governance and complaint mechanisms.
f)
priemonės, kurių reikia imtis, jei tokia rizika pasireiškia, įskaitant vidaus valdymo priemones ir skundų nagrinėjimo mechanizmus.
2. The obligation laid down in paragraph 1 applies to the first use of the high-risk AI system. The deployer may, in similar cases, rely on previously conducted fundamental rights impact assessments or existing impact assessments carried out by provider. If, during the use of the high-risk AI system, the deployer considers that any of the elements listed in paragraph 1 has changed or is no longer up to date, the deployer shall take the necessary steps to update the information.
2. 1 dalyje nustatyta pareiga taikoma naudojant didelės rizikos DI sistemą pirmą kartą. Panašiais atvejais diegėjas gali remtis anksčiau atliktais poveikio pagrindinėms teisėms vertinimais arba esamais tiekėjo atliktais poveikio vertinimais. Jei diegėjui naudojant didelės rizikos DI sistemą jis mano, kad kuris nors iš 1 dalyje išvardytų elementų pasikeitė arba nebeatspindi padėties, diegėjas imasi būtinų veiksmų informacijai atnaujinti.
3. Once the assessment referred to in paragraph 1 of this Article has been performed, the deployer shall notify the market surveillance authority of its results, submitting the filled-out template referred to in paragraph 5 of this Article as part of the notification. In the case referred to in Article 46(1), deployers may be exempt from that obligation to notify.
3. Atlikęs šio straipsnio 1 dalyje nurodytą vertinimą, diegėjas praneša rinkos priežiūros institucijai jo rezultatus, kartu su pranešimu pateikdamas užpildytą šio straipsnio 5 dalyje nurodytą šabloną. 46 straipsnio 1 dalyje nurodytu atveju diegėjai gali būti atleisti nuo tos pareigos pranešti.
4. If any of the obligations laid down in this Article is already met through the data protection impact assessment conducted pursuant to Article 35 of Regulation (EU) 2016/679 or Article 27 of Directive (EU) 2016/680, the fundamental rights impact assessment referred to in paragraph 1 of this Article shall complement that data protection impact assessment.
4. Jei atlikus poveikio duomenų apsaugai vertinimą pagal Reglamento (ES) 2016/679 35 straipsnį arba Direktyvos (ES) 2016/680 27 straipsnį jau laikomasi kurios nors iš šiame straipsnyje nustatytų pareigų, tas poveikio duomenų apsaugai vertinimas papildomas šio straipsnio 1 dalyje nurodytu poveikio pagrindinėms teisėms vertinimu.
5. The AI Office shall develop a template for a questionnaire, including through an automated tool, to facilitate deployers in complying with their obligations under this Article in a simplified manner.
5. DI tarnyba parengia klausimyno šabloną, be kita ko, naudodama automatizuotą priemonę, kad diegėjams būtų sudarytos sąlygos paprasčiau vykdyti savo pareigas pagal šį straipsnį.
SECTION 4
4 SKIRSNIS
Notifying authorities and notified bodies
Notifikuojančiosios institucijos ir notifikuotosios įstaigos
Article 28
28 straipsnis
Notifying authorities
Notifikuojančiosios institucijos
1. Each Member State shall designate or establish at least one notifying authority responsible for setting up and carrying out the necessary procedures for the assessment, designation and notification of conformity assessment bodies and for their monitoring. Those procedures shall be developed in cooperation between the notifying authorities of all Member States.
1. Kiekviena valstybė narė paskiria arba įsteigia bent vieną notifikuojančiąją instituciją, atsakingą už reikiamų atitikties vertinimo įstaigų vertinimo, paskyrimo, notifikavimo ir stebėjimo procedūrų nustatymą ir vykdymą. Tos procedūros rengiamos bendradarbiaujant visų valstybių narių notifikuojančiosioms institucijoms.
2. Member States may decide that the assessment and monitoring referred to in paragraph 1 is to be carried out by a national accreditation body within the meaning of, and in accordance with, Regulation (EC) No 765/2008.
2. Valstybės narės gali nuspręsti, kad 1 dalyje nurodytą vertinimą ir stebėseną turi vykdyti nacionalinė akreditacijos įstaiga, kaip tai suprantama Reglamente (EB) Nr. 765/2008, laikantis to reglamento nuostatų.
3. Notifying authorities shall be established, organised and operated in such a way that no conflict of interest arises with conformity assessment bodies, and that the objectivity and impartiality of their activities are safeguarded.
3. Notifikuojančiosios institucijos įsteigiamos, jų veikla organizuojama ir vykdoma taip, kad nekiltų jokių interesų konfliktų su atitikties vertinimo įstaigomis ir būtų užtikrintas jų veiklos objektyvumas ir nešališkumas.
4. Notifying authorities shall be organised in such a way that decisions relating to the notification of conformity assessment bodies are taken by competent persons different from those who carried out the assessment of those bodies.
4. Notifikuojančiųjų institucijų veikla organizuojama taip, kad su atitikties vertinimo įstaigų notifikavimu susijusius sprendimus priimtų kompetentingi asmenys, nedalyvavę atliekant tų įstaigų vertinimą.
5. Notifying authorities shall offer or provide neither any activities that conformity assessment bodies perform, nor any consultancy services on a commercial or competitive basis.
5. Notifikuojančiosios institucijos nesisiūlo vykdyti ir nevykdo jokios veiklos, kurią vykdo atitikties vertinimo įstaigos, taip pat neteikia konsultavimo paslaugų komerciniu arba konkurenciniu pagrindu.
6. Notifying authorities shall safeguard the confidentiality of the information that they obtain, in accordance with Article 78.
6. Notifikuojančiosios institucijos pagal 78 straipsnį užtikrina informacijos, kurią jos gauna, konfidencialumą.
7. Notifying authorities shall have an adequate number of competent personnel at their disposal for the proper performance of their tasks. Competent personnel shall have the necessary expertise, where applicable, for their function, in fields such as information technologies, AI and law, including the supervision of fundamental rights.
7. Notifikuojančiosiose institucijose turi būti pakankamai kompetentingų darbuotojų, galinčių tinkamai atlikti savo užduotis. Kompetentingi darbuotojai turi turėti reikiamų ekspertinių žinių, kai taikytina, kad galėtų vykdyti savo funkcijas tokiose srityse kaip informacinės technologijos, DI ir teisė, įskaitant pagrindinių teisių priežiūrą.
Article 29
29 straipsnis
Application of a conformity assessment body for notification
Atitikties vertinimo įstaigos notifikavimo paraiška
1. Conformity assessment bodies shall submit an application for notification to the notifying authority of the Member State in which they are established.
1. Atitikties vertinimo įstaigos notifikavimo paraišką pateikia valstybės narės, kurioje jos yra įsisteigusios, notifikuojančiajai institucijai.
2. The application for notification shall be accompanied by a description of the conformity assessment activities, the conformity assessment module or modules and the types of AI systems for which the conformity assessment body claims to be competent, as well as by an accreditation certificate, where one exists, issued by a national accreditation body attesting that the conformity assessment body fulfils the requirements laid down in Article 31.
2. Prie notifikavimo paraiškos pridedamas atitikties vertinimo veiklos, atitikties vertinimo modulio ar modulių ir DI sistemų tipų, kuriuos vertinti ta įstaiga teigia turinti kompetencijos, aprašas, taip pat nacionalinės akreditacijos įstaigos išduotas akreditacijos pažymėjimas (jei toks yra), kuriuo patvirtinama, kad atitikties vertinimo įstaiga atitinka 31 straipsnyje nustatytus reikalavimus.
Any valid document related to existing designations of the applicant notified body under any other Union harmonisation legislation shall be added.
Jei paraišką teikianti įstaiga jau yra paskirta notifikuotąja įstaiga pagal kitus Sąjungos derinamuosius teisės aktus, kartu pateikiami galiojantys su tuo susiję dokumentai.
3. Where the conformity assessment body concerned cannot provide an accreditation certificate, it shall provide the notifying authority with all the documentary evidence necessary for the verification, recognition and regular monitoring of its compliance with the requirements laid down in Article 31.
3. Jei atitikties vertinimo įstaiga negali pateikti akreditacijos pažymėjimo, ji notifikuojančiajai institucijai pateikia visus patvirtinamuosius dokumentus, būtinus jos atitikčiai 31 straipsnyje nustatytiems reikalavimams patikrinti, patvirtinti ir reguliariai stebėti.
4. For notified bodies which are designated under any other Union harmonisation legislation, all documents and certificates linked to those designations may be used to support their designation procedure under this Regulation, as appropriate. The notified body shall update the documentation referred to in paragraphs 2 and 3 of this Article whenever relevant changes occur, in order to enable the authority responsible for notified bodies to monitor and verify continuous compliance with all the requirements laid down in Article 31.
4. Jei įstaiga yra paskirta notifikuotąja įstaiga pagal kitus Sąjungos derinamuosius teisės aktus, visi su tais paskyrimais susiję dokumentai ir sertifikatai prireikus gali būti naudojami pagal šį reglamentą atliekamai jos paskyrimo procedūrai pagrįsti. Notifikuotoji įstaiga atnaujina šio straipsnio 2 ir 3 dalyse nurodytus dokumentus kaskart, kai įvyksta svarbių pasikeitimų, kad už notifikuotąsias įstaigas atsakinga institucija galėtų stebėti ir tikrinti, ar toliau laikomasi visų 31 straipsnyje nustatytų reikalavimų.
Article 30
30 straipsnis
Notification procedure
Notifikavimo procedūra
1. Notifying authorities may notify only conformity assessment bodies which have satisfied the requirements laid down in Article 31.
1. Notifikuojančiosios institucijos gali notifikuoti tik tas atitikties vertinimo įstaigas, kurios atitinka 31 straipsnyje nustatytus reikalavimus.
2. Notifying authorities shall notify the Commission and the other Member States, using the electronic notification tool developed and managed by the Commission, of each conformity assessment body referred to in paragraph 1.
2. Apie kiekvieną 1 dalyje nurodytą atitikties vertinimo įstaigą notifikuojančiosios institucijos praneša Komisijai ir kitoms valstybėms narėms, naudodamosi Komisijos sukurta ir administruojama elektronine notifikavimo priemone.
3. The notification referred to in paragraph 2 of this Article shall include full details of the conformity assessment activities, the conformity assessment module or modules, the types of AI systems concerned, and the relevant attestation of competence. Where a notification is not based on an accreditation certificate as referred to in Article 29(2), the notifying authority shall provide the Commission and the other Member States with documentary evidence which attests to the competence of the conformity assessment body and to the arrangements in place to ensure that that body will be monitored regularly and will continue to satisfy the requirements laid down in Article 31.
3. Šio straipsnio 2 dalyje nurodytame notifikavimo pranešime pateikiama išsami informacija apie atitikties vertinimo veiklą, atitikties vertinimo modulį ar modulius, atitinkamų DI sistemų tipus ir atitinkamą kompetencijos patvirtinimą. Jei notifikavimas nėra pagrįstas akreditacijos pažymėjimu, kaip nurodyta 29 straipsnio 2 dalyje, notifikuojančioji institucija Komisijai ir kitoms valstybėms narėms pateikia dokumentus, kuriais patvirtina atitikties vertinimo įstaigos kompetenciją ir tai, kad yra tvarka, kuria užtikrinama, kad ta įstaiga bus reguliariai stebima ir toliau atitiks 31 straipsnyje nustatytus reikalavimus.
4. The conformity assessment body concerned may perform the activities of a notified body only where no objections are raised by the Commission or the other Member States within two weeks of a notification by a notifying authority where it includes an accreditation certificate referred to in Article 29(2), or within two months of a notification by the notifying authority where it includes documentary evidence referred to in Article 29(3).
4. Atitinkama atitikties vertinimo įstaiga notifikuotosios įstaigos veiklą gali vykdyti tik jeigu Komisija ar kitos valstybės narės nepareiškia prieštaravimų per dvi savaites nuo notifikuojančiosios įstaigos pateikto notifikavimo pranešimo gavimo, kai prie jo yra pridėtas 29 straipsnio 2 dalyje nurodytas akreditacijos pažymėjimas, arba per du mėnesius nuo notifikuojančiosios įstaigos pateikto notifikavimo pranešimo gavimo, kai prie jo yra pridėti 29 straipsnio 3 dalyje nurodyti patvirtinamieji dokumentai.
5. Where objections are raised, the Commission shall, without delay, enter into consultations with the relevant Member States and the conformity assessment body. In view thereof, the Commission shall decide whether the authorisation is justified. The Commission shall address its decision to the Member State concerned and to the relevant conformity assessment body.
5. Jei pareiškiama prieštaravimų, Komisija nedelsdama pradeda konsultacijas su atitinkamomis valstybėmis narėmis ir atitikties vertinimo įstaiga. Atsižvelgdama į tai Komisija nusprendžia, ar leidimas yra pagrįstas. Savo sprendimą Komisija skiria atitinkamai valstybei narei ir atitinkamai atitikties vertinimo įstaigai.
Article 31
31 straipsnis
Requirements relating to notified bodies
Notifikuotosioms įstaigoms taikomi reikalavimai
1. A notified body shall be established under the national law of a Member State and shall have legal personality.
1. Notifikuotoji įstaiga turi būti įsteigta pagal valstybės narės nacionalinę teisę ir turi turėti juridinio asmens statusą.
2. Notified bodies shall satisfy the organisational, quality management, resources and process requirements that are necessary to fulfil their tasks, as well as suitable cybersecurity requirements.
2. Notifikuotosios įstaigos turi atitikti organizacinius, kokybės valdymo, išteklių ir procesų reikalavimus, būtinus siekiant užtikrinti, kad jos galėtų vykdyti savo užduotis, jos taip pat turi atitikti tinkamus kibernetinio saugumo reikalavimus.
3. The organisational structure, allocation of responsibilities, reporting lines and operation of notified bodies shall ensure confidence in their performance, and in the results of the conformity assessment activities that the notified bodies conduct.
3. Notifikuotųjų įstaigų organizacinė struktūra, atsakomybės paskirstymas, atskaitomybės ryšiai ir veikla turi užtikrinti pasitikėjimą jų veiklos veiksmingumu ir jų vykdomos atitikties vertinimo veiklos rezultatais.
4. Notified bodies shall be independent of the provider of a high-risk AI system in relation to which they perform conformity assessment activities. Notified bodies shall also be independent of any other operator having an economic interest in high-risk AI systems assessed, as well as of any competitors of the provider. This shall not preclude the use of assessed high-risk AI systems that are necessary for the operations of the conformity assessment body, or the use of such high-risk AI systems for personal purposes.
4. Notifikuotosios įstaigos turi būti nepriklausomos nuo tiekėjo, kurio didelės rizikos DI sistemos atitikties vertinimą jos atlieka. Notifikuotosios įstaigos turi būti nepriklausomos ir nuo kitų veiklos vykdytojų, turinčių su vertinamomis didelės rizikos DI sistemomis susijusių ekonominių interesų, taip pat nuo tiekėjo konkurentų. Šis draudimas netrukdo naudoti atitikties vertinimo įstaigos veiklai reikalingų įvertintų didelės rizikos DI sistemų arba naudoti tokių didelės rizikos DI sistemų asmeninėms reikmėms.
5. Neither a conformity assessment body, its top-level management nor the personnel responsible for carrying out its conformity assessment tasks shall be directly involved in the design, development, marketing or use of high-risk AI systems, nor shall they represent the parties engaged in those activities. They shall not engage in any activity that might conflict with their independence of judgement or integrity in relation to conformity assessment activities for which they are notified. This shall, in particular, apply to consultancy services.
5. Nei atitikties vertinimo įstaiga, nei jos vyresnioji vadovybė, nei už atitikties vertinimo užduočių atlikimą atsakingi darbuotojai tiesiogiai nedalyvauja projektuojant, kuriant, parduodant ar naudojant didelės rizikos DI sistemas ir jie neatstovauja toje veikloje dalyvaujančioms šalims. Notifikuotosios įstaigos nesiima jokios veiklos, kuri gali kliudyti joms nepriklausomai priimti sprendimus ar sąžiningai atlikti atitikties vertinimo užduotis, dėl kurių joms suteiktas notifikuotosios įstaigos statusas. Tai visų pirma taikoma konsultavimo paslaugoms.
6. Notified bodies shall be organised and operated so as to safeguard the independence, objectivity and impartiality of their activities. Notified bodies shall document and implement a structure and procedures to safeguard impartiality and to promote and apply the principles of impartiality throughout their organisation, personnel and assessment activities.
6. Notifikuotųjų įstaigų veikla organizuojama ir vykdoma taip, kad būtų užtikrintas jos nepriklausomumas, objektyvumas ir nešališkumas. Notifikuotosios įstaigos dokumentuoja ir įdiegia struktūrą bei procedūras, kuriomis užtikrinamas nešališkumas ir nešališkumo principų propagavimas ir taikymas visoje jų organizacinėje struktūroje, tarp jų darbuotojų ir jų vertinimo veikloje.
7. Notified bodies shall have documented procedures in place ensuring that their personnel, committees, subsidiaries, subcontractors and any associated body or personnel of external bodies maintain, in accordance with Article 78, the confidentiality of the information which comes into their possession during the performance of conformity assessment activities, except when its disclosure is required by law. The staff of notified bodies shall be bound to observe professional secrecy with regard to all information obtained in carrying out their tasks under this Regulation, except in relation to the notifying authorities of the Member State in which their activities are carried out.
7. Notifikuotosios įstaigos taiko dokumentuotas procedūras, kuriomis užtikrinama, kad jų darbuotojai, komitetai, pavaldžiosios įstaigos, subrangovai, visos susijusios įstaigos ar išorės įstaigų darbuotojai pagal 78 straipsnį išlaikytų informacijos, kurią jie gauna vykdydami atitikties vertinimo veiklą, konfidencialumą, išskyrus atvejus, kai ją atskleisti reikalaujama pagal teisės aktus. Notifikuotųjų įstaigų darbuotojai visą informaciją, kurią jie gauna atlikdami savo užduotis pagal šį reglamentą, privalo saugoti kaip profesinę paslaptį – tai netaikoma tik valstybės narės, kurioje tos įstaigos vykdo savo veiklą, notifikuojančiųjų institucijų atžvilgiu.
8. Notified bodies shall have procedures for the performance of activities which take due account of the size of a provider, the sector in which it operates, its structure, and the degree of complexity of the AI system concerned.
8. Notifikuotosios įstaigos savo veiklą vykdo taikydamos procedūras, kuriomis deramai atsižvelgiama į tiekėjo dydį, sektorių, kuriame jis veikia, jo struktūrą ir atitinkamos DI sistemos sudėtingumo laipsnį.
9. Notified bodies shall take out appropriate liability insurance for their conformity assessment activities, unless liability is assumed by the Member State in which they are established in accordance with national law or that Member State is itself directly responsible for the conformity assessment.
9. Notifikuotosios įstaigos turi turėti tinkamą su jų vykdoma atitikties vertinimo veikla susijusį civilinės atsakomybės draudimą, nebent šią atsakomybę pagal nacionalinę teisę prisiima valstybė narė, kurioje jos yra įsteigtos, arba kai ta valstybė narė pati tiesiogiai atsako už atitikties vertinimą.
10. Notified bodies shall be capable of carrying out all their tasks under this Regulation with the highest degree of professional integrity and the requisite competence in the specific field, whether those tasks are carried out by notified bodies themselves or on their behalf and under their responsibility.
10. Notifikuotosios įstaigos turi būti pajėgios atlikti visas savo užduotis pagal šį reglamentą, užtikrindamos aukščiausio laipsnio profesinį sąžiningumą ir reikiamą konkrečios srities kompetenciją, nesvarbu, ar tas užduotis vykdytų pačios notifikuotosios įstaigos, ar jos būtų vykdomos jų vardu ir jų atsakomybe.
11. Notified bodies shall have sufficient internal competences to be able effectively to evaluate the tasks conducted by external parties on their behalf. The notified body shall have permanent availability of sufficient administrative, technical, legal and scientific personnel who possess experience and knowledge relating to the relevant types of AI systems, data and data computing, and relating to the requirements set out in Section 2.
11. Notifikuotosios įstaigos turi turėti pakankamai vidinės kompetencijos, kad galėtų veiksmingai įvertinti jų vardu užduotis atliekančių išorės subjektų darbą. Notifikuotoji įstaiga visada turi turėti pakankamai administracinių, techninių, teisės srities ir mokslinių darbuotojų, turinčių patirties ir žinių, susijusių su atitinkamais DI sistemų tipais, duomenimis ir duomenų kompiuterija ir su 2 skirsnyje nustatytais reikalavimais.
12. Notified bodies shall participate in coordination activities as referred to in Article 38. They shall also take part directly, or be represented in, European standardisation organisations, or ensure that they are aware and up to date in respect of relevant standards.
12. Notifikuotosios įstaigos dalyvauja 38 straipsnyje nurodytoje koordinavimo veikloje. Jos taip pat turi tiesiogiai dalyvauti arba būti atstovaujamos Europos standartizacijos organizacijų veikloje arba užtikrinti, kad visada žinotų apie atitinkamus standartus ir jų naujoves.
Article 32
32 straipsnis
Presumption of conformity with requirements relating to notified bodies
Atitikties notifikuotosioms įstaigoms taikomiems reikalavimams prezumpcija
Where a conformity assessment body demonstrates its conformity with the criteria laid down in the relevant harmonised standards or parts thereof, the references of which have been published in the Official Journal of the European Union, it shall be presumed to comply with the requirements set out in Article 31 in so far as the applicable harmonised standards cover those requirements.
Jei atitikties vertinimo įstaiga įrodo, kad atitinka kriterijus, nustatytus atitinkamuose darniuosiuose standartuose arba jų dalyse, kurių nuorodos paskelbtos Europos Sąjungos oficialiajame leidinyje, preziumuojama, kad ji atitinka 31 straipsnyje nustatytus reikalavimus tiek, kiek juos apima taikomi darnieji standartai.
Article 33
33 straipsnis
Subsidiaries of notified bodies and subcontracting
Notifikuotųjų įstaigų pavaldžiosios įstaigos ir subranga
1. Where a notified body subcontracts specific tasks connected with the conformity assessment or has recourse to a subsidiary, it shall ensure that the subcontractor or the subsidiary meets the requirements laid down in Article 31, and shall inform the notifying authority accordingly.
1. Jei notifikuotoji įstaiga tam tikras su atitikties vertinimu susijusias užduotis paveda atlikti subrangovui ar pavaldžiajai įstaigai, ji užtikrina, kad tas subrangovas ar pavaldžioji įstaiga atitiktų 31 straipsnyje nustatytus reikalavimus, ir apie tai informuoja notifikuojančiąją instituciją.
2. Notified bodies shall take full responsibility for the tasks performed by any subcontractors or subsidiaries.
2. Notifikuotosios įstaigos prisiima visą atsakomybę už subrangovų ar pavaldžiųjų įstaigų atliekamas užduotis.
3. Activities may be subcontracted or carried out by a subsidiary only with the agreement of the provider. Notified bodies shall make a list of their subsidiaries publicly available.
3. Pavesti veiklą vykdyti subrangovui ar pavaldžiajai įstaigai galima tik gavus tiekėjo sutikimą. Notifikuotosios įstaigos viešai skelbia savo pavaldžiųjų įstaigų sąrašą.
4. The relevant documents concerning the assessment of the qualifications of the subcontractor or the subsidiary and the work carried out by them under this Regulation shall be kept at the disposal of the notifying authority for a period of five years from the termination date of the subcontracting.
4. Aktualūs dokumentai, susiję su subrangovo ar pavaldžiosios įstaigos kvalifikacijos vertinimu ir jų pagal šį reglamentą atliktu darbu, saugomi penkerius metus nuo subrangos pabaigos dienos, kad notifikuojančioji institucija galėtų juos patikrinti.
Article 34
34 straipsnis
Operational obligations of notified bodies
Notifikuotųjų įstaigų veiklos pareigos
1. Notified bodies shall verify the conformity of high-risk AI systems in accordance with the conformity assessment procedures set out in Article 43.
1. Notifikuotosios įstaigos, laikydamosi 43 straipsnyje nustatytų atitikties vertinimo procedūrų, tikrina didelės rizikos DI sistemų atitiktį.
2. Notified bodies shall avoid unnecessary burdens for providers when performing their activities, and take due account of the size of the provider, the sector in which it operates, its structure and the degree of complexity of the high-risk AI system concerned, in particular in view of minimising administrative burdens and compliance costs for micro- and small enterprises within the meaning of Recommendation 2003/361/EC. The notified body shall, nevertheless, respect the degree of rigour and the level of protection required for the compliance of the high-risk AI system with the requirements of this Regulation.
2. Vykdydamos savo veiklą notifikuotosios įstaigos vengia nereikalingos naštos tiekėjams ir deramai atsižvelgia į tiekėjo dydį, sektorių, kuriame jis vykdo veiklą, jo struktūrą ir į atitinkamos didelės rizikos DI sistemos sudėtingumo laipsnį, visų pirma, kad kuo labiau sumažintų administracinę naštą ir reikalavimų laikymosi išlaidas labai mažoms ir mažosioms įmonėms, kaip tai suprantama Rekomendacijoje 2003/361/EB. Tačiau notifikuotoji įstaiga laikosi tokio kruopštumo ir apsaugos lygio, kokio reikia, kad būtų užtikrinta didelės rizikos DI sistemos atitiktis šio reglamento reikalavimams.
3. Notified bodies shall make available and submit upon request all relevant documentation, including the providers’ documentation, to the notifying authority referred to in Article 28 to allow that authority to conduct its assessment, designation, notification and monitoring activities, and to facilitate the assessment outlined in this Section.
3. Notifikuotosios įstaigos sudaro 28 straipsnyje nurodytai notifikuojančiajai institucijai sąlygas susipažinti su visais reikiamais dokumentais, įskaitant tiekėjo dokumentus, ir gavusios prašymą juos pateikia tai institucijai, kad ji galėtų vykdyti vertinimo, paskyrimo, notifikavimo ir stebėsenos veiklą ir kad būtų lengviau atlikti šiame skirsnyje aprašytą vertinimą.
Article 35
35 straipsnis
Identification numbers and lists of notified bodies
Notifikuotųjų įstaigų identifikaciniai numeriai ir sąrašai
1. The Commission shall assign a single identification number to each notified body, even where a body is notified under more than one Union act.
1. Komisija kiekvienai notifikuotajai įstaigai suteikia vieną identifikacinį numerį, net jei įstaiga yra notifikuota pagal daugiau nei vieną Sąjungos aktą.
2. The Commission shall make publicly available the list of the bodies notified under this Regulation, including their identification numbers and the activities for which they have been notified. The Commission shall ensure that the list is kept up to date.
2. Komisija viešai paskelbia pagal šį reglamentą notifikuotų įstaigų sąrašą, kuriame taip pat nurodomi jų identifikaciniai numeriai ir veikla, kurią joms pavesta vykdyti kaip notifikuotosioms įstaigoms. Komisija užtikrina, kad tas sąrašas būtų nuolat atnaujinamas.
Article 36
36 straipsnis
Changes to notifications
Notifikavimo pakeitimai
1. The notifying authority shall notify the Commission and the other Member States of any relevant changes to the notification of a notified body via the electronic notification tool referred to in Article 30(2).
1. Notifikuojančioji institucija, naudodamasi 30 straipsnio 2 dalyje nurodyta elektronine notifikavimo priemone, Komisijai ir kitoms valstybėms narėms praneša apie visus svarbius notifikuotosios įstaigos notifikavimo pakeitimus.
2. The procedures laid down in Articles 29 and 30 shall apply to extensions of the scope of the notification.
2. Notifikavimo aprėpties išplėtimui taikomos 29 ir 30 straipsniuose nustatytos procedūros.
For changes to the notification other than extensions of its scope, the procedures laid down in paragraphs (3) to (9) shall apply.
Jei notifikavimo pakeitimai nėra susiję su jo aprėpties išplėtimu, taikomos 3–9 dalyse nustatytos procedūros.
3. Where a notified body decides to cease its conformity assessment activities, it shall inform the notifying authority and the providers concerned as soon as possible and, in the case of a planned cessation, at least one year before ceasing its activities. The certificates of the notified body may remain valid for a period of nine months after cessation of the notified body’s activities, on condition that another notified body has confirmed in writing that it will assume responsibilities for the high-risk AI systems covered by those certificates. The latter notified body shall complete a full assessment of the high-risk AI systems affected by the end of that nine-month-period before issuing new certificates for those systems. Where the notified body has ceased its activity, the notifying authority shall withdraw the designation.
3. Kai notifikuotoji įstaiga nusprendžia nutraukti atitikties vertinimo veiklą, ji kuo greičiau, o planuojamo veiklos nutraukimo atveju – likus bent vieniems metams iki veiklos nutraukimo, apie tai informuoja notifikuojančiąją instituciją ir atitinkamus tiekėjus. Notifikuotosios įstaigos sertifikatai gali toliau galioti devynių mėnesių po jos veiklos nutraukimo laikotarpį su sąlyga, kad kita notifikuotoji įstaiga raštu yra patvirtinusi, kad ji prisiims atsakomybę už didelės rizikos DI sistemas, kurioms išduoti tie sertifikatai. Pastaroji notifikuotoji įstaiga iki to devynių mėnesių laikotarpio pabaigos užbaigia susijusių didelės rizikos DI sistemų visapusišką vertinimą, prieš išduodama naujus sertifikatus toms sistemoms. Jei notifikuotoji įstaiga savo veiklą nutraukia, notifikuojančioji institucija paskyrimą panaikina.
4. Where a notifying authority has sufficient reason to consider that a notified body no longer meets the requirements laid down in Article 31, or that it is failing to fulfil its obligations, the notifying authority shall without delay investigate the matter with the utmost diligence. In that context, it shall inform the notified body concerned about the objections raised and give it the possibility to make its views known. If the notifying authority comes to the conclusion that the notified body no longer meets the requirements laid down in Article 31 or that it is failing to fulfil its obligations, it shall restrict, suspend or withdraw the designation as appropriate, depending on the seriousness of the failure to meet those requirements or fulfil those obligations. It shall immediately inform the Commission and the other Member States accordingly.
4. Jei notifikuojančioji institucija turi pakankamą pagrindą manyti, kad notifikuotoji įstaiga nebeatitinka 31 straipsnyje nustatytų reikalavimų arba nevykdo savo pareigų, notifikuojančioji institucija nedelsdama atlieka nuodugnų su tuo susijusį tyrimą. Tokiu atveju ji informuoja atitinkamą notifikuotąją įstaigą apie pareikštą kritiką ir suteikia jai galimybę pateikti savo nuomonę. Jei notifikuojančioji institucija padaro išvadą, kad notifikuotoji įstaiga nebeatitinka 31 straipsnyje nustatytų reikalavimų arba nevykdo savo pareigų, ji atitinkamai apriboja, sustabdo arba panaikina paskyrimą atsižvelgdama į tų reikalavimų nebeatitikimo arba tų pareigų nevykdymo rimtumą. Ji nedelsdama apie tai informuoja Komisiją ir kitas valstybes nares.
5. Where its designation has been suspended, restricted, or fully or partially withdrawn, the notified body shall inform the providers concerned within 10 days.
5. Jei notifikuotosios įstaigos paskyrimas sustabdomas, apribojamas arba visai ar iš dalies panaikinamas, ji per 10 dienų apie tai informuoja atitinkamus tiekėjus.
6. In the event of the restriction, suspension or withdrawal of a designation, the notifying authority shall take appropriate steps to ensure that the files of the notified body concerned are kept, and to make them available to notifying authorities in other Member States and to market surveillance authorities at their request.
6. Jei paskyrimas apribojamas, sustabdomas ar panaikinamas, notifikuojančioji institucija imasi tinkamų priemonių, kuriomis užtikrinama, kad atitinkamos notifikuotosios įstaigos bylos būtų saugomos ir su jomis galėtų susipažinti to prašančios kitų valstybių narių notifikuojančiosios institucijos ir rinkos priežiūros institucijos.
7. In the event of the restriction, suspension or withdrawal of a designation, the notifying authority shall:
7. Paskyrimo apribojimo, sustabdymo arba panaikinimo atveju notifikuojančioji institucija:
(a)
assess the impact on the certificates issued by the notified body;
a)
įvertina poveikį notifikuotosios įstaigos išduotiems sertifikatams;
(b)
submit a report on its findings to the Commission and the other Member States within three months of having notified the changes to the designation;
b)
per tris mėnesius nuo pranešimo apie paskyrimo pakeitimus Komisijai ir kitoms valstybėms narėms pateikia savo išvadų ataskaitą;
(c)
require the notified body to suspend or withdraw, within a reasonable period of time determined by the authority, any certificates which were unduly issued, in order to ensure the continuing conformity of high-risk AI systems on the market;
c)
reikalauja, kad notifikuotoji įstaiga per pagrįstą laikotarpį, kurį nustato institucija, sustabdytų arba panaikintų visus nepagrįstai išduotus sertifikatus, kad būtų užtikrinta rinkoje esančių didelės rizikos DI sistemų nuolatinė atitiktis;
(d)
inform the Commission and the Member States about certificates the suspension or withdrawal of which it has required;
d)
informuoja Komisiją ir valstybes nares apie sertifikatus, kuriuos ji pareikalavo sustabdyti arba panaikinti;
(e)
provide the national competent authorities of the Member State in which the provider has its registered place of business with all relevant information about the certificates of which it has required the suspension or withdrawal; that authority shall take the appropriate measures, where necessary, to avoid a potential risk to health, safety or fundamental rights.
e)
pateikia valstybės narės, kurioje yra tiekėjo registruota buveinė, nacionalinėms kompetentingoms institucijoms visą svarbią informaciją apie sertifikatus, kuriuos ji pareikalavo sustabdyti arba panaikinti. Ta institucija prireikus imasi tinkamų priemonių, kad būtų išvengta galimos rizikos sveikatai, saugai ar pagrindinėms teisėms.
8. With the exception of certificates unduly issued, and where a designation has been suspended or restricted, the certificates shall remain valid in one of the following circumstances:
8. Išskyrus nepagrįstai išduotus sertifikatus, ir tais atvejais, kai paskyrimas buvo sustabdytas ar apribotas, sertifikatai toliau galioja esant vienai iš šių aplinkybių:
(a)
the notifying authority has confirmed, within one month of the suspension or restriction, that there is no risk to health, safety or fundamental rights in relation to certificates affected by the suspension or restriction, and the notifying authority has outlined a timeline for actions to remedy the suspension or restriction; or
a)
notifikuojančioji institucija per mėnesį nuo sustabdymo ar apribojimo yra patvirtinusi, kad nėra rizikos sveikatai, saugai ar pagrindinėms teisėms, susijusios su sertifikatais, kuriems turi įtakos tas sustabdymas arba apribojimas, ir notifikuojančioji institucija yra nustačiusi veiksmų sustabdymui ar apribojimui panaikinti tvarkaraštį arba
(b)
the notifying authority has confirmed that no certificates relevant to the suspension will be issued, amended or re-issued during the course of the suspension or restriction, and states whether the notified body has the capability of continuing to monitor and remain responsible for existing certificates issued for the period of the suspension or restriction; in the event that the notifying authority determines that the notified body does not have the capability to support existing certificates issued, the provider of the system covered by the certificate shall confirm in writing to the national competent authorities of the Member State in which it has its registered place of business, within three months of the suspension or restriction, that another qualified notified body is temporarily assuming the functions of the notified body to monitor and remain responsible for the certificates during the period of suspension or restriction.
b)
notifikuojančioji institucija yra patvirtinusi, kad sustabdymo ar apribojimo laikotarpiu su sustabdymu susiję sertifikatai nebus išduodami, iš dalies keičiami arba išduodami pakartotinai, ir nurodžiusi, ar notifikuotoji įstaiga yra pajėgi tęsti esamų išduotų sertifikatų stebėseną ir toliau būti už juos atsakinga sustabdymo arba apribojimo laikotarpiu. Jeigu notifikuojančioji institucija nustato, kad notifikuotoji įstaiga nėra pajėgi prižiūrėti galiojančių išduotų sertifikatų, sistemos, kuriai taikomas sertifikatas, tiekėjas per tris mėnesius nuo sustabdymo arba apribojimo pateikia valstybės narės, kurioje yra jo registruota buveinė, nacionalinėms kompetentingoms institucijoms rašytinį patvirtinimą, kad kita reikalavimus atitinkanti notifikuotoji įstaiga laikinai prisiima notifikuotosios įstaigos funkcijas, kad vykdytų sertifikatų stebėseną ir būtų atsakinga už juos sustabdymo arba apribojimo laikotarpiu.
9. With the exception of certificates unduly issued, and where a designation has been withdrawn, the certificates shall remain valid for a period of nine months under the following circumstances:
9. Išskyrus nepagrįstai išduotus sertifikatus, ir tais atvejais, kai paskyrimas buvo panaikintas, sertifikatai toliau galioja devynis mėnesius šiomis aplinkybėmis:
(a)
the national competent authority of the Member State in which the provider of the high-risk AI system covered by the certificate has its registered place of business has confirmed that there is no risk to health, safety or fundamental rights associated with the high-risk AI systems concerned; and
a)
valstybės narės, kurioje yra didelės rizikos DI sistemos, kuriai išduotas sertifikatas, tiekėjo registruota buveinė, nacionalinė kompetentinga institucija yra patvirtinusi, kad nėra su atitinkamomis didelės rizikos DI sistemomis susijusios rizikos sveikatai, saugai ar pagrindinėms teisėms, ir
(b)
another notified body has confirmed in writing that it will assume immediate responsibility for those AI systems and completes its assessment within 12 months of the withdrawal of the designation.
b)
kita notifikuotoji įstaiga yra raštu patvirtinusi, kad ji nedelsiant prisiims atsakomybę už šias DI sistemas ir užbaigs vertinimą per 12 mėnesių nuo paskyrimo panaikinimo dienos.
In the circumstances referred to in the first subparagraph, the national competent authority of the Member State in which the provider of the system covered by the certificate has its place of business may extend the provisional validity of the certificates for additional periods of three months, which shall not exceed 12 months in total.
Pirmoje pastraipoje nurodytomis aplinkybėmis valstybės narės, kurioje yra sistemos, kuriai išduotas sertifikatas, tiekėjo registruota buveinė, nacionalinė kompetentinga institucija gali pratęsti laikinąjį sertifikatų galiojimą papildomiems trijų mėnesių laikotarpiams, kurie iš viso negali sudaryti ilgesnio kaip 12 mėnesių laikotarpio.
The national competent authority or the notified body assuming the functions of the notified body affected by the change of designation shall immediately inform the Commission, the other Member States and the other notified bodies thereof.
Nacionalinė kompetentingas institucija arba notifikuotoji įstaiga, prisiimanti notifikuotosios įstaigos, kurios paskyrimas yra pakeistas, funkcijas, apie tai nedelsdama praneša Komisijai, kitoms valstybėms narėms ir kitoms notifikuotosioms įstaigoms.
Article 37
37 straipsnis
Challenge to the competence of notified bodies
Notifikuotųjų įstaigų kompetencijos užginčijimas
1. The Commission shall, where necessary, investigate all cases where there are reasons to doubt the competence of a notified body or the continued fulfilment by a notified body of the requirements laid down in Article 31 and of its applicable responsibilities.
1. Prireikus, Komisija ištiria visus atvejus, kuriais esama pagrindo abejoti notifikuotosios įstaigos kompetencija arba tuo, ar notifikuotoji įstaiga vis dar atitinka 31 straipsnyje nustatytus reikalavimus ir toliau vykdo jai taikytinas pareigas.
2. The notifying authority shall provide the Commission, on request, with all relevant information relating to the notification or the maintenance of the competence of the notified body concerned.
2. Pateikus prašymą notifikuojančioji institucija pateikia Komisijai visą aktualią informaciją, susijusią su atitinkamos notifikuotosios įstaigos notifikavimu ar kompetencijos išlaikymu.
3. The Commission shall ensure that all sensitive information obtained in the course of its investigations pursuant to this Article is treated confidentially in accordance with Article 78.
3. Komisija užtikrina, kad visa neskelbtina informacija, gaunama atliekant šiame straipsnyje nurodytus tyrimus, būtų tvarkoma konfidencialiai pagal 78 straipsnį.
4. Where the Commission ascertains that a notified body does not meet or no longer meets the requirements for its notification, it shall inform the notifying Member State accordingly and request it to take the necessary corrective measures, including the suspension or withdrawal of the notification if necessary. Where the Member State fails to take the necessary corrective measures, the Commission may, by means of an implementing act, suspend, restrict or withdraw the designation. That implementing act shall be adopted in accordance with the examination procedure referred to in Article 98(2).
4. Jei Komisija nustato, kad notifikuotoji įstaiga neatitinka arba nebeatitinka jos notifikavimo reikalavimų, ji apie tai praneša notifikuojančiajai valstybei narei ir jos paprašo imtis būtinų taisomųjų priemonių, įskaitant, jei būtina, notifikavimo galiojimo sustabdymą ar panaikinimą. Jei valstybė narė nesiima būtinų taisomųjų priemonių, Komisija gali priimti įgyvendinimo aktą, kuriuo paskyrimas būtų sustabdytas, apribotas ar panaikintas. Tas įgyvendinimo aktas priimamas laikantis 98 straipsnio 2 dalyje nurodytos nagrinėjimo procedūros.
Article 38
38 straipsnis
Coordination of notified bodies
Notifikuotųjų įstaigų veiklos koordinavimas
1. The Commission shall ensure that, with regard to high-risk AI systems, appropriate coordination and cooperation between notified bodies active in the conformity assessment procedures pursuant to this Regulation are put in place and properly operated in the form of a sectoral group of notified bodies.
1. Komisija užtikrina, kad didelės rizikos DI sistemų atveju per sektoriaus notifikuotųjų įstaigų grupę būtų organizuojamas ir tinkamai vykdomas notifikuotųjų įstaigų, pagal šį reglamentą atliekančių atitikties vertinimo procedūras, veiklos koordinavimas ir jų bendradarbiavimas.
2. Each notifying authority shall ensure that the bodies notified by it participate in the work of a group referred to in paragraph 1, directly or through designated representatives.
2. Kiekviena notifikuojančioji institucija užtikrina, kad jos notifikuotos įstaigos tiesiogiai arba per paskirtus atstovus dalyvautų 1 dalyje nurodytos grupės veikloje.
3. The Commission shall provide for the exchange of knowledge and best practices between notifying authorities.
3. Komisija pasirūpina, kad notifikuojančiosios institucijos tarpusavyje keistųsi žiniomis ir geriausios praktikos pavyzdžiais.
Article 39
39 straipsnis
Conformity assessment bodies of third countries
Trečiųjų valstybių atitikties vertinimo įstaigos
Conformity assessment bodies established under the law of a third country with which the Union has concluded an agreement may be authorised to carry out the activities of notified bodies under this Regulation, provided that they meet the requirements laid down in Article 31 or they ensure an equivalent level of compliance.
Pagal trečiųjų valstybių, su kuriomis Sąjunga yra sudariusi susitarimus, teisę įsteigtoms atitikties vertinimo įstaigoms gali būti leidžiama vykdyti šiame reglamente nurodytą notifikuotųjų įstaigų veiklą, jeigu jos atitinka 31 straipsnyje nustatytus reikalavimus arba užtikrina lygiavertę atitiktį.
SECTION 5
5 SKIRSNIS
Standards, conformity assessment, certificates, registration
Standartai, atitikties vertinimas, sertifikatai, registracija
Article 40
40 straipsnis
Harmonised standards and standardisation deliverables
Darnieji standartai ir standartizacijos leidiniai
1. High-risk AI systems or general-purpose AI models which are in conformity with harmonised standards or parts thereof the references of which have been published in the Official Journal of the European Union in accordance with Regulation (EU) No 1025/2012 shall be presumed to be in conformity with the requirements set out in Section 2 of this Chapter or, as applicable, with the obligations set out in of Chapter V, Sections 2 and 3, of this Regulation, to the extent that those standards cover those requirements or obligations.
1. Preziumuojama, kad didelės rizikos DI sistemos ir bendrosios paskirties DI modeliai, atitinkantys darniuosius standartus ar jų dalis, kurių nuorodos paskelbtos Europos Sąjungos oficialiajame leidinyje pagal Reglamentą (ES) Nr. 1025/2012, atitinka šio skyriaus 2 skirsnyje nustatytus reikalavimus arba, jei taikytina, šio reglamento V skyriaus 2 ir 3 skirsniuose išdėstytus įpareigojimus, tokiu mastu, kokiu tie standartai apima tuos reikalavimus ar įpareigojimus.
2. In accordance with Article 10 of Regulation (EU) No 1025/2012, the Commission shall issue, without undue delay, standardisation requests covering all requirements set out in Section 2 of this Chapter and, as applicable, standardisation requests covering obligations set out in Chapter V, Sections 2 and 3, of this Regulation. The standardisation request shall also ask for deliverables on reporting and documentation processes to improve AI systems’ resource performance, such as reducing the high-risk AI system’s consumption of energy and of other resources during its lifecycle, and on the energy-efficient development of general-purpose AI models. When preparing a standardisation request, the Commission shall consult the Board and relevant stakeholders, including the advisory forum.
2. Vadovaudamasi Reglamento (ES) Nr. 1025/2012 10 straipsniu Komisija nedelsdama pateikia standartizacijos prašymus, apimančius visus šio skyriaus 2 skirsnyje nustatytus reikalavimus ir, kai taikytina, standartizacijos prašymus, apimančius šio reglamento V skyriaus 2 ir 3 skirsniuose išdėstytas pareigas. Standartizacijos prašyme taip pat prašoma parengti leidinius, susijusius su ataskaitų teikimo ir dokumentavimo procesais, siekiant pagerinti DI sistemų išteklių naudojimo efektyvumą, pavyzdžiui, sumažinti didelės rizikos DI sistemų energijos ir kitų išteklių suvartojimą per jų gyvavimo ciklą, taip pat leidinius, susijusius su efektyviu energijos vartojimu grindžiamu bendrosios paskirties DI modelių kūrimu. Rengdama standartizacijos prašymą Komisija konsultuojasi su Valdyba ir atitinkamais suinteresuotaisiais subjektais, įskaitant patariamąjį forumą.
When issuing a standardisation request to European standardisation organisations, the Commission shall specify that standards have to be clear, consistent, including with the standards developed in the various sectors for products covered by the existing Union harmonisation legislation listed in Annex I, and aiming to ensure that high-risk AI systems or general-purpose AI models placed on the market or put into service in the Union meet the relevant requirements or obligations laid down in this Regulation.
Pateikdama standartizacijos prašymą Europos standartizacijos organizacijoms Komisija nurodo, kad standartai turi būti aiškūs, tarpusavyje derėti, be kita ko, su įvairiuose sektoriuose parengtais standartais, skirtais gaminiams, kuriems taikomi I priede išvardyti esami Sąjungos derinamieji teisės aktai, ir kad jais turi būti siekiama užtikrinti, kad Sąjungoje rinkai pateikiamos arba pradedamos naudoti didelės rizikos DI sistemos ar bendrosios paskirties DI modeliai atitiktų atitinkamus šiame reglamente nustatytus reikalavimus ar pareigas.
The Commission shall request the European standardisation organisations to provide evidence of their best efforts to fulfil the objectives referred to in the first and the second subparagraph of this paragraph in accordance with Article 24 of Regulation (EU) No 1025/2012.
Remdamasi Reglamento (ES) Nr. 1025/2012 24 straipsniu Komisija prašo Europos standartizacijos organizacijų pateikti įrodymų, jog dedamos visos pastangos, kad būtų pasiekti šios dalies pirmoje ir antroje pastraipose nurodyti tikslai.
3. The participants in the standardisation process shall seek to promote investment and innovation in AI, including through increasing legal certainty, as well as the competitiveness and growth of the Union market, to contribute to strengthening global cooperation on standardisation and taking into account existing international standards in the field of AI that are consistent with Union values, fundamental rights and interests, and to enhance multi-stakeholder governance ensuring a balanced representation of interests and the effective participation of all relevant stakeholders in accordance with Articles 5, 6, and 7 of Regulation (EU) No 1025/2012.
3. Standartizacijos proceso dalyviai siekia skatinti investicijas ir inovacijas DI srityje, be kita ko, užtikrinant daugiau teisinio tikrumo, taip pat skatinti Sąjungos rinkos konkurencingumą bei augimą, padeda stiprinti pasaulinį bendradarbiavimą standartizacijos srityje ir rėmimąsi tais esamais tarptautiniais DI srities standartais, kurie atitinka Sąjungos vertybes, pagrindines teises ir interesus, ir stiprina įvairių suinteresuotųjų subjektų dalyvavimu grindžiamą valdymą, užtikrinant subalansuotą atstovavimą interesams ir veiksmingą visų atitinkamų suinteresuotųjų subjektų dalyvavimą, kaip numatyta Reglamento (ES) Nr. 1025/2012 5, 6 ir 7 straipsniuose.
Article 41
41 straipsnis
Common specifications
Bendrosios specifikacijos
1. The Commission may adopt, implementing acts establishing common specifications for the requirements set out in Section 2 of this Chapter or, as applicable, for the obligations set out in Sections 2 and 3 of Chapter V where the following conditions have been fulfilled:
1. Komisija gali priimti įgyvendinimo aktus, kuriais nustatomos šio skyriaus 2 skirsnyje išdėstytų reikalavimų arba, kai taikytina, V skyriaus 2 ir 3 skirsniuose išdėstytų pareigų bendrosios specifikacijos, jei yra tenkinamos šios sąlygos:
(a)
the Commission has requested, pursuant to Article 10(1) of Regulation (EU) No 1025/2012, one or more European standardisation organisations to draft a harmonised standard for the requirements set out in Section 2 of this Chapter, or, as applicable, for the obligations set out in Sections 2 and 3 of Chapter V, and:
a)
Komisija pagal Reglamento (ES) Nr. 1025/2012 10 straipsnio 1 dalį yra paprašiusi vienos ar daugiau Europos standartizacijos organizacijų parengti šio skyriaus 2 skirsnyje išdėstytų reikalavimų arba atitinkamai V skyriaus 2 ir 3 skirsniuose išdėstytų pareigų darnųjį standartą, ir:
(i)
the request has not been accepted by any of the European standardisation organisations; or
i)
nė viena Europos standartizacijos organizacija Komisijos prašymo nepriėmė arba
(ii)
the harmonised standards addressing that request are not delivered within the deadline set in accordance with Article 10(1) of Regulation (EU) No 1025/2012; or
ii)
darnieji standartai pagal tą prašymą nebuvo parengti iki termino, nustatyto pagal Reglamento (ES) Nr. 1025/2012 10 straipsnio 1 dalį, arba
(iii)
the relevant harmonised standards insufficiently address fundamental rights concerns; or
iii)
atitinkamuose darniuosiuose standartuose nepakankamai atsižvelgiama į pagrindinių teisių klausimus, arba
(iv)
the harmonised standards do not comply with the request; and
iv)
darnieji standartai neatitinka prašymo ir
(b)
no reference to harmonised standards covering the requirements referred to in Section 2 of this Chapter or, as applicable, the obligations referred to in Sections 2 and 3 of Chapter V has been published in the Official Journal of the European Union in accordance with Regulation (EU) No 1025/2012, and no such reference is expected to be published within a reasonable period.
b)
Europos Sąjungos oficialiajame leidinyje pagal Reglamentą (ES) Nr. 1025/2012 nebuvo paskelbtos nuorodos į darniuosius standartus, apimančius šio skyriaus 2 skirsnyje nurodytus reikalavimus arba atitinkamai V skyriaus 2 ir 3 skirsniuose nurodytas pareigas, ir tokios nuorodos per pagrįstą laikotarpį nenumatoma paskelbti.
When drafting the common specifications, the Commission shall consult the advisory forum referred to in Article 67.
Rengdama bendrąsias specifikacijas, Komisija konsultuojasi su 67 straipsnyje nurodytu patariamuoju forumu.
The implementing acts referred to in the first subparagraph of this paragraph shall be adopted in accordance with the examination procedure referred to in Article 98(2).
Šios dalies pirmoje pastraipoje nurodyti įgyvendinimo aktai priimami laikantis 98 straipsnio 2 dalyje nurodytos nagrinėjimo procedūros.
2. Before preparing a draft implementing act, the Commission shall inform the committee referred to in Article 22 of Regulation (EU) No 1025/2012 that it considers the conditions laid down in paragraph 1 of this Article to be fulfilled.
2. Prieš rengdama įgyvendinimo akto projektą, Komisija informuoja Reglamento (ES) Nr. 1025/2012 22 straipsnyje nurodytą komitetą apie tai, kad, jos nuomone, šio straipsnio 1 dalyje nustatytos sąlygos yra tenkinamos.
3. High-risk AI systems or general-purpose AI models which are in conformity with the common specifications referred to in paragraph 1, or parts of those specifications, shall be presumed to be in conformity with the requirements set out in Section 2 of this Chapter or, as applicable, to comply with the obligations referred to in Sections 2 and 3 of Chapter V, to the extent those common specifications cover those requirements or those obligations.
3. Preziumuojama, kad 1 dalyje nurodytas bendrąsias specifikacijas arba tų specifikacijų dalis atitinkančios didelės rizikos DI sistemos ir bendrosios paskirties DI modeliai atitinkantys šio skyriaus 2 skirsnyje nustatytus reikalavimus arba atitinkamai V skyriaus 2 ir 3 skirsniuose nurodytas pareigas tiek, kiek tos bendrosios specifikacijos apima tuos reikalavimus ir tas pareigas.
4. Where a harmonised standard is adopted by a European standardisation organisation and proposed to the Commission for the publication of its reference in the Official Journal of the European Union, the Commission shall assess the harmonised standard in accordance with Regulation (EU) No 1025/2012. When reference to a harmonised standard is published in the Official Journal of the European Union, the Commission shall repeal the implementing acts referred to in paragraph 1, or parts thereof which cover the same requirements set out in Section 2 of this Chapter or, as applicable, the same obligations set out in Sections 2 and 3 of Chapter V.
4. Kai Europos standartizacijos organizacija priima darnųjį standartą ir Komisijai pasiūloma paskelbti jo nuorodą Europos Sąjungos oficialiajame leidinyje, Komisija įvertina darnųjį standartą pagal Reglamentą (ES) Nr. 1025/2012. Kai Europos Sąjungos oficialiajame leidinyje paskelbiama darniojo standarto nuoroda, Komisija panaikina 1 dalyje nurodytus įgyvendinimo aktus arba jų dalis, kurie apima tuos pačius kaip šio skyriaus 2 skirsnyje nustatytieji reikalavimus arba atitinkamai tas pačias V skyriaus 2 ir 3 skirsniuose išdėstytas pareigas.
5. Where providers of high-risk AI systems or general-purpose AI models do not comply with the common specifications referred to in paragraph 1, they shall duly justify that they have adopted technical solutions that meet the requirements referred to in Section 2 of this Chapter or, as applicable, comply with the obligations set out in Sections 2 and 3 of Chapter V to a level at least equivalent thereto.
5. Jei didelės rizikos DI sistemų ar bendrosios paskirties DI modelių tiekėjai nesilaiko 1 dalyje nurodytų bendrųjų specifikacijų, jie tinkamai pagrindžia, kad yra įdiegę techninius sprendimus, užtikrinančius bent lygiavertę atitiktį šio skyriaus 2 skirsnyje išdėstytiems reikalavimams arba atitinkamai laikosi V skyriaus 2 ir 3 skirsniuose išdėstytų pareigų.
6. Where a Member State considers that a common specification does not entirely meet the requirements set out in Section 2 or, as applicable, comply with obligations set out in Sections 2 and 3 of Chapter V, it shall inform the Commission thereof with a detailed explanation. The Commission shall assess that information and, if appropriate, amend the implementing act establishing the common specification concerned.
6. Jei valstybė narė mano, kad bendroji specifikacija ne visiškai atitinka šio skyriaus 2 skirsnyje išdėstytus reikalavimus arba, kai taikoma, ne visiškai laikosi V skyriaus 2 ir 3 skirsniuose išdėstytų pareigų, ji apie tai informuoja Komisiją, pateikdama išsamų paaiškinimą. Komisija įvertina tą informaciją ir, jei tinkama, iš dalies pakeičia įgyvendinimo aktą, kuriuo nustatyta atitinkama bendroji specifikacija.
Article 42
42 straipsnis
Presumption of conformity with certain requirements
Atitikties tam tikriems reikalavimams prezumpcija
1. High-risk AI systems that have been trained and tested on data reflecting the specific geographical, behavioural, contextual or functional setting within which they are intended to be used shall be presumed to comply with the relevant requirements laid down in Article 10(4).
1. Jei didelės rizikos DI sistema buvo mokoma ir bandoma naudojant duomenis, atspindinčius konkrečią geografinę, elgsenos, kontekstinę ar funkcinę aplinką, kurioje ją ketinama naudoti, preziumuojama, kad ji atitinka 10 straipsnio 4 dalyje nustatytus atitinkamus reikalavimus.
2. High-risk AI systems that have been certified or for which a statement of conformity has been issued under a cybersecurity scheme pursuant to Regulation (EU) 2019/881 and the references of which have been published in the Official Journal of the European Union shall be presumed to comply with the cybersecurity requirements set out in Article 15 of this Regulation in so far as the cybersecurity certificate or statement of conformity or parts thereof cover those requirements.
2. Jei didelės rizikos DI sistema yra, laikantis Reglamento (ES) 2019/881, sertifikuota pagal kibernetinio saugumo sertifikavimo schemą, kurios nuoroda yra paskelbta Europos Sąjungos oficialiajame leidinyje, arba jai pagal šią schemą yra išduotas atitikties pareiškimas, preziumuojama, kad ji atitinka šio reglamento 15 straipsnyje nustatytus kibernetinio saugumo reikalavimus, jei tik tas kibernetinio saugumo sertifikatas, atitikties pareiškimas arba jų dalys apima tuos reikalavimus.
Article 43
43 straipsnis
Conformity assessment
Atitikties vertinimas
1. For high-risk AI systems listed in point 1 of Annex III, where, in demonstrating the compliance of a high-risk AI system with the requirements set out in Section 2, the provider has applied harmonised standards referred to in Article 40, or, where applicable, common specifications referred to in Article 41, the provider shall opt for one of the following conformity assessment procedures based on:
1. III priedo 1 punkte išvardytų didelės rizikos DI sistemų atveju, kai tiekėjas, siekdamas įrodyti, kad didelės rizikos DI sistema atitinka 2 skirsnyje nustatytus reikalavimus, taiko 40 straipsnyje nurodytus darniuosius standartus arba, kai taikytina, 41 straipsnyje nurodytas bendrąsias specifikacijas, jis pasirenka taikyti vieną iš šių atitikties vertinimo procedūrų, grindžiamų:
(a)
the internal control referred to in Annex VI; or
a)
vidaus kontrole, kaip nurodyta VI priede, arba
(b)
the assessment of the quality management system and the assessment of the technical documentation, with the involvement of a notified body, referred to in Annex VII.
b)
kokybės valdymo sistemos vertinimu ir techninių dokumentų vertinimu, dalyvaujant notifikuotajai įstaigai, kaip nurodyta VII priede.
In demonstrating the compliance of a high-risk AI system with the requirements set out in Section 2, the provider shall follow the conformity assessment procedure set out in Annex VII where:
Siekdamas įrodyti, kad didelės rizikos DI sistema atitinka 2 skirsnyje nustatytus reikalavimus, tiekėjas taiko VII priede nustatytą atitikties vertinimo procedūrą, jeigu:
(a)
harmonised standards referred to in Article 40 do not exist, and common specifications referred to in Article 41 are not available;
a)
40 straipsnyje nurodytų darniųjų standartų ir 41 straipsnyje nurodytų bendrųjų specifikacijų nėra;
(b)
the provider has not applied, or has applied only part of, the harmonised standard;
b)
tiekėjas netaiko darniojo standarto arba jį taiko tik iš dalies;
(c)
the common specifications referred to in point (a) exist, but the provider has not applied them;
c)
a punkte nurodytos bendrosios specifikacijos yra, tačiau tiekėjas jų netaiko;
(d)
one or more of the harmonised standards referred to in point (a) has been published with a restriction, and only on the part of the standard that was restricted.
d)
vienas ar daugiau a punkte nurodytų darniųjų standartų yra paskelbtas su apribojimais – tik tos standarto dalies, kuriai taikomas apribojimas, atžvilgiu.
For the purposes of the conformity assessment procedure referred to in Annex VII, the provider may choose any of the notified bodies. However, where the high-risk AI system is intended to be put into service by law enforcement, immigration or asylum authorities or by Union institutions, bodies, offices or agencies, the market surveillance authority referred to in Article 74(8) or (9), as applicable, shall act as a notified body.
VII priede nurodytai atitikties vertinimo procedūrai atlikti tiekėjas gali pasirinkti bet kurią notifikuotąją įstaigą. Tačiau jei didelės rizikos DI sistemą ketinama naudoti teisėsaugos, imigracijos arba prieglobsčio institucijose, arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, notifikuotosios įstaigos funkcijas atlieka atitinkamai 74 straipsnio 8 arba 9 dalyje nurodyta rinkos priežiūros institucija.
2. For high-risk AI systems referred to in points 2 to 8 of Annex III, providers shall follow the conformity assessment procedure based on internal control as referred to in Annex VI, which does not provide for the involvement of a notified body.
2. III priedo 2–8 punktuose nurodytoms didelės rizikos DI sistemoms tiekėjai taiko VI priede nurodytą vidaus kontrole grindžiamą atitikties vertinimo procedūrą, kurioje notifikuotosios įstaigos dalyvavimas nenumatytas.
3. For high-risk AI systems covered by the Union harmonisation legislation listed in Section A of Annex I, the provider shall follow the relevant conformity assessment procedure as required under those legal acts. The requirements set out in Section 2 of this Chapter shall apply to those high-risk AI systems and shall be part of that assessment. Points 4.3., 4.4., 4.5. and the fifth paragraph of point 4.6 of Annex VII shall also apply.
3. Didelės rizikos DI sistemų, kurioms taikomi I priedo A skirsnyje išvardyti Sąjungos derinamieji teisės aktai, atveju tiekėjas taiko atitinkamą tuose teisės aktuose reikalaujamą atitikties vertinimo procedūrą. Toms didelės rizikos DI sistemoms taikomi šio skyriaus 2 skirsnyje nustatyti reikalavimai, todėl per tuos vertinimus patikrinama ir atitiktis šiems reikalavimams. Taip pat taikomi VII priedo 4.3, 4.4, 4.5 punktai ir 4.6 punkto penkta pastraipa.
For the purposes of that assessment, notified bodies which have been notified under those legal acts shall be entitled to control the conformity of the high-risk AI systems with the requirements set out in Section 2, provided that the compliance of those notified bodies with requirements laid down in Article 31(4), (5), (10) and (11) has been assessed in the context of the notification procedure under those legal acts.
Teisę per tuos vertinimus tikrinti didelės rizikos DI sistemų atitiktį 2 skirsnyje nustatytiems reikalavimams turi pagal tuos teisės aktus paskirtos notifikuotosios įstaigos su sąlyga, kad atliekant notifikavimo pagal tuos teisės aktus procedūrą buvo įvertinta tų notifikuotųjų įstaigų atitiktis 31 straipsnio 4, 5, 10 ir 11 dalyse nustatytiems reikalavimams.
Where a legal act listed in Section A of Annex I enables the product manufacturer to opt out from a third-party conformity assessment, provided that that manufacturer has applied all harmonised standards covering all the relevant requirements, that manufacturer may use that option only if it has also applied harmonised standards or, where applicable, common specifications referred to in Article 41, covering all requirements set out in Section 2 of this Chapter.
Kai pagal teisės aktą, įtrauktą į I priedo A skirsnio sąrašą, gaminio gamintojas gali netaikyti trečiosios šalies atliekamo atitikties vertinimo su sąlyga, kad gamintojas taiko visus darniuosius standartus, apimančius visus atitinkamus reikalavimus, tas gamintojas ta galimybe gali pasinaudoti tik jei jis taiko ir darniuosius standartus arba, kai taikytina, 41 straipsnyje nurodytas bendrąsias specifikacijas, apimančius visus šio skyriaus 2 skirsnyje nustatytus reikalavimus.
4. High-risk AI systems that have already been subject to a conformity assessment procedure shall undergo a new conformity assessment procedure in the event of a substantial modification, regardless of whether the modified system is intended to be further distributed or continues to be used by the current deployer.
4. Iš esmės pakeitus didelės rizikos DI sistemą, kuriai jau taikyta atitikties vertinimo procedūra, atliekama nauja jos atitikties vertinimo procedūra, neatsižvelgiant į tai, ar pakeistą sistemą ketinama papildomai platinti, ar ja toliau naudosis dabartinis diegėjas.
For high-risk AI systems that continue to learn after being placed on the market or put into service, changes to the high-risk AI system and its performance that have been pre-determined by the provider at the moment of the initial conformity assessment and are part of the information contained in the technical documentation referred to in point 2(f) of Annex IV, shall not constitute a substantial modification.
Jei didelės rizikos DI sistema mokosi ir po to, kai buvo pateikta rinkai arba pradėta naudoti, tos sistemos ir jos veikimo pakeitimai, kuriuos tiekėjas buvo iš anksto numatęs tada, kai buvo atliekamas pirminis atitikties vertinimas, ir kurie yra paminėti į techninius dokumentus įtrauktoje IV priedo 2 punkto f papunktyje nurodytoje informacijoje, nelaikomi esminiais pakeitimais.
5. The Commission is empowered to adopt delegated acts in accordance with Article 97 in order to amend Annexes VI and VII by updating them in light of technical progress.
5. Komisijai suteikiami įgaliojimai pagal 97 straipsnį priimti deleguotuosius aktus, siekiant iš dalies pakeisti VI ir VII priedus, kad juos atnaujintų atsižvelgiant į techninę pažangą.
6. The Commission is empowered to adopt delegated acts in accordance with Article 97 in order to amend paragraphs 1 and 2 of this Article in order to subject high-risk AI systems referred to in points 2 to 8 of Annex III to the conformity assessment procedure referred to in Annex VII or parts thereof. The Commission shall adopt such delegated acts taking into account the effectiveness of the conformity assessment procedure based on internal control referred to in Annex VI in preventing or minimising the risks to health and safety and protection of fundamental rights posed by such systems, as well as the availability of adequate capacities and resources among notified bodies.
6. Komisijai suteikiami įgaliojimai pagal 97 straipsnį priimti deleguotuosius aktus, siekiant iš dalies pakeisti šio straipsnio 1 ir 2 dalis, kad III priedo 2–8 punktuose nurodytoms didelės rizikos DI sistemoms būtų taikoma VII priede nurodyta atitikties vertinimo procedūra arba jos dalis. Tokius deleguotuosius aktus Komisija priima atsižvelgdama į VI priede nurodytos vidaus kontrole grindžiamos atitikties vertinimo procedūros veiksmingumą siekiant užtikrinti, kad tokios sistemos nekeltų rizikos sveikatai, saugai ir pagrindinių teisių apsaugai, arba tokią riziką mažinti, taip pat į tai, ar notifikuotosios įstaigos turi pakankamai pajėgumų ir išteklių.
Article 44
44 straipsnis
Certificates
Sertifikatai
1. Certificates issued by notified bodies in accordance with Annex VII shall be drawn-up in a language which can be easily understood by the relevant authorities in the Member State in which the notified body is established.
1. Pagal VII priedą notifikuotųjų įstaigų išduodami sertifikatai parengiami valstybės narės, kurioje yra įsisteigusi notifikuotoji įstaiga, atitinkamoms institucijoms lengvai suprantama kalba.
2. Certificates shall be valid for the period they indicate, which shall not exceed five years for AI systems covered by Annex I, and four years for AI systems covered by Annex III. At the request of the provider, the validity of a certificate may be extended for further periods, each not exceeding five years for AI systems covered by Annex I, and four years for AI systems covered by Annex III, based on a re-assessment in accordance with the applicable conformity assessment procedures. Any supplement to a certificate shall remain valid, provided that the certificate which it supplements is valid.
2. Sertifikatai galioja juose nurodytą laikotarpį, kuris DI sistemų, kurioms taikomas I priedas, atveju negali būti ilgesnis nei penkeri metai, o DI sistemų, kurioms taikomas III priedas, atveju – ketveri metai. Tiekėjui paprašius, remiantis pakartotiniu vertinimu pagal taikytinas atitikties vertinimo procedūras, sertifikato galiojimas gali būti pratęstas papildomiems laikotarpiams, kurių nė vienas DI sistemų, kurioms taikomas I priedas, atveju negali būti ilgesnis nei penkeri metai, o DI sistemų, kurioms taikomas III priedas, atveju – ketveri metai. Bet koks sertifikato papildymas galioja tol, kol galioja sertifikatas, kurį jis papildo.
3. Where a notified body finds that an AI system no longer meets the requirements set out in Section 2, it shall, taking account of the principle of proportionality, suspend or withdraw the certificate issued or impose restrictions on it, unless compliance with those requirements is ensured by appropriate corrective action taken by the provider of the system within an appropriate deadline set by the notified body. The notified body shall give reasons for its decision.
3. Jei notifikuotoji įstaiga nustato, kad DI sistema nebeatitinka 2 skirsnyje nustatytų reikalavimų, ji, atsižvelgdama į proporcingumo principą, laikinai sustabdo arba panaikina išduoto sertifikato galiojimą arba nustato jo galiojimo apribojimus, nebent sistemos tiekėjas per atitinkamą notifikuotosios įstaigos nustatytą laikotarpį tinkamais taisomaisiais veiksmais užtikrina atitiktį tiems reikalavimams. Notifikuotoji įstaiga nurodo savo sprendimo priežastis.
An appeal procedure against decisions of the notified bodies, including on conformity certificates issued, shall be available.
Turi būti nustatyta notifikuotųjų įstaigų sprendimų, įskaitant sprendimus dėl išduotų atitikties sertifikatų, apskundimo procedūra.
Article 45
45 straipsnis
Information obligations of notified bodies
Notifikuotųjų įstaigų pareiga informuoti
1. Notified bodies shall inform the notifying authority of the following:
1. Notifikuotoji įstaiga informuoja notifikuojančiąją instituciją apie:
(a)
any Union technical documentation assessment certificates, any supplements to those certificates, and any quality management system approvals issued in accordance with the requirements of Annex VII;
a)
visus Sąjungos techninių dokumentų įvertinimo sertifikatus, tų sertifikatų papildymus ir visus kokybės valdymo sistemų patvirtinimus, išduotus pagal VII priedo reikalavimus;
(b)
any refusal, restriction, suspension or withdrawal of a Union technical documentation assessment certificate or a quality management system approval issued in accordance with the requirements of Annex VII;
b)
kiekvieną atsisakymą pagal VII priedo reikalavimus išduoti Sąjungos techninių dokumentų įvertinimo sertifikatą arba kokybės sistemos patvirtinimą ir apie kiekvieno tokio pagal tuos reikalavimus išduoto dokumento galiojimo apribojimą, laikiną sustabdymą ar panaikinimą;
(c)
any circumstances affecting the scope of or conditions for notification;
c)
visas aplinkybes, turinčias įtakos jos kaip notifikuotosios įstaigos įgaliojimų apimčiai ar jų suteikimo sąlygoms;
(d)
any request for information which they have received from market surveillance authorities regarding conformity assessment activities;
d)
kiekvieną iš rinkos priežiūros institucijų gautą prašymą pateikti informacijos, susijusios su atitikties vertinimo veikla;
(e)
on request, conformity assessment activities performed within the scope of their notification and any other activity performed, including cross-border activities and subcontracting.
e)
jei prašoma, atitikties vertinimo veiklą, vykdytą pagal jai kaip notifikuotajai įstaigai suteiktus įgaliojimus, ir bet kokią kitą vykdytą, pavyzdžiui, tarpvalstybinę ir subrangos, veiklą.
2. Each notified body shall inform the other notified bodies of:
2. Kiekviena notifikuotoji įstaiga informuoja kitas notifikuotąsias įstaigas apie:
(a)
quality management system approvals which it has refused, suspended or withdrawn, and, upon request, of quality system approvals which it has issued;
a)
kokybės valdymo sistemų patvirtinimus, kuriuos ji atsisakė išduoti arba kurių galiojimą ji laikinai sustabdė arba panaikino, o gavusi prašymą – ir apie išduotus kokybės valdymo sistemų patvirtinimus;
(b)
Union technical documentation assessment certificates or any supplements thereto which it has refused, withdrawn, suspended or otherwise restricted, and, upon request, of the certificates and/or supplements thereto which it has issued.
b)
Sąjungos techninių dokumentų įvertinimo sertifikatus arba jų papildymus, kuriuos ji atsisakė išduoti arba kurių galiojimą ji panaikino, laikinai sustabdė arba kitaip apribojo, o gavusi prašymą – ir apie išduotus sertifikatus ir (arba) jų papildymus.
3. Each notified body shall provide the other notified bodies carrying out similar conformity assessment activities covering the same types of AI systems with relevant information on issues relating to negative and, on request, positive conformity assessment results.
3. Kiekviena notifikuotoji įstaiga kitoms notifikuotosioms įstaigoms, vykdančioms panašią tokių pačių tipų DI sistemų atitikties vertinimo veiklą, teikia aktualią informaciją klausimais, susijusiais su neigiamais ir, jei prašoma, teigiamais atitikties vertinimo rezultatais.
4. Notified bodies shall safeguard the confidentiality of the information that they obtain, in accordance with Article 78.
4. Notifikuotosios įstaigos laikydamosi 78 straipsnio saugo gautos informacijos konfidencialumą.
Article 46
46 straipsnis
Derogation from conformity assessment procedure
Nukrypti nuo atitikties vertinimo procedūros leidžianti nuostata
1. By way of derogation from Article 43 and upon a duly justified request, any market surveillance authority may authorise the placing on the market or the putting into service of specific high-risk AI systems within the territory of the Member State concerned, for exceptional reasons of public security or the protection of life and health of persons, environmental protection or the protection of key industrial and infrastructural assets. That authorisation shall be for a limited period while the necessary conformity assessment procedures are being carried out, taking into account the exceptional reasons justifying the derogation. The completion of those procedures shall be undertaken without undue delay.
1. Nukrypdama nuo 43 straipsnio ir gavusi deramai pagrįstą prašymą, bet kuri rinkos priežiūros institucija gali dėl išskirtinių priežasčių, susijusių su visuomenės saugumu arba žmonių gyvybės ir sveikatos, aplinkos ar svarbiausių pramonės ir infrastruktūros objektų apsauga, leisti atitinkamos valstybės narės teritorijoje rinkai pateikti arba pradėti naudoti konkrečias didelės rizikos DI sistemas. Tas leidimas išduodamas ribotam laikotarpiui, per kurį atliekamos būtinos atitikties vertinimo procedūros, atsižvelgiant į išimtines nukrypti leidžiančią nuostatą pagrindžiančias priežastis. Tos procedūros užbaigiamos nepagrįstai nedelsiant.
2. In a duly justified situation of urgency for exceptional reasons of public security or in the case of specific, substantial and imminent threat to the life or physical safety of natural persons, law-enforcement authorities or civil protection authorities may put a specific high-risk AI system into service without the authorisation referred to in paragraph 1, provided that such authorisation is requested during or after the use without undue delay. If the authorisation referred to in paragraph 1 is refused, the use of the high-risk AI system shall be stopped with immediate effect and all the results and outputs of such use shall be immediately discarded.
2. Deramai pagrįstais skubos atvejais dėl išskirtinių visuomenės saugumo priežasčių arba konkrečios didelės ir neišvengiamos grėsmės fizinių asmenų gyvybei ar fiziniam saugumui atveju teisėsaugos institucijos arba civilinės saugos institucijos gali pradėti naudoti konkrečią didelės rizikos DI sistemą be 1 dalyje nurodyto leidimo, jeigu tokio leidimo nederamai nedelsiant paprašoma jos naudojimo metu arba po jo. Jei 1 dalyje nurodytą leidimą atsisakoma išduoti, didelės rizikos DI sistemos naudojimas nedelsiant nutraukiamas, o visi šio naudojimo rezultatai ir išvediniai nedelsiant ištrinami.
3. The authorisation referred to in paragraph 1 shall be issued only if the market surveillance authority concludes that the high-risk AI system complies with the requirements of Section 2. The market surveillance authority shall inform the Commission and the other Member States of any authorisation issued pursuant to paragraphs 1 and 2. This obligation shall not cover sensitive operational data in relation to the activities of law-enforcement authorities.
3. 1 dalyje nurodytas leidimas išduodamas tik jei rinkos priežiūros institucija padaro išvadą, kad didelės rizikos DI sistema atitinka 2 skirsnyje nustatytus reikalavimus. Rinkos priežiūros institucija informuoja Komisiją ir kitas valstybes nares apie visus pagal 1 ir 2 dalis išduotus leidimus. Ši pareiga netaikoma su teisėsaugos institucijų veikla susijusiems neskelbtiniems operatyviniams duomenims.
4. Where, within 15 calendar days of receipt of the information referred to in paragraph 3, no objection has been raised by either a Member State or the Commission in respect of an authorisation issued by a market surveillance authority of a Member State in accordance with paragraph 1, that authorisation shall be deemed justified.
4. Jei per 15 kalendorinių dienų nuo 3 dalyje nurodytos informacijos gavimo nei valstybės narės, nei Komisija nepareiškia prieštaravimų dėl valstybės narės rinkos priežiūros institucijos pagal 1 dalį išduoto leidimo, tas leidimas laikomas pagrįstu.
5. Where, within 15 calendar days of receipt of the notification referred to in paragraph 3, objections are raised by a Member State against an authorisation issued by a market surveillance authority of another Member State, or where the Commission considers the authorisation to be contrary to Union law, or the conclusion of the Member States regarding the compliance of the system as referred to in paragraph 3 to be unfounded, the Commission shall, without delay, enter into consultations with the relevant Member State. The operators concerned shall be consulted and have the possibility to present their views. Having regard thereto, the Commission shall decide whether the authorisation is justified. The Commission shall address its decision to the Member State concerned and to the relevant operators.
5. Jei per 15 kalendorinių dienų nuo 3 dalyje nurodyto pranešimo gavimo kuri nors valstybė narė pareiškia prieštaravimų dėl kitos valstybės narės rinkos priežiūros institucijos išduoto leidimo arba jei Komisija mano, kad leidimas prieštarauja Sąjungos teisei arba kad pagal 3 dalį valstybių narių padaryta išvada dėl sistemos atitikties yra nepagrįsta, Komisija nedelsdama pradeda konsultacijas su atitinkama valstybe nare. Konsultuojamasi su atitinkamais veiklos vykdytojais ir jiems suteikiama galimybė pareikšti savo nuomonę. Atsižvelgdama į tai, Komisija nusprendžia, ar leidimas yra pagrįstas. Savo sprendimą Komisija skiria atitinkamai valstybei narei ir atitinkamiems veiklos vykdytojams.
6. Where the Commission considers the authorisation unjustified, it shall be withdrawn by the market surveillance authority of the Member State concerned.
6. Jei Komisija nusprendžia, kad leidimas nepagrįstas, atitinkamos valstybės narės rinkos priežiūros institucija jį panaikina.
7. For high-risk AI systems related to products covered by Union harmonisation legislation listed in Section A of Annex I, only the derogations from the conformity assessment established in that Union harmonisation legislation shall apply.
7. Didelės rizikos DI sistemų, susijusių su gaminiais, kuriems taikomi I priedo A skirsnyje nurodyti Sąjungos derinamieji teisės aktai, atveju taikomos tik tuose Sąjungos derinamuosiuose teisės aktuose nustatytos nukrypti nuo atitikties vertinimo procedūros leidžiančios nuostatos.
Article 47
47 straipsnis
EU declaration of conformity
ES atitikties deklaracija
1. The provider shall draw up a written machine readable, physical or electronically signed EU declaration of conformity for each high-risk AI system, and keep it at the disposal of the national competent authorities for 10 years after the high-risk AI system has been placed on the market or put into service. The EU declaration of conformity shall identify the high-risk AI system for which it has been drawn up. A copy of the EU declaration of conformity shall be submitted to the relevant national competent authorities upon request.
1. Tiekėjas parengia kiekvienos didelės rizikos DI sistemos rašytinę kompiuterio skaitomą, fizinę arba elektroniniu būdu pasirašytą ES atitikties deklaraciją ir saugo ją 10 metų po tos didelės rizikos DI sistemos pateikimo rinkai arba naudojimo pradžios dienos, kad nacionalinės kompetentingos institucijos galėtų ją patikrinti. ES atitikties deklaracijoje nurodoma, kokiai konkrečiai didelės rizikos DI sistemai ji parengta. Gavus prašymą, ES atitikties deklaracijos kopija pateikiama atitinkamoms nacionalinėms kompetentingoms institucijoms.
2. The EU declaration of conformity shall state that the high-risk AI system concerned meets the requirements set out in Section 2. The EU declaration of conformity shall contain the information set out in Annex V, and shall be translated into a language that can be easily understood by the national competent authorities of the Member States in which the high-risk AI system is placed on the market or made available.
2. ES atitikties deklaracijoje nurodoma, kad atitinkama didelės rizikos DI sistema atitinka 2 skirsnyje nustatytus reikalavimus. ES atitikties deklaracijoje pateikiama V priede nurodyta informacija ir ta deklaracija išverčiama į valstybių narių, kuriose didelės rizikos DI sistema pateikiama rinkai ar tiekiama, nacionalinėms kompetentingoms institucijoms lengvai suprantamą kalbą.
3. Where high-risk AI systems are subject to other Union harmonisation legislation which also requires an EU declaration of conformity, a single EU declaration of conformity shall be drawn up in respect of all Union law applicable to the high-risk AI system. The declaration shall contain all the information required to identify the Union harmonisation legislation to which the declaration relates.
3. Jei didelės rizikos DI sistemoms taikomi ir kiti Sąjungos derinamieji teisės aktai, kuriuose taip pat reikalaujama ES atitikties deklaracijos, parengiama viena bendra su visais Sąjungos teisės aktais, taikomais tai didelės rizikos DI sistemai, susijusi ES atitikties deklaracija. Deklaracijoje pateikiama visa informacija, būtina norint nustatyti Sąjungos derinamuosius teisės aktus, su kuriais ta deklaracija yra susijusi.
4. By drawing up the EU declaration of conformity, the provider shall assume responsibility for compliance with the requirements set out in Section 2. The provider shall keep the EU declaration of conformity up-to-date as appropriate.
4. Parengdamas ES atitikties deklaraciją tiekėjas prisiima atsakomybę už atitiktį 2 skirsnyje nustatytiems reikalavimams. Tiekėjas užtikrina, kad ES atitikties deklaracija būtų tinkamai atnaujinama.
5. The Commission is empowered to adopt delegated acts in accordance with Article 97 in order to amend Annex V by updating the content of the EU declaration of conformity set out in that Annex, in order to introduce elements that become necessary in light of technical progress.
5. Komisija suteikiami įgaliojimai pagal 97 straipsnį priimti deleguotuosius aktus, siekiant iš dalies pakeisti V priedą, kad būtų atnaujintas tame priede išdėstytos ES atitikties deklaracijos turinys, siekiant į jį įtraukti elementus, kurie tampa būtini atsižvelgiant į technikos pažangą.
Article 48
48 straipsnis
CE marking
CE ženklas
1. The CE marking shall be subject to the general principles set out in Article 30 of Regulation (EC) No 765/2008.
1. Ženklinimui CE ženklu taikomi Reglamento (EB) Nr. 765/2008 30 straipsnyje nustatyti bendrieji principai.
2. For high-risk AI systems provided digitally, a digital CE marking shall be used, only if it can easily be accessed via the interface from which that system is accessed or via an easily accessible machine-readable code or other electronic means.
2. Didelės rizikos DI sistemų, kurios teikiamos skaitmenine forma, atveju skaitmeninis CE ženklas naudojamas tik tuo atveju, jei jį galima lengvai pasiekti per sąsają, kuria naudojantis galima prisijungti prie tos sistemos, arba per lengvai prieinamą kompiuterio skaitomą kodą ar kitas elektronines priemones.
3. The CE marking shall be affixed visibly, legibly and indelibly for high-risk AI systems. Where that is not possible or not warranted on account of the nature of the high-risk AI system, it shall be affixed to the packaging or to the accompanying documentation, as appropriate.
3. Didelės rizikos DI sistemos CE ženklu ženklinamos taip, kad jis būtų matomas, įskaitomas ir nenutrinamas. Tais atvejais, kai toks ženklinimas neįmanomas arba neužtikrinamas dėl didelės rizikos DI sistemos pobūdžio, šiuo ženklu atitinkamai pažymima pakuotė arba pridedami dokumentai.
4. Where applicable, the CE marking shall be followed by the identification number of the notified body responsible for the conformity assessment procedures set out in Article 43. The identification number of the notified body shall be affixed by the body itself or, under its instructions, by the provider or by the provider’s authorised representative. The identification number shall also be indicated in any promotional material which mentions that the high-risk AI system fulfils the requirements for CE marking.
4. Jei taikytina, prie CE ženklo nurodomas notifikuotosios įstaigos, atsakingos už 43 straipsnyje nustatytas atitikties vertinimo procedūras, identifikacinis numeris. Notifikuotosios įstaigos identifikaciniu numeriu gaminį pažymi pati notifikuotoji įstaiga arba jos nurodymu tą padaro tiekėjas arba tiekėjo įgaliotasis atstovas. Identifikacinis numeris taip pat nurodomas visoje reklaminėje medžiagoje, kurioje nurodoma, kad didelės rizikos DI sistema atitinka žymėjimo CE ženklu reikalavimus.
5. Where high-risk AI systems are subject to other Union law which also provides for the affixing of the CE marking, the CE marking shall indicate that the high-risk AI system also fulfil the requirements of that other law.
5. Jeigu didelės rizikos DI sistemoms taikomi kiti Sąjungos teisės aktai, kuriais taip pat numatytas ženklinimas CE ženklu, CE ženklu nurodoma, kad didelės rizikos DI sistemos atitinka ir tų kitų teisės aktų reikalavimus.
Article 49
49 straipsnis
Registration
Registravimas
1. Before placing on the market or putting into service a high-risk AI system listed in Annex III, with the exception of high-risk AI systems referred to in point 2 of Annex III, the provider or, where applicable, the authorised representative shall register themselves and their system in the EU database referred to in Article 71.
1. Prieš pateikdamas rinkai arba pradėdamas naudoti III priede nurodytą didelės rizikos DI sistemą, išskyrus III priedo 2 punkte nurodytas didelės rizikos DI sistemas, tiekėjas arba, jei taikytina, įgaliotasis atstovas 71 straipsnyje nurodytoje ES duomenų bazėje užsiregistruoja pats ir užregistruoja savo sistemas.
2. Before placing on the market or putting into service an AI system for which the provider has concluded that it is not high-risk according to Article 6(3), that provider or, where applicable, the authorised representative shall register themselves and that system in the EU database referred to in Article 71.
2. Prieš pateikdamas rinkai arba pradėdamas naudoti DI sistemą, kurios atžvilgiu tiekėjas yra padaręs išvadą, kad tai nėra didelės rizikos sistema pagal 6 straipsnio 3 dalį, tas tiekėjas arba, jei taikytina, įgaliotasis atstovas 71 straipsnyje nurodytoje ES duomenų bazėje užsiregistruoja pats ir užregistruoja tą sistemą.
3. Before putting into service or using a high-risk AI system listed in Annex III, with the exception of high-risk AI systems listed in point 2 of Annex III, deployers that are public authorities, Union institutions, bodies, offices or agencies or persons acting on their behalf shall register themselves, select the system and register its use in the EU database referred to in Article 71.
3. Prieš pradėdami naudoti arba naudodami III priede nurodytą didelės rizikos DI sistemą, išskyrus III priedo 2 punkte išvardytas didelės rizikos DI sistemas, diegėjai, kurie yra valdžios institucijos, Sąjungos institucijos, įstaigos, organai ar agentūros arba jų vardu veikiantys asmenys, 71 straipsnyje nurodytoje ES duomenų bazėje užsiregistruoja patys, pasirenka sistemą ir užregistruoja jos naudojimą.
4. For high-risk AI systems referred to in points 1, 6 and 7 of Annex III, in the areas of law enforcement, migration, asylum and border control management, the registration referred to in paragraphs 1, 2 and 3 of this Article shall be in a secure non-public section of the EU database referred to in Article 71 and shall include only the following information, as applicable, referred to in:
4. III priedo 1, 6 ir 7 punktuose nurodytos didelės rizikos DI sistemos, taikomos teisėsaugos, migracijos, prieglobsčio ir sienų kontrolės valdymo srityse, pagal šio straipsnio 1, 2 ir 3 dalis užregistruojamos 71 straipsnyje nurodytos ES duomenų bazės saugioje neviešoje dalyje ir, kai taikytina, apima tik šią informaciją, nurodytą:
(a)
Section A, points 1 to 10, of Annex VIII, with the exception of points 6, 8 and 9;
a)
VIII priedo A skirsnio 1–10 punktuose, išskyrus 6, 8 ir 9 punktus;
(b)
Section B, points 1 to 5, and points 8 and 9 of Annex VIII;
b)
VIII priedo B skirsnio 1–5 punktuose ir 8 bei 9 punktuose;
(c)
Section C, points 1 to 3, of Annex VIII;
c)
VIII priedo C skirsnio 1–3 punktuose;
(d)
points 1, 2, 3 and 5, of Annex IX.
d)
IX priedo 1, 2 ir 3 punktuose bei 5 punkte.
Only the Commission and national authorities referred to in Article 74(8) shall have access to the respective restricted sections of the EU database listed in the first subparagraph of this paragraph.
Tik Komisijai ir nacionalinėms institucijoms, nurodytoms 74 straipsnio 8 dalyje, suteikiama prieiga prie atitinkamų šios dalies pirmoje pastraipoje išvardytų ES duomenų bazės riboto naudojimo dalių.
5. High-risk AI systems referred to in point 2 of Annex III shall be registered at national level.
5. III priedo 2 punkte nurodytos didelės rizikos DI sistemos užregistruojamos nacionaliniu lygmeniu.
CHAPTER IV
IV SKYRIUS
TRANSPARENCY OBLIGATIONS FOR PROVIDERS AND DEPLOYERS OF CERTAIN AI SYSTEMS
TAM TIKRŲ DI SISTEMŲ TIEKĖJAMS IR DIEGĖJAMS TAIKOMOS SKAIDRUMO PAREIGOS
Article 50
50 straipsnis
Transparency obligations for providers and deployers of certain AI systems
Tam tikrų DI sistemų tiekėjams ir diegėjams taikomos skaidrumo pareigos
1. Providers shall ensure that AI systems intended to interact directly with natural persons are designed and developed in such a way that the natural persons concerned are informed that they are interacting with an AI system, unless this is obvious from the point of view of a natural person who is reasonably well-informed, observant and circumspect, taking into account the circumstances and the context of use. This obligation shall not apply to AI systems authorised by law to detect, prevent, investigate or prosecute criminal offences, subject to appropriate safeguards for the rights and freedoms of third parties, unless those systems are available for the public to report a criminal offence.
1. Tiekėjai užtikrina, kad DI sistemos, kurių paskirtis – tiesiogiai sąveikauti su fiziniais asmenimis, būtų suprojektuotos ir sukurtos taip, kad atitinkami fiziniai asmenys būtų informuojami apie tai, kad jie sąveikauja su DI sistema, nebent fiziniam asmeniui, kuris yra pagrįstai informuotas, pastabus ir nuovokus, tai būtų akivaizdu, atsižvelgiant į aplinkybes ir naudojimo kontekstą. Ši pareiga netaikoma DI sistemoms, kurias pagal teisės aktus leidžiama naudoti siekiant nustatyti nusikalstamas veikas, užkirsti joms kelią, jas tirti ir už jas patraukti baudžiamojon atsakomybėn, taikant atitinkamas trečiųjų šalių teisių ir laisvių apsaugos priemones, nebent tomis sistemomis leidžiama naudotis visuomenei pranešimo apie nusikalstamą veiką tikslais.
2. Providers of AI systems, including general-purpose AI systems, generating synthetic audio, image, video or text content, shall ensure that the outputs of the AI system are marked in a machine-readable format and detectable as artificially generated or manipulated. Providers shall ensure their technical solutions are effective, interoperable, robust and reliable as far as this is technically feasible, taking into account the specificities and limitations of various types of content, the costs of implementation and the generally acknowledged state of the art, as may be reflected in relevant technical standards. This obligation shall not apply to the extent the AI systems perform an assistive function for standard editing or do not substantially alter the input data provided by the deployer or the semantics thereof, or where authorised by law to detect, prevent, investigate or prosecute criminal offences.
2. DI sistemų, įskaitant bendrosios paskirties DI sistemas, kuriomis sugeneruojamas sintetinis judamo ar nejudamo vaizdo arba garso ar tekstinis turinys, tiekėjai užtikrina, kad DI sistemos išvediniai būtų pažymėti kompiuterio skaitomu formatu ir kad būtų galima atpažinti, jog jie yra sugeneruoti dirbtinai arba manipuliuojant. Tiekėjai užtikrina, kad jų techniniai sprendimai būtų veiksmingi, sąveikūs, pagrįsti ir patikimi, kiek tai techniškai įmanoma, atsižvelgiant į įvairių rūšių turinio ypatumus ir ribotumus, įgyvendinimo sąnaudas ir visuotinai pripažintus pažangiausius metodus, kurie gali būtų atspindėti atitinkamuose techniniuose standartuose. Ši pareiga netaikoma, jei DI sistemomis atliekama pagalbinė standartinio redagavimo funkcija arba iš esmės nepakeičiami diegėjo pateikti įvesties duomenys ar jų semantika, arba kai tai leidžiama pagal teisės aktus siekiant nustatyti nusikalstamas veikas, užkirsti joms kelią, jas tirti ar už jas patraukti baudžiamojon atsakomybėn.
3. Deployers of an emotion recognition system or a biometric categorisation system shall inform the natural persons exposed thereto of the operation of the system, and shall process the personal data in accordance with Regulations (EU) 2016/679 and (EU) 2018/1725 and Directive (EU) 2016/680, as applicable. This obligation shall not apply to AI systems used for biometric categorisation and emotion recognition, which are permitted by law to detect, prevent or investigate criminal offences, subject to appropriate safeguards for the rights and freedoms of third parties, and in accordance with Union law.
3. Emocijų atpažinimo sistemos arba biometrinio kategorizavimo sistemos diegėjai informuoja fizinius asmenis, kuriems šios sistemos taikomos, apie jų veikimą, o asmens duomenis tvarko laikydamiesi atitinkamai reglamentų (ES) 2016/679 bei (ES) 2018/1725 ir Direktyvos (ES) 2016/680. Ši pareiga netaikoma DI sistemoms, naudojamoms biometriniam kategorizavimui ir emocijų atpažinimui, kurias pagal teisės aktus leidžiama naudoti siekiant nustatyti nusikalstamas veikas, užkirsti joms kelią, jas tirti ir už jas patraukti baudžiamojon atsakomybėn, taikant atitinkamas trečiųjų šalių teisių bei laisvių apsaugos priemones ir laikantis Sąjungos teisės.
4. Deployers of an AI system that generates or manipulates image, audio or video content constituting a deep fake, shall disclose that the content has been artificially generated or manipulated. This obligation shall not apply where the use is authorised by law to detect, prevent, investigate or prosecute criminal offence. Where the content forms part of an evidently artistic, creative, satirical, fictional or analogous work or programme, the transparency obligations set out in this paragraph are limited to disclosure of the existence of such generated or manipulated content in an appropriate manner that does not hamper the display or enjoyment of the work.
4. DI sistemos, kuria generuojamas arba atlikus manipuliacijas gaunamas sintetinę sankaitą sudarantis judamo ar nejudamo vaizdo arba garso turinys, diegėjai atskleidžia, kad toks turinys yra sugeneruotas dirbtinai arba manipuliuojant. Ši pareiga netaikoma, kai naudojimas leidžiamas pagal teisės aktus siekiant nustatyti nusikalstamas veikas, užkirsti joms kelią, jas tirti ar už jas patraukti baudžiamojon atsakomybėn. Tais atvejais, kai turinys yra akivaizdžiai meninio, kūrybinio, satyrinio, išgalvoto ar analogiško kūrinio ar programos dalis, šioje dalyje nustatyti skaidrumo reikalavimai apima tik tokio sugeneruoto turinio ar turinio, gauto atlikus manipuliacijas, buvimo fakto atskleidimą tinkamu būdu, kuris netrukdo rodyti kūrinį ar juo mėgautis.
Deployers of an AI system that generates or manipulates text which is published with the purpose of informing the public on matters of public interest shall disclose that the text has been artificially generated or manipulated. This obligation shall not apply where the use is authorised by law to detect, prevent, investigate or prosecute criminal offences or where the AI-generated content has undergone a process of human review or editorial control and where a natural or legal person holds editorial responsibility for the publication of the content.
DI sistemos, kuria generuojamas arba kuria atlikus manipuliacijas gaunamas tekstas, paskelbiamas siekiant informuoti visuomenę viešojo intereso klausimais, diegėjai atskleidžia, kad tekstas yra sugeneruotas dirbtinai arba manipuliuojant. Ši pareiga netaikoma tais atvejais, kai naudoti leidžiama pagal teisės aktus siekiant nustatyti nusikalstamas veikas, užkirsti joms kelią, jas tirti ar už jas patraukti baudžiamojon atsakomybėn arba kai DI sugeneruotam turiniui buvo taikomas žmogaus atliekamos peržiūros arba redakcinės kontrolės procesas, o fizinis ar juridinis asmuo prisiima redakcinę atsakomybę už turinio paskelbimą.
5. The information referred to in paragraphs 1 to 4 shall be provided to the natural persons concerned in a clear and distinguishable manner at the latest at the time of the first interaction or exposure. The information shall conform to the applicable accessibility requirements.
5. 1–4 dalyse nurodyta informacija atitinkamiems fiziniams asmenims pateikiama aiškiai ir matomai ne vėliau nei pirmosios sąveikos arba sistemos panaudojimo jų atžvilgiu metu. Informacija turi atitikti taikomus prieinamumo reikalavimus.
6. Paragraphs 1 to 4 shall not affect the requirements and obligations set out in Chapter III, and shall be without prejudice to other transparency obligations laid down in Union or national law for deployers of AI systems.
6. 1–4 dalys nedaro poveikio III skyriuje nustatytiems reikalavimams bei pareigoms ir nedaro poveikio kitoms Sąjungos ar nacionalinės teisės aktuose nustatytoms DI sistemų diegėjų skaidrumo pareigoms.
7. The AI Office shall encourage and facilitate the drawing up of codes of practice at Union level to facilitate the effective implementation of the obligations regarding the detection and labelling of artificially generated or manipulated content. The Commission may adopt implementing acts to approve those codes of practice in accordance with the procedure laid down in Article 56 (6). If it deems the code is not adequate, the Commission may adopt an implementing act specifying common rules for the implementation of those obligations in accordance with the examination procedure laid down in Article 98(2).
7. DI tarnyba skatina ir palengvina praktikos kodeksų rengimą Sąjungos lygmeniu, kad būtų sudarytos palankesnės sąlygos veiksmingai įgyvendinti pareigas, susijusias su turinio, kuris yra sugeneruotas dirbtinai arba manipuliuojant, aptikimu ir ženklinimu. Komisija gali priimti įgyvendinimo aktus, kuriais tie praktikos kodeksai būtų patvirtinti laikantis 56 straipsnio 6 dalyje nustatytos tvarkos. Jei Komisija mano, kad kodeksas nėra tinkama priemonė, ji gali priimti įgyvendinimo aktą, kuriame būtų išsamiai nustatytos bendros tų pareigų vykdymo taisyklės, laikantis 98 straipsnio 2 dalyje nurodytos nagrinėjimo procedūros.
CHAPTER V
V SKYRIUS
GENERAL-PURPOSE AI MODELS
BENDROSIOS PASKIRTIES DI MODELIAI
SECTION 1
1 SKIRSNIS
Classification rules
Priskyrimo taisyklės
Article 51
51 straipsnis
Classification of general-purpose AI models as general-purpose AI models with systemic risk
Bendrosios paskirties DI modelių priskyrimas sisteminės rizikos bendrosios paskirties DI modeliams
1. A general-purpose AI model shall be classified as a general-purpose AI model with systemic risk if it meets any of the following conditions:
1. Bendrosios paskirties DI modelis priskiriamas sisteminės rizikos bendrosios paskirties DI modeliui, jei jis atitinka kurią nors iš šių sąlygų:
(a)
it has high impact capabilities evaluated on the basis of appropriate technical tools and methodologies, including indicators and benchmarks;
a)
turi didelio poveikio pajėgumų, vertinamų remiantis atitinkamomis techninėmis priemonėmis ir metodikomis, įskaitant rodiklius ir lyginamuosius parametrus;
(b)
based on a decision of the Commission, ex officio or following a qualified alert from the scientific panel, it has capabilities or an impact equivalent to those set out in point (a) having regard to the criteria set out in Annex XIII.
b)
remiantis Komisijos sprendimu, ex officio arba gavus kvalifikuotą mokslinės komisijos perspėjimą, jo pajėgumai arba poveikis, atsižvelgiant į XIII priede nustatytus kriterijus, yra lygiaverčiai a punkte nustatytiems pajėgumams arba poveikiui.
2. A general-purpose AI model shall be presumed to have high impact capabilities pursuant to paragraph 1, point (a), when the cumulative amount of computation used for its training measured in floating point operations is greater than 1025.
2. Preziumuojama, kad bendrosios paskirties DI modelis turi didelio poveikio pajėgumų pagal 1 dalies a punktą, kai jo mokymui naudojama bendra skaičiuojamoji galia, išreikšta slankiojo kablelio operacijomis, yra didesnė nei 1025.
3. The Commission shall adopt delegated acts in accordance with Article 97 to amend the thresholds listed in paragraphs 1 and 2 of this Article, as well as to supplement benchmarks and indicators in light of evolving technological developments, such as algorithmic improvements or increased hardware efficiency, when necessary, for these thresholds to reflect the state of the art.
3. Komisija pagal 97 straipsnį priima deleguotuosius aktus, kuriais iš dalies keičiamos šio straipsnio 1 ir 2 dalyse išvardytos ribinės vertės, taip pat papildomi lyginamieji parametrai ir rodikliai, atsižvelgiant į vykstančią technologinę plėtrą, pavyzdžiui, algoritmų patobulinimus arba padidėjusį aparatinės įrangos efektyvumą, kad prireikus šios ribinės vertės atspindėtų pažangiausius metodus.
Article 52
52 straipsnis
Procedure
Procedūra
1. Where a general-purpose AI model meets the condition referred to in Article 51(1), point (a), the relevant provider shall notify the Commission without delay and in any event within two weeks after that requirement is met or it becomes known that it will be met. That notification shall include the information necessary to demonstrate that the relevant requirement has been met. If the Commission becomes aware of a general-purpose AI model presenting systemic risks of which it has not been notified, it may decide to designate it as a model with systemic risk.
1. Jei bendrosios paskirties DI modelis atitinka 51 straipsnio 1 dalies a punkte nurodytą sąlygą, atitinkamas tiekėjas nedelsdamas ir bet kuriuo atveju per dvi savaites po to, kai reikalavimas įvykdomas arba sužinoma, kad jis bus įvykdytas, praneša apie tai Komisijai. Tame pranešime pateikiama informacija, būtina įrodyti, kad atitinkamas reikalavimas įvykdytas. Jei Komisija sužino apie bendrosios paskirties DI modelį, kuris kelia sisteminę riziką, ir apie kurį jai nebuvo pranešta, ji gali nuspręsti jį priskirti sisteminės rizikos modeliams.
2. The provider of a general-purpose AI model that meets the condition referred to in Article 51(1), point (a), may present, with its notification, sufficiently substantiated arguments to demonstrate that, exceptionally, although it meets that requirement, the general-purpose AI model does not present, due to its specific characteristics, systemic risks and therefore should not be classified as a general-purpose AI model with systemic risk.
2. Bendrosios paskirties DI modelio, atitinkančio 51 straipsnio 1 dalies a punkte nurodytą sąlygų, tiekėjas kartu su pranešimu gali pateikti pakankamai pagrįstų argumentų, kad įrodytų, jog bendrosios paskirties DI modelis, nors ir atitinka tą reikalavimą, dėl savo specifinių savybių nekelia sisteminės rizikos, todėl išimties tvarka neturėtų būti priskiriamas sisteminės rizikos bendrosios paskirties DI modeliams.
3. Where the Commission concludes that the arguments submitted pursuant to paragraph 2 are not sufficiently substantiated and the relevant provider was not able to demonstrate that the general-purpose AI model does not present, due to its specific characteristics, systemic risks, it shall reject those arguments, and the general-purpose AI model shall be considered to be a general-purpose AI model with systemic risk.
3. Jei Komisija padaro išvadą, kad pagal 2 dalį pateikti argumentai nėra pakankamai pagrįsti ir atitinkamas tiekėjas nepajėgė įrodyti, kad bendrosios paskirties DI modelis dėl savo specifinių savybių nekelia sisteminės rizikos, ji tuos argumentus atmeta, o bendrosios paskirties DI modelis laikomas sisteminės rizikos bendrosios paskirties DI modeliu.
4. The Commission may designate a general-purpose AI model as presenting systemic risks, ex officio or following a qualified alert from the scientific panel pursuant to Article 90(1), point (a), on the basis of criteria set out in Annex XIII.
4. Komisija gali priskirti bendrosios paskirties DI modelį sisteminės rizikos modeliams ex officio arba gavusi kvalifikuotą mokslinės komisijos perspėjimą pagal 90 straipsnio 1 dalies a punktą, remdamasi XIII priede nustatytais kriterijais.
The Commission is empowered to adopt delegated acts in accordance with Article 97 in order to amend Annex XIII by specifying and updating the criteria set out in that Annex.
Komisijai suteikiami įgaliojimai pagal 97 straipsnį priimti deleguotuosius aktus, siekiant iš dalies pakeisti XIII priedą, patikslindama ir atnaujindama tame priede išdėstytus kriterijus.
5. Upon a reasoned request of a provider whose model has been designated as a general-purpose AI model with systemic risk pursuant to paragraph 4, the Commission shall take the request into account and may decide to reassess whether the general-purpose AI model can still be considered to present systemic risks on the basis of the criteria set out in Annex XIII. Such a request shall contain objective, detailed and new reasons that have arisen since the designation decision. Providers may request reassessment at the earliest six months after the designation decision. Where the Commission, following its reassessment, decides to maintain the designation as a general-purpose AI model with systemic risk, providers may request reassessment at the earliest six months after that decision.
5. Gavusi pagrįstą tiekėjo, kurio bendrosios paskirties DI modelis pagal 4 dalį priskirtas sisteminės rizikos modeliams, prašymą, Komisija atsižvelgia į prašymą ir gali nuspręsti iš naujo įvertinti, ar remiantis XIII priede nustatytais kriterijais šis bendrosios paskirties DI modelis vis dar gali būti laikomas sisteminės rizikos modeliu. Tokiame prašyme nurodomos objektyvios, išsamios ir naujos priežastys, atsiradusios po sprendimo dėl priskyrimo priėmimo. Tiekėjai gali prašyti atlikti pakartotinį vertinimą ne anksčiau kaip praėjus šešiems mėnesiams po sprendimo dėl priskyrimo priėmimo. Jei Komisija, atlikusi pakartotinį vertinimą, nusprendžia, kad atitinkamas modelis turi likti priskirtas sisteminės rizikos bendrosios paskirties DI modeliams, tiekėjai gali prašyti atlikti pakartotinį vertinimą ne anksčiau kaip praėjus šešiems mėnesiams po to sprendimo priėmimo.
6. The Commission shall ensure that a list of general-purpose AI models with systemic risk is published and shall keep that list up to date, without prejudice to the need to observe and protect intellectual property rights and confidential business information or trade secrets in accordance with Union and national law.
6. Komisija užtikrina, kad būtų paskelbtas sisteminės rizikos bendrosios paskirties DI modelių sąrašas, ir nuolat jį atnaujina, nedarant poveikio poreikiui paisyti intelektinės nuosavybės teisių ir verslo informacijos konfidencialumo ar komercinių paslapčių ir juos saugoti pagal Sąjungos ir nacionalinę teisę.
SECTION 2
2 SKIRSNIS
Obligations for providers of general-purpose AI models
Bendrosios paskirties DI modelių tiekėjų pareigos
Article 53
53 straipsnis
Obligations for providers of general-purpose AI models
Bendrosios paskirties DI modelių tiekėjų pareigos
1. Providers of general-purpose AI models shall:
1. Bendrosios paskirties DI modelių tiekėjai:
(a)
draw up and keep up-to-date the technical documentation of the model, including its training and testing process and the results of its evaluation, which shall contain, at a minimum, the information set out in Annex XI for the purpose of providing it, upon request, to the AI Office and the national competent authorities;
a)
rengia ir nuolat atnaujina modelio, be kita ko, jo mokymo ir bandymo proceso, taip pat jo vertinimo rezultatų, techninius dokumentus, į kuriuos įtraukiami bent XI priede nustatyta informacija, kad paprašius ji būtų pateikta DI tarnybai ir nacionalinėms kompetentingoms institucijoms;
(b)
draw up, keep up-to-date and make available information and documentation to providers of AI systems who intend to integrate the general-purpose AI model into their AI systems. Without prejudice to the need to observe and protect intellectual property rights and confidential business information or trade secrets in accordance with Union and national law, the information and documentation shall:
b)
rengia, nuolat atnaujina ir teikia informaciją ir dokumentus DI sistemų tiekėjams, kurie ketina bendrosios paskirties DI modelį integruoti į savo DI sistemas. Nedarant poveikio poreikiui gerbti ir apsaugoti intelektinės nuosavybės teises ir verslo informacijos konfidencialumą arba komercines paslaptis pagal Sąjungos ir nacionalinę teisę, informacija ir dokumentai:
(i)
enable providers of AI systems to have a good understanding of the capabilities and limitations of the general-purpose AI model and to comply with their obligations pursuant to this Regulation; and
i)
sudaro sąlygas DI sistemų tiekėjams gerai suprasti bendrosios paskirties DI modelio pajėgumus bei ribotumus ir vykdyti savo pareigas pagal šį reglamentą ir
(ii)
contain, at a minimum, the elements set out in Annex XII;
ii)
apima bent XII priede nustatytus elementus;
(c)
put in place a policy to comply with Union law on copyright and related rights, and in particular to identify and comply with, including through state-of-the-art technologies, a reservation of rights expressed pursuant to Article 4(3) of Directive (EU) 2019/790;
c)
padeda įdiegti politiką, kad būtų laikomasi Sąjungos autorių ir gretutinių teisių teisės, visų pirma nustatyti teisių apribojimą pagal Direktyvos (ES) 2019/790 4 straipsnio 3 dalį, ir jos laikytis, be kita ko, pasitelkiant pažangiausias technologijas;
(d)
draw up and make publicly available a sufficiently detailed summary about the content used for training of the general-purpose AI model, according to a template provided by the AI Office.
d)
parengia ir viešai paskelbia pakankamai išsamią turinio, naudojamo bendrosios paskirties DI modelio mokymui, santrauką pagal DI tarnybos pateiktą šabloną.
2. The obligations set out in paragraph 1, points (a) and (b), shall not apply to providers of AI models that are released under a free and open-source licence that allows for the access, usage, modification, and distribution of the model, and whose parameters, including the weights, the information on the model architecture, and the information on model usage, are made publicly available. This exception shall not apply to general-purpose AI models with systemic risks.
2. 1 dalies a ir b punktuose nustatytos pareigos netaikomos DI modelių, kurie išleidžiami pagal nemokamą ir atvirojo kodo licenciją, kuria suteikiama prieiga prie modelio, leidžiama jį naudoti, keisti ir platinti, tiekėjams, ir kurių parametrai, įskaitant svorius, informaciją apie modelio architektūrą ir informaciją apie modelio naudojimą, skelbiami viešai. Ši išimtis netaikoma sisteminės rizikos bendrosios paskirties DI modeliams.
3. Providers of general-purpose AI models shall cooperate as necessary with the Commission and the national competent authorities in the exercise of their competences and powers pursuant to this Regulation.
3. Naudodamiesi savo kompetencija ir įgaliojimais pagal šį reglamentą bendrosios paskirties DI modelių tiekėjai prireikus bendradarbiauja su Komisija ir nacionalinėmis kompetentingomis institucijomis.
4. Providers of general-purpose AI models may rely on codes of practice within the meaning of Article 56 to demonstrate compliance with the obligations set out in paragraph 1 of this Article, until a harmonised standard is published. Compliance with European harmonised standards grants providers the presumption of conformity to the extent that those standards cover those obligations. Providers of general-purpose AI models who do not adhere to an approved code of practice or do not comply with a European harmonised standard shall demonstrate alternative adequate means of compliance for assessment by the Commission.
4. Bendrosios paskirties DI modelių tiekėjai, siekdami įrodyti, kad laikosi šio straipsnio 1 dalyje nustatytų pareigų, gali remtis praktikos kodeksais, kaip tai suprantama 56 straipsnyje, kol bus paskelbtas darnusis standartas. Atitiktis preziumuojama, jei tiekėjai laikosi Europos darniųjų standartų, tokia apimtimi, kokia tie standartai apima tas pareigas. Bendrosios paskirties DI modelių tiekėjai, kurie nesilaiko patvirtinto praktikos kodekso arba nesilaiko Europos darniojo standarto, privalo įrodyti alternatyvias tinkamas atitikties užtikrinimo priemones, kad jas įvertintų Komisija.
5. For the purpose of facilitating compliance with Annex XI, in particular points 2 (d) and (e) thereof, the Commission is empowered to adopt delegated acts in accordance with Article 97 to detail measurement and calculation methodologies with a view to allowing for comparable and verifiable documentation.
5. Siekdama sudaryti palankesnes sąlygas laikytis XI priedo, ypač jo 2 punkto d ir e papunkčių, Komisijai suteikiami įgaliojimai pagal 97 straipsnį priimti deleguotuosius aktus, kuriuose išsamiai išdėstomos matavimo ir skaičiavimo metodikos, kad būtų galima parengti palyginamus ir patikrinamus dokumentus.
6. The Commission is empowered to adopt delegated acts in accordance with Article 97(2) to amend Annexes XI and XII in light of evolving technological developments.
6. Komisijai suteikiami įgaliojimai pagal 97 straipsnio 2 dalį priima deleguotuosius aktus, kuriais, atsižvelgiant į vykstančią technologinę plėtrą, iš dalies keičiami XI ir XII priedai.
7. Any information or documentation obtained pursuant to this Article, including trade secrets, shall be treated in accordance with the confidentiality obligations set out in Article 78.
7. Visa pagal šį straipsnį gauta informacija ir dokumentai, įskaitant komercines paslaptis, tvarkomi laikantis 78 straipsnyje nustatytų konfidencialumo pareigų.
Article 54
54 straipsnis
Authorised representatives of providers of general-purpose AI models
Bendrosios paskirties DI modelių tiekėjų įgaliotieji atstovai
1. Prior to placing a general-purpose AI model on the Union market, providers established in third countries shall, by written mandate, appoint an authorised representative which is established in the Union.
1. Prieš pateikdami bendrosios paskirties DI modelį Sąjungos rinkai, trečiosiose valstybėse įsisteigę tiekėjai rašytiniu įgaliojimu paskiria Sąjungoje įsisteigusį įgaliotąjį atstovą.
2. The provider shall enable its authorised representative to perform the tasks specified in the mandate received from the provider.
2. Tiekėjas paveda įgaliotajam atstovui atlikti tiekėjo suteiktame įgaliojime nurodytas užduotis.
3. The authorised representative shall perform the tasks specified in the mandate received from the provider. It shall provide a copy of the mandate to the AI Office upon request, in one of the official languages of the institutions of the Union. For the purposes of this Regulation, the mandate shall empower the authorised representative to carry out the following tasks:
3. Įgaliotasis atstovas atlieka tiekėjo suteiktame įgaliojime nurodytas užduotis. Gavęs prašymą, jis DI tarnybai pateikia įgaliojimo kopiją viena iš oficialiųjų Sąjungos institucijų kalbų. Šio reglamento tikslais įgaliojimu įgaliotajam atstovui suteikiama teisė atlikti šias užduotis:
(a)
verify that the technical documentation specified in Annex XI has been drawn up and all obligations referred to in Article 53 and, where applicable, Article 55 have been fulfilled by the provider;
a)
tikrinti, ar parengti XI priede nurodyti techniniai dokumentai ir ar tiekėjas įvykdė visas 53 straipsnyje ir, kai taikytina, 55 straipsnyje nurodytas pareigas;
(b)
keep a copy of the technical documentation specified in Annex XI at the disposal of the AI Office and national competent authorities, for a period of 10 years after the general-purpose AI model has been placed on the market, and the contact details of the provider that appointed the authorised representative;
b)
10 metų po bendrosios paskirties DI modelio pateikimo rinkai saugoti XI priede nurodytų techninių dokumentų kopijas, kad DI tarnyba ir nacionalinės kompetentingos institucijos galėtų juos patikrinti, ir, įgaliotąjį atstovą paskyrusio tiekėjo kontaktinius duomenis;
(c)
provide the AI Office, upon a reasoned request, with all the information and documentation, including that referred to in point (b), necessary to demonstrate compliance with the obligations in this Chapter;
c)
gavus pagrįstą prašymą, teikti DI tarnybai visą informaciją ir dokumentus, be kita ko, nurodytus b punkte, būtinus įrodyti šiame skyriuje nustatytų pareigų laikymąsi;
(d)
cooperate with the AI Office and competent authorities, upon a reasoned request, in any action they take in relation to the general-purpose AI model, including when the model is integrated into AI systems placed on the market or put into service in the Union.
d)
gavus pagrįstą prašymą bendradarbiauti su DI tarnyba ir kompetentingomis institucijomis atliekant veiksmus, kurių jos imasi bendrosios paskirties DI modelio atžvilgiu, be kita ko, atvejais, kai modelis yra integruotas į DI sistemas, pateiktas rinkai arba pradėtas naudoti Sąjungoje.
4. The mandate shall empower the authorised representative to be addressed, in addition to or instead of the provider, by the AI Office or the competent authorities, on all issues related to ensuring compliance with this Regulation.
4. Įgaliojimu numatoma, kad DI tarnyba arba kompetentingos institucijos dėl visų aspektų, susijusių su šio reglamento laikymosi užtikrinimu, galėtų kreiptis ne vien į tiekėją, bet ir, papildomai, į įgaliotąjį atstovą, arba tik į įgaliotąjį atstovą vietoj tiekėjo.
5. The authorised representative shall terminate the mandate if it considers or has reason to consider the provider to be acting contrary to its obligations pursuant to this Regulation. In such a case, it shall also immediately inform the AI Office about the termination of the mandate and the reasons therefor.
5. Įgaliotasis atstovas nutraukia įgaliojimą, jei mano arba turi pagrindo manyti, kad tiekėjo veikla prieštarauja pagal šį reglamentą nustatytoms jo pareigoms. Tokiu atveju jis taip pat nedelsdamas informuoja DI tarnybą apie įgaliojimų nutraukimą ir to priežastis.
6. The obligation set out in this Article shall not apply to providers of general-purpose AI models that are released under a free and open-source licence that allows for the access, usage, modification, and distribution of the model, and whose parameters, including the weights, the information on the model architecture, and the information on model usage, are made publicly available, unless the general-purpose AI models present systemic risks.
6. Šiame straipsnyje nustatyta pareiga netaikoma bendrosios paskirties DI modelių, kurie išleidžiami pagal nemokamą ir atvirojo kodo licenciją, kuria suteikiama prieiga prie modelio, leidžiama jį naudoti, keisti ir platinti, tiekėjams, ir kurių parametrai, įskaitant svorius, informaciją apie modelio architektūrą ir informaciją apie modelio naudojimą, skelbiami viešai, išskyrus atvejus, kai bendrosios paskirties DI modeliai kelia sisteminę riziką.
SECTION 3
3 SKIRSNIS
Obligations of providers of general-purpose AI models with systemic risk
Sisteminės rizikos bendrosios paskirties DI modelių tiekėjų pareigos
Article 55
55 straipsnis
Obligations of providers of general-purpose AI models with systemic risk
Sisteminės rizikos bendrosios paskirties DI modelių tiekėjų pareigos
1. In addition to the obligations listed in Articles 53 and 54, providers of general-purpose AI models with systemic risk shall:
1. Be 53 ir 54 straipsniuose išvardytų pareigų, sisteminės rizikos bendrosios paskirties DI modelių tiekėjai:
(a)
perform model evaluation in accordance with standardised protocols and tools reflecting the state of the art, including conducting and documenting adversarial testing of the model with a view to identifying and mitigating systemic risks;
a)
atlieka modelio vertinimą pagal standartizuotus protokolus ir priemones, atspindinčias pažangiausius metodus, be kita ko, atlieka ir dokumentuoja modelio atsparumo kenksmingiems veiksmams bandymus, kad būtų nustatyta ir sumažinta sisteminė rizika;
(b)
assess and mitigate possible systemic risks at Union level, including their sources, that may stem from the development, the placing on the market, or the use of general-purpose AI models with systemic risk;
b)
įvertina ir sumažina galimą sisteminę riziką Sąjungos lygmeniu, įskaitant jos šaltinius, kuri gali kilti dėl sisteminės rizikos bendrosios paskirties DI modelių kūrimo, pateikimo rinkai arba naudojimo;
(c)
keep track of, document, and report, without undue delay, to the AI Office and, as appropriate, to national competent authorities, relevant information about serious incidents and possible corrective measures to address them;
c)
stebi, dokumentuoja ir nepagrįstai nedelsdami praneša DI tarnybai ir atitinkamai nacionalinėms kompetentingoms institucijoms atitinkamą informaciją apie rimtus incidentus ir galimas taisomąsias priemones jiems pašalinti;
(d)
ensure an adequate level of cybersecurity protection for the general-purpose AI model with systemic risk and the physical infrastructure of the model.
d)
užtikrina tinkamą sisteminės rizikos bendrosios paskirties DI modelio ir fizinės modelio infrastruktūros apsaugos kibernetinio saugumo atžvilgiu lygį.
2. Providers of general-purpose AI models with systemic risk may rely on codes of practice within the meaning of Article 56 to demonstrate compliance with the obligations set out in paragraph 1 of this Article, until a harmonised standard is published. Compliance with European harmonised standards grants providers the presumption of conformity to the extent that those standards cover those obligations. Providers of general-purpose AI models with systemic risks who do not adhere to an approved code of practice or do not comply with a European harmonised standard shall demonstrate alternative adequate means of compliance for assessment by the Commission.
2. Sisteminės rizikos bendrosios paskirties DI modelių tiekėjai, siekdami įrodyti, kad laikosi šio straipsnio 1 dalyje nustatytų pareigų, gali remtis praktikos kodeksais, kaip tai suprantama 56 straipsnyje, kol bus paskelbtas darnusis standartas. Atitiktis preziumuojama, jei tiekėjai laikosi Europos darniųjų standartų, tokia apimtimi, kokia tie standartai apima tas pareigas. Sisteminės rizikos bendrosios paskirties DI modelių tiekėjai, kurie nesilaiko patvirtinto praktikos kodekso arba nesilaiko Europos darniojo standarto, privalo įrodyti alternatyvias tinkamas atitikties užtikrinimo priemones, kad jas įvertintų Komisija.
3. Any information or documentation obtained pursuant to this Article, including trade secrets, shall be treated in accordance with the confidentiality obligations set out in Article 78.
3. Visa pagal šį straipsnį gauta informacija ir dokumentai, įskaitant komercines paslaptis, tvarkomi laikantis 78 straipsnyje nustatytų konfidencialumo pareigų.
SECTION 4
4 SKIRSNIS
Codes of practice
Praktikos kodeksai
Article 56
56 straipsnis
Codes of practice
Praktikos kodeksai
1. The AI Office shall encourage and facilitate the drawing up of codes of practice at Union level in order to contribute to the proper application of this Regulation, taking into account international approaches.
1. DI tarnyba skatina ir palengvina praktikos kodeksų rengimą Sąjungos lygmeniu, kad būtų prisidedama prie tinkamo šio reglamento taikymo, atsižvelgiant į tarptautinius metodus.
2. The AI Office and the Board shall aim to ensure that the codes of practice cover at least the obligations provided for in Articles 53 and 55, including the following issues:
2. DI tarnyba ir Valdyba siekia užtikrinti, kad praktikos kodeksai apimtų bent 53 ir 55 straipsniuose numatytas pareigas, įskaitant šiuos aspektus:
(a)
the means to ensure that the information referred to in Article 53(1), points (a) and (b), is kept up to date in light of market and technological developments;
a)
priemones, kuriomis užtikrinama, kad 53 straipsnio 1 dalies a ir b punktuose nurodyta informacija būtų nuolat atnaujinama atsižvelgiant į rinkos ir technologinę plėtrą;
(b)
the adequate level of detail for the summary about the content used for training;
b)
tinkamą informacijos apie mokymui naudojamą turinį santraukos išsamumą;
(c)
the identification of the type and nature of the systemic risks at Union level, including their sources, where appropriate;
c)
sisteminės rizikos rūšies ir pobūdžio nustatymą Sąjungos lygmeniu, įskaitant, kai tinkama, jos šaltinius;
(d)
the measures, procedures and modalities for the assessment and management of the systemic risks at Union level, including the documentation thereof, which shall be proportionate to the risks, take into consideration their severity and probability and take into account the specific challenges of tackling those risks in light of the possible ways in which such risks may emerge and materialise along the AI value chain.
d)
sisteminės rizikos vertinimo ir valdymo Sąjungos lygmeniu priemones, procedūras ir tvarką, įskaitant jos dokumentavimą, kurie turi būti proporcingi rizikai, kuriuose turi būti atsižvelgiama į jos dydį bei tikimybę ir į konkrečius iššūkius, su kuriais susiduriama šalinant tą riziką, atsižvelgiant į galimus tokios rizikos atsiradimo ir pasireiškimo būdus DI vertės grandinėje.
3. The AI Office may invite all providers of general-purpose AI models, as well as relevant national competent authorities, to participate in the drawing-up of codes of practice. Civil society organisations, industry, academia and other relevant stakeholders, such as downstream providers and independent experts, may support the process.
3. DI tarnyba gali pakviesti visus bendrosios paskirties DI modelių tiekėjus, taip pat atitinkamas nacionalines kompetentingas institucijas dalyvauti rengiant praktikos kodeksus. Prie šio proceso gali prisidėti pilietinės visuomenės organizacijos, pramonė, akademinė bendruomenė ir kiti atitinkami suinteresuotieji subjektai, pavyzdžiui, tolesnės grandies tiekėjai ir nepriklausomi ekspertai.
4. The AI Office and the Board shall aim to ensure that the codes of practice clearly set out their specific objectives and contain commitments or measures, including key performance indicators as appropriate, to ensure the achievement of those objectives, and that they take due account of the needs and interests of all interested parties, including affected persons, at Union level.
4. DI tarnyba ir Valdyba siekia užtikrinti, kad praktikos kodeksuose būtų aiškiai nustatyti jų konkretūs tikslai ir į juos būtų įtraukti įsipareigojimai ar priemonės, įskaitant, atitinkamai pagrindinius veiklos efektyvumo rezultatų rodiklius, siekiant užtikrinti, kad tie tikslai būtų pasiekti, ir kad juose būtų tinkamai atsižvelgta į visų suinteresuotųjų subjektų, įskaitant asmenis, kuriems daromas poveikis, poreikius ir interesus Sąjungos lygmeniu.
5. The AI Office shall aim to ensure that participants to the codes of practice report regularly to the AI Office on the implementation of the commitments and the measures taken and their outcomes, including as measured against the key performance indicators as appropriate. Key performance indicators and reporting commitments shall reflect differences in size and capacity between various participants.
5. DI tarnyba siekia užtikrinti, kad praktikos kodeksuose dalyvaujantys subjektai reguliariai teiktų DI tarnybai ataskaitas apie įsipareigojimų ir priemonių, kurių buvo imtasi, įgyvendinimą ir jų rezultatus, be kita ko, atitinkamai įvertintus pagal pagrindinius veiklos efektyvumo rezultatų rodiklius. Pagrindiniuose veiklos rezultatų rodikliuose ir ataskaitų teikimo įsipareigojimuose atspindimi įvairių kodeksuose dalyvaujančių subjektų dydžio ir pajėgumų skirtumai.
6. The AI Office and the Board shall regularly monitor and evaluate the achievement of the objectives of the codes of practice by the participants and their contribution to the proper application of this Regulation. The AI Office and the Board shall assess whether the codes of practice cover the obligations provided for in Articles 53 and 55, and shall regularly monitor and evaluate the achievement of their objectives. They shall publish their assessment of the adequacy of the codes of practice.
6. DI tarnyba ir Valdyba reguliariai stebi ir vertina, kaip dalyvaujantys subjektai siekia praktikos kodeksų tikslų ir kaip jie prisideda prie tinkamo šio reglamento taikymo. DI tarnyba ir Valdyba įvertina, ar praktikos kodeksai apima 53 ir 55 straipsniuose numatytas pareigas, ir reguliariai stebi bei vertina, kaip įgyvendinami jų tikslai. Jos paskelbia praktikos kodeksų tinkamumo vertinimus.
The Commission may, by way of an implementing act, approve a code of practice and give it a general validity within the Union. That implementing act shall be adopted in accordance with the examination procedure referred to in Article 98(2).
Komisija gali, priimdama įgyvendinimo aktą, patvirtinti praktikos kodeksą ir paskelbti jį galiojančiu visoje Sąjungoje. Tas įgyvendinimo aktas priimamas laikantis 98 straipsnio 2 dalyje nurodytos nagrinėjimo procedūros.
7. The AI Office may invite all providers of general-purpose AI models to adhere to the codes of practice. For providers of general-purpose AI models not presenting systemic risks this adherence may be limited to the obligations provided for in Article 53, unless they declare explicitly their interest to join the full code.
7. DI tarnyba gali paraginti visus bendrosios paskirties DI modelių tiekėjus laikytis praktikos kodeksų. Bendrosios paskirties DI modelių, nekeliančių sisteminės rizikos, tiekėjai gali laikytis tik 53 straipsnyje numatytų pareigų, išskyrus atvejus, kai jie aiškiai pareiškia norą prisijungti prie viso kodekso.
8. The AI Office shall, as appropriate, also encourage and facilitate the review and adaptation of the codes of practice, in particular in light of emerging standards. The AI Office shall assist in the assessment of available standards.
8. DI tarnyba taip pat atitinkamai skatina ir palengvina praktikos kodeksų peržiūrą ir pritaikymą, visų pirma atsižvelgiant į naujus standartus. DI tarnyba padeda vertinti esamus standartus.
9. Codes of practice shall be ready at the latest by 2 May 2025. The AI Office shall take the necessary steps, including inviting providers pursuant to paragraph 7.
9. Praktikos kodeksai parengiami ne vėliau kaip 2025 m. gegužės 2 d. DI tarnyba imasi būtinų veiksmų, be kita ko, paragina tiekėjus pagal 7 dalį.
If, by 2 August 2025, a code of practice cannot be finalised, or if the AI Office deems it is not adequate following its assessment under paragraph 6 of this Article, the Commission may provide, by means of implementing acts, common rules for the implementation of the obligations provided for in Articles 53 and 55, including the issues set out in paragraph 2 of this Article. Those implementing acts shall be adopted in accordance with the examination procedure referred to in Article 98(2).
Jei ne vėliau kaip 2025 m. rugpjūčio 2 d. praktikos kodeksas negali būti užbaigtas arba, jei DI tarnyba, atlikusi vertinimą pagal šio straipsnio 6 dalį, mano, kad jis netinkamas, Komisija gali įgyvendinimo aktais nustatyti bendras 53 ir 55 straipsniuose numatytų pareigų, įskaitant šio straipsnio 2 dalyje išdėstytus aspektus, įgyvendinimo taisykles. Tie įgyvendinimo aktai priimami laikantis 98 straipsnio 2 dalyje nurodytos nagrinėjimo procedūros.
CHAPTER VI
VI SKYRIUS
MEASURES IN SUPPORT OF INNOVATION
INOVACIJŲ RĖMIMO PRIEMONĖS
Article 57
57 straipsnis
AI regulatory sandboxes
Apribotos bandomosios DI reglamentavimo aplinkos
1. Member States shall ensure that their competent authorities establish at least one AI regulatory sandbox at national level, which shall be operational by 2 August 2026. That sandbox may also be established jointly with the competent authorities of other Member States. The Commission may provide technical support, advice and tools for the establishment and operation of AI regulatory sandboxes.
1. Valstybės narės užtikrina, kad jų kompetentingos institucijos nacionaliniu lygmeniu sukurtų bent vieną apribotą bandomąją DI reglamentavimo aplinką, kuri pradėtų veikti ne vėliau kaip 2026 m. rugpjūčio 2 d. Ta apribota bandomoji aplinka taip pat gali būti sukuriama kartu su kitų valstybių narių kompetentingomis institucijomis. Komisija gali teikti techninę paramą, konsultacijas ir priemones, kad būtų sukurtos ir veiktų apribotos bandomosios DI reglamentavimo aplinkos.
The obligation under the first subparagraph may also be fulfilled by participating in an existing sandbox in so far as that participation provides an equivalent level of national coverage for the participating Member States.
Pirmoje pastraipoje nustatyta pareiga taip pat gali būti įvykdyta dalyvaujant esamoje apribotoje bandomojoje reglamentavimo aplinkoje, jei tokiu dalyvavimu dalyvaujančioms valstybėms narėms užtikrinama lygiavertė nacionalinė aprėptis.
2. Additional AI regulatory sandboxes at regional or local level, or established jointly with the competent authorities of other Member States may also be established.
2. Be to, regioniniu ar vietos lygmeniu arba kartu su kitomis valstybėmis narėmis gali būti sukurtos papildomos apribotos bandomosios DI reglamentavimo aplinkos.
3. The European Data Protection Supervisor may also establish an AI regulatory sandbox for Union institutions, bodies, offices and agencies, and may exercise the roles and the tasks of national competent authorities in accordance with this Chapter.
3. Europos duomenų apsaugos priežiūros pareigūnas taip pat gali sukurti Sąjungos institucijoms, įstaigoms, organams ir agentūroms skirtą apribotą bandomąją DI reglamentavimo aplinką ir atlikti nacionalinių kompetentingų institucijų funkcijas ir užduotis pagal šį skyrių.
4. Member States shall ensure that the competent authorities referred to in paragraphs 1 and 2 allocate sufficient resources to comply with this Article effectively and in a timely manner. Where appropriate, national competent authorities shall cooperate with other relevant authorities, and may allow for the involvement of other actors within the AI ecosystem. This Article shall not affect other regulatory sandboxes established under Union or national law. Member States shall ensure an appropriate level of cooperation between the authorities supervising those other sandboxes and the national competent authorities.
4. Valstybės narės užtikrina, kad 1 ir 2 dalyse nurodytos kompetentingos institucijos skirtų pakankamai išteklių, kad būtų veiksmingai ir laiku laikomasi šio straipsnio. Kai tinkama, nacionalinės kompetentingos institucijos bendradarbiauja su kitomis atitinkamomis institucijomis ir gali leisti dalyvauti kitiems DI ekosistemos subjektams. Šiuo straipsniu nedaromas poveikis kitoms apribotoms bandomosioms reglamentavimo aplinkoms, sukurtoms pagal Sąjungos arba nacionalinę teisę. Valstybės narės užtikrina tinkamą institucijų, prižiūrinčių tas kitas apribotas bandomąsias reglamentavimo aplinkas, ir nacionalinių kompetentingų institucijų bendradarbiavimą.
5. AI regulatory sandboxes established under paragraph 1 shall provide for a controlled environment that fosters innovation and facilitates the development, training, testing and validation of innovative AI systems for a limited time before their being placed on the market or put into service pursuant to a specific sandbox plan agreed between the providers or prospective providers and the competent authority. Such sandboxes may include testing in real world conditions supervised therein.
5. Apribotose bandomosiose DI reglamentavimo aplinkose, sukurtose pagal 1 dalį, numatoma kontroliuojama aplinka, kuria skatinamos inovacijos ir sudaromos palankesnės sąlygos kurti, mokyti, bandyti ir patvirtinti novatoriškas DI sistemas ribotą laiką prieš jas pateikiant rinkai arba pradedant naudoti laikantis konkretaus apribotos bandomosios reglamentavimo aplinkos plano, dėl kurio susitaria tiekėjai arba galimi tiekėjai ir kompetentinga institucija. Tokios apribotos bandomosios aplinkos gali apimti ir bandymą realiomis sąlygomis, prižiūrimą joje.
6. Competent authorities shall provide, as appropriate, guidance, supervision and support within the AI regulatory sandbox with a view to identifying risks, in particular to fundamental rights, health and safety, testing, mitigation measures, and their effectiveness in relation to the obligations and requirements of this Regulation and, where relevant, other Union and national law supervised within the sandbox.
6. Kompetentingos institucijos apribotoje bandomojoje DI reglamentavimo aplinkoje atitinkamai teikia gaires, vykdo priežiūrą ir teikia paramą, kad būtų nustatyta rizika, visų pirma kylanti pagrindinėms teisėms, sveikatai ir saugai, bandymams, rizikos mažinimo priemonėms ir jų veiksmingumui, kiek tai susiję su šiame reglamente nustatytomis pareigomis ir reikalavimais ir, kai aktualu, kitais Sąjungos ir nacionalinės teisės aktais, kurių priežiūra vykdoma apribotoje bandomojoje reglamentavimo aplinkoje.
7. Competent authorities shall provide providers and prospective providers participating in the AI regulatory sandbox with guidance on regulatory expectations and how to fulfil the requirements and obligations set out in this Regulation.
7. Kompetentingos institucijos tiekėjams ir galimiems tiekėjams, kurie dalyvauja apribotoje bandomojoje DI reglamentavimo aplinkoje, pateikia gaires dėl reglamentavimo lūkesčių ir dėl to, kaip vykdyti šiame reglamente nustatytus reikalavimus ir pareigas.
Upon request of the provider or prospective provider of the AI system, the competent authority shall provide a written proof of the activities successfully carried out in the sandbox. The competent authority shall also provide an exit report detailing the activities carried out in the sandbox and the related results and learning outcomes. Providers may use such documentation to demonstrate their compliance with this Regulation through the conformity assessment process or relevant market surveillance activities. In this regard, the exit reports and the written proof provided by the national competent authority shall be taken positively into account by market surveillance authorities and notified bodies, with a view to accelerating conformity assessment procedures to a reasonable extent.
DI sistemos tiekėjo arba galimo tiekėjo prašymu kompetentinga institucija pateikia apribotoje bandomojoje reglamentavimo aplinkoje sėkmingai įvykdytos veiklos rašytinį įrodymą. Kompetentinga institucija taip pat pateikia pasitraukimo ataskaitą, kurioje išsamiai aprašoma apribotoje bandomojoje reglamentavimo aplinkoje vykdyta veikla ir susiję rezultatai bei mokymosi rezultatai. Tiekėjai gali naudoti tokius dokumentus, kad įrodytų, jog laikosi šio reglamento, atlikdami atitikties vertinimo procesą arba vykdydami atitinkamą rinkos priežiūros veiklą. Šiuo atžvilgiu rinkos priežiūros institucijos ir notifikuotosios įstaigos palankiai atsižvelgia į nacionalinės kompetentingos institucijos pateiktas pasitraukimo ataskaitas ir rašytinius įrodymus, kad būtų pakankamai paspartintos atitikties vertinimo procedūros.
8. Subject to the confidentiality provisions in Article 78, and with the agreement of the provider or prospective provider, the Commission and the Board shall be authorised to access the exit reports and shall take them into account, as appropriate, when exercising their tasks under this Regulation. If both the provider or prospective provider and the national competent authority explicitly agree, the exit report may be made publicly available through the single information platform referred to in this Article.
8. Atsižvelgiant į 78 straipsnyje nustatytas konfidencialumo nuostatas ir gavus tiekėjo arba galimo tiekėjo sutikimą, Komisijai ir Valdybai suteikiama teisė susipažinti su pasitraukimo ataskaitomis ir atitinkamai į jas atsižvelgti vykdant savo užduotis pagal šį reglamentą. Jei tiekėjas arba galimas tiekėjas ir nacionalinė kompetentinga institucija tam aiškiai pritaria, pasitraukimo ataskaita gali būti paskelbta viešai šiame straipsnyje nurodytoje bendroje informacinėje platformoje.
9. The establishment of AI regulatory sandboxes shall aim to contribute to the following objectives:
9. Sukuriant apribotas bandomąsias DI reglamentavimo aplinkas siekiama prisidėti prie šių tikslų:
(a)
improving legal certainty to achieve regulatory compliance with this Regulation or, where relevant, other applicable Union and national law;
a)
didinti teisinį tikrumą, kad būtų užtikrinta atitiktis šio reglamento nuostatoms arba, kai aktualu, kitiems taikytiniems Sąjungos ir nacionalinės teisės aktams;
(b)
supporting the sharing of best practices through cooperation with the authorities involved in the AI regulatory sandbox;
b)
remti dalijimąsi geriausios praktikos pavyzdžiais bendradarbiaujant su institucijomis, dalyvaujančiomis apribotoje bandomojoje DI reglamentavimo aplinkoje;
(c)
fostering innovation and competitiveness and facilitating the development of an AI ecosystem;
c)
skatinti inovacijas bei konkurencingumą ir palengvinti DI ekosistemos plėtojimą;
(d)
contributing to evidence-based regulatory learning;
d)
prisidėti prie faktiniais duomenimis grindžiamo mokymosi reglamentavimo srityje.
(e)
facilitating and accelerating access to the Union market for AI systems, in particular when provided by SMEs, including start-ups.
e)
palengvinti ir paspartinti DI sistemų patekimą į Sąjungos rinką, visų pirma kai jas teikia MVĮ, įskaitant startuolius.
10. National competent authorities shall ensure that, to the extent the innovative AI systems involve the processing of personal data or otherwise fall under the supervisory remit of other national authorities or competent authorities providing or supporting access to data, the national data protection authorities and those other national or competent authorities are associated with the operation of the AI regulatory sandbox and involved in the supervision of those aspects to the extent of their respective tasks and powers.
10. Nacionalinės kompetentingos institucijos užtikrina, kad jei novatoriškos DI sistemos apima asmens duomenų tvarkymą arba kitaip patenka į kitų nacionalinių institucijų ar kompetentingų institucijų, teikiančių arba remiančių prieigą prie duomenų, priežiūros sritį, nacionalinės duomenų apsaugos institucijos arba tos kitos nacionalinės ar kompetentingos institucijos būtų įtrauktos į apribotos bandomosios DI reglamentavimo aplinkos veiklą ir vykdytų tų aspektų priežiūrą, kiek tai susiję su jų atitinkamomis užduotimis ir įgaliojimais.
11. The AI regulatory sandboxes shall not affect the supervisory or corrective powers of the competent authorities supervising the sandboxes, including at regional or local level. Any significant risks to health and safety and fundamental rights identified during the development and testing of such AI systems shall result in an adequate mitigation. National competent authorities shall have the power to temporarily or permanently suspend the testing process, or the participation in the sandbox if no effective mitigation is possible, and shall inform the AI Office of such decision. National competent authorities shall exercise their supervisory powers within the limits of the relevant law, using their discretionary powers when implementing legal provisions in respect of a specific AI regulatory sandbox project, with the objective of supporting innovation in AI in the Union.
11. Apribotos bandomosios DI reglamentavimo aplinkos nedaro poveikio šias aplinkas prižiūrinčių kompetentingų institucijų su priežiūra ir taisomaisiais veiksmais susijusiems įgaliojimams, be kita ko, regioniniu ar vietos lygmeniu. Kuriant ir bandant tokias DI sistemas nustatyta didelė rizika sveikatai, saugai ir pagrindinėms teisėms turi būti tinkamai sumažinta. Nacionalinės kompetentingos institucijos turi įgaliojimus laikinai arba visam laikui sustabdyti bandymų procesą arba dalyvavimą apribotoje bandomojoje reglamentavimo aplinkoje, jei rizikos neįmanoma veiksmingai sumažinti, ir apie tokį sprendimą informuoja DI tarnybą. Siekdamos remti DI inovacijas Sąjungoje, nacionalinės kompetentingos institucijos savo priežiūros įgaliojimais naudojasi laikydamosi atitinkamuose teisės aktuose nustatytų ribų, naudodamosi diskrecija įgyvendinant teisines nuostatas konkretaus apribotos bandomosios DI reglamentavimo aplinkos projekto atžvilgiu.
12. Providers and prospective providers participating in the AI regulatory sandbox shall remain liable under applicable Union and national liability law for any damage inflicted on third parties as a result of the experimentation taking place in the sandbox. However, provided that the prospective providers observe the specific plan and the terms and conditions for their participation and follow in good faith the guidance given by the national competent authority, no administrative fines shall be imposed by the authorities for infringements of this Regulation. Where other competent authorities responsible for other Union and national law were actively involved in the supervision of the AI system in the sandbox and provided guidance for compliance, no administrative fines shall be imposed regarding that law.
12. Tiekėjai ir galimi tiekėjai, dalyvaujantys apribotose bandomosiose DI reglamentavimo aplinkose, pagal taikytinus Sąjungos ir nacionalinės teisės aktus, kuriais reglamentuojama atsakomybė, išlieka atsakingi už žalą, padarytą trečiosioms šalims dėl apribotoje bandomojoje reglamentavimo aplinkoje vykdomo eksperimentavimo. Tačiau jei būsimas tiekėjas laikosi konkretaus plano bei dalyvavimo sąlygų, taip pat sąžiningai vadovaujasi nacionalinės kompetentingos institucijos pateiktomis gairėmis, už šio reglamento pažeidimus valdžios institucijos neskiria jokių administracinių baudų. Tais atvejais, kai kitos kompetentingos institucijos, atsakingos už kitus Sąjungos ir nacionalinės teisės aktus, aktyviai dalyvavo prižiūrint DI sistemą apribotoje bandomojoje reglamentavimo aplinkoje ir pateikė atitikties gaires, pagal tuos teisės aktus administracinės baudos neskiriamos.
13. The AI regulatory sandboxes shall be designed and implemented in such a way that, where relevant, they facilitate cross-border cooperation between national competent authorities.
13. Apribotos bandomosios DI reglamentavimo aplinkos projektuojamos ir įgyvendinamos taip, kad, kai aktualu, jomis būtų palengvintas tarpvalstybinis nacionalinių kompetentingų institucijų bendradarbiavimas.
14. National competent authorities shall coordinate their activities and cooperate within the framework of the Board.
14. Nacionalinės kompetentingos institucijos koordinuoja savo veiklą ir bendradarbiauja Valdyboje.
15. National competent authorities shall inform the AI Office and the Board of the establishment of a sandbox, and may ask them for support and guidance. The AI Office shall make publicly available a list of planned and existing sandboxes and keep it up to date in order to encourage more interaction in the AI regulatory sandboxes and cross-border cooperation.
15. Nacionalinės kompetentingos institucijos informuoja DI tarnybą ir Valdybą apie apribotos bandomosios reglamentavimo aplinkos sukūrimą ir gali prašyti jų paramos bei gairių. DI tarnyba viešai skelbia planuojamų ir esamų apribotų bandomųjų aplinkų sąrašą ir nuolat jį atnaujina, kad būtų skatinama didesnė sąveika apribotose bandomosiose DI reglamentavimo aplinkose ir tarpvalstybinis bendradarbiavimas.
16. National competent authorities shall submit annual reports to the AI Office and to the Board, from one year after the establishment of the AI regulatory sandbox and every year thereafter until its termination, and a final report. Those reports shall provide information on the progress and results of the implementation of those sandboxes, including best practices, incidents, lessons learnt and recommendations on their setup and, where relevant, on the application and possible revision of this Regulation, including its delegated and implementing acts, and on the application of other Union law supervised by the competent authorities within the sandbox. The national competent authorities shall make those annual reports or abstracts thereof available to the public, online. The Commission shall, where appropriate, take the annual reports into account when exercising its tasks under this Regulation.
16. Nacionalinės kompetentingos institucijos DI tarnybai ir Valdybai teikia metines ataskaitas praėjus vieniems metams nuo apribotos bandomosios DI reglamentavimo aplinkos sukūrimo, o vėliau – kasmet iki jos taikymo nutraukimo, taip pat galutinę ataskaitą. Tose ataskaitose pateikiama informacija apie tų apribotų bandomųjų reglamentavimo aplinkų įgyvendinimo pažangą ir rezultatus, įskaitant geriausios praktikos pavyzdžius, incidentus, įgytą patirtį ir rekomendacijas dėl jų struktūros ir, kai aktualu, apie šio reglamento, įskaitant jo deleguotuosius ir įgyvendinimo aktus, taikymą ir galimą peržiūrą, taip pat apie kitų Sąjungos teisės aktų, kuriuos kompetentingos institucijos prižiūri apribotoje bandomojoje reglamentavimo aplinkoje, taikymą. Nacionalinės kompetentingos institucijos viešai paskelbia šias metines ataskaitas ar jų santraukas internete. Kai tinkama, Komisija atsižvelgia į metines ataskaitas vykdydama savo užduotis pagal šį reglamentą.
17. The Commission shall develop a single and dedicated interface containing all relevant information related to AI regulatory sandboxes to allow stakeholders to interact with AI regulatory sandboxes and to raise enquiries with competent authorities, and to seek non-binding guidance on the conformity of innovative products, services, business models embedding AI technologies, in accordance with Article 62(1), point (c). The Commission shall proactively coordinate with national competent authorities, where relevant.
17. Komisija sukuria bendrą specialią sąsają, kurioje pateikiama visa aktuali informacija, susijusi su apribotomis bandomosiomis DI reglamentavimo aplinkomis, kad suinteresuotieji subjektai galėtų sąveikauti su apribotomis bandomosiomis DI reglamentavimo aplinkomis ir teikti užklausas kompetentingoms institucijoms, taip pat prašyti neprivalomų gairių dėl novatoriškų produktų, paslaugų, verslo modelių, kuriuose įdiegtos DI technologijos, atitikties pagal 62 straipsnio 1 dalies c punktą. Komisija, kai aktualu, proaktyviai koordinuoja veiksmus su nacionalinėmis kompetentingomis institucijomis.
Article 58
58 straipsnis
Detailed arrangements for, and functioning of, AI regulatory sandboxes
Išsami apribotoms bandomosioms DI reglamentavimo aplinkoms taikoma tvarka ir jų veikimas
1. In order to avoid fragmentation across the Union, the Commission shall adopt implementing acts specifying the detailed arrangements for the establishment, development, implementation, operation and supervision of the AI regulatory sandboxes. The implementing acts shall include common principles on the following issues:
1. Siekdama išvengti susiskaidymo visoje Sąjungoje, Komisija priima įgyvendinimo aktus, kuriais nustatoma išsami apribotų bandomųjų DI reglamentavimo aplinkų kūrimo, plėtojimo, įgyvendinimo, veikimo ir priežiūros tvarka. Į tuos įgyvendinimo aktus įtraukiami bendri principai, susiję su šiais aspektais:
(a)
eligibility and selection criteria for participation in the AI regulatory sandbox;
a)
tinkamumo ir atrankos kriterijais dalyvauti apribotoje bandomojoje DI reglamentavimo aplinkoje;
(b)
procedures for the application, participation, monitoring, exiting from and termination of the AI regulatory sandbox, including the sandbox plan and the exit report;
b)
prašymų dalyvauti apribotoje bandomojoje DI reglamentavimo aplinkoje teikimo, dalyvavimo joje, stebėsenos, pasitraukimo iš tokios aplinkos ir jos taikymo nutraukimo procedūromis, įskaitant apribotos bandomosios reglamentavimo aplinkos planą ir pasitraukimo ataskaitą;
(c)
the terms and conditions applicable to the participants.
c)
dalyviams taikomomis sąlygomis.
Those implementing acts shall be adopted in accordance with the examination procedure referred to in Article 98(2).
Tie įgyvendinimo aktai priimami laikantis 98 straipsnio 2 dalyje nurodytos nagrinėjimo procedūros.
2. The implementing acts referred to in paragraph 1 shall ensure:
2. 1 dalyje nurodytais įgyvendinimo aktais užtikrinama, kad:
(a)
that AI regulatory sandboxes are open to any applying provider or prospective provider of an AI system who fulfils eligibility and selection criteria, which shall be transparent and fair, and that national competent authorities inform applicants of their decision within three months of the application;
a)
apribotose bandomosiose DI reglamentavimo aplinkose galėtų dalyvauti visi prašymus pateikę DI sistemų tiekėjai ar galimi tiekėjai, atitinkantys tinkamumo ir atrankos kriterijus, kurie būtų skaidrūs ir sąžiningi, ir kad nacionalinės kompetentingos institucijos per tris mėnesius nuo paraiškos pateikimo informuotų pareiškėjus apie savo sprendimą;
(b)
that AI regulatory sandboxes allow broad and equal access and keep up with demand for participation; providers and prospective providers may also submit applications in partnerships with deployers and other relevant third parties;
b)
apribotos bandomosios DI reglamentavimo aplinkos suteiktų plačią bei vienodą prieigą ir tenkintų dalyvavimo paklausą, o tiekėjai ir galimi tiekėjai paraiškas taip pat galėtų teikti kartu su diegėjais ar kitomis atitinkamomis trečiosiomis šalimis;
(c)
that the detailed arrangements for, and conditions concerning AI regulatory sandboxes support, to the best extent possible, flexibility for national competent authorities to establish and operate their AI regulatory sandboxes;
c)
išsamia apribotoms bandomosioms DI reglamentavimo aplinkoms taikoma tvarka ir sąlygomis būtų kuo labiau remiamas nacionalinių kompetentingų institucijų lankstumas kurti ir naudoti savo apribotas bandomąsias DI reglamentavimo aplinkas;
(d)
that access to the AI regulatory sandboxes is free of charge for SMEs, including start-ups, without prejudice to exceptional costs that national competent authorities may recover in a fair and proportionate manner;
d)
MVĮ ir startuoliams prieiga prie apribotų bandomųjų DI reglamentavimo aplinkų būtų suteikiama nemokamai, nedarant poveikio išimtinėms išlaidoms, kurias nacionalinės kompetentingos institucijos galėtų susigrąžinti sąžiningai ir proporcingai;
(e)
that they facilitate providers and prospective providers, by means of the learning outcomes of the AI regulatory sandboxes, in complying with conformity assessment obligations under this Regulation and the voluntary application of the codes of conduct referred to in Article 95;
e)
jais tiekėjams ir galimiems tiekėjams būtų sudarytos palankesnės sąlygos pasinaudojant apribotose bandomosiose DI reglamentavimo aplinkose gautais mokymosi rezultatais, vykdyti šiame reglamente nustatytas atitikties vertinimo pareigas ir savanoriškai taikyti 95 straipsnyje nurodytus elgesio kodeksus;
(f)
that AI regulatory sandboxes facilitate the involvement of other relevant actors within the AI ecosystem, such as notified bodies and standardisation organisations, SMEs, including start-ups, enterprises, innovators, testing and experimentation facilities, research and experimentation labs and European Digital Innovation Hubs, centres of excellence, individual researchers, in order to allow and facilitate cooperation with the public and private sectors;
f)
apribotomis bandomosiomis DI reglamentavimo aplinkomis būtų sudarytos palankesnės sąlygos dalyvauti kitiems atitinkamiems DI ekosistemos subjektams, pavyzdžiui, notifikuotosioms įstaigoms ir standartizacijos organizacijoms, MVĮ, įskaitant startuolius, įmonėms, novatoriams, bandymų ir eksperimentavimo priemonėms, mokslinių tyrimų ir eksperimentavimo laboratorijoms, Europos skaitmeninių inovacijų centrams, kompetencijos centrams, atskiriems tyrėjams, kad būtų sudarytos sąlygos bendradarbiavimui su viešuoju bei privačiuoju sektoriais ir jis būtų palengvintas;
(g)
that procedures, processes and administrative requirements for application, selection, participation and exiting the AI regulatory sandbox are simple, easily intelligible, and clearly communicated in order to facilitate the participation of SMEs, including start-ups, with limited legal and administrative capacities and are streamlined across the Union, in order to avoid fragmentation and that participation in an AI regulatory sandbox established by a Member State, or by the European Data Protection Supervisor is mutually and uniformly recognised and carries the same legal effects across the Union;
g)
paraiškų teikimo, atrankos, dalyvavimo ir pasitraukimo iš apribotos bandomosios DI reglamentavimo aplinkos procedūros, procesai ir administraciniai reikalavimai būtų paprasti, lengvai suprantami, aiškiai nurodyti siekiant palengvinti MVĮ, įskaitant startuolius, turinčių ribotus teisinius ir administracinius pajėgumus, dalyvavimą ir jie būtų supaprastinti visoje Sąjungoje, kad būtų išvengta susiskaidymo, o dalyvavimas valstybės narės arba Europos duomenų apsaugos priežiūros pareigūno sukurtoje apribotoje bandomojoje DI reglamentavimo aplinkoje būtų abipusiai ir vienodai pripažįstamas ir turėtų vienodą teisinį poveikį visoje Sąjungoje;
(h)
that participation in the AI regulatory sandbox is limited to a period that is appropriate to the complexity and scale of the project and that may be extended by the national competent authority;
h)
dalyvavimas apribotoje bandomojoje DI reglamentavimo aplinkoje truktų laikotarpį, kuris būtų tinkamas atsižvelgiant į projekto sudėtingumą ir mastą, ir kurį nacionalinė kompetentinga institucija gali pratęsti;
(i)
that AI regulatory sandboxes facilitate the development of tools and infrastructure for testing, benchmarking, assessing and explaining dimensions of AI systems relevant for regulatory learning, such as accuracy, robustness and cybersecurity, as well as measures to mitigate risks to fundamental rights and society at large.
i)
apribotos bandomosios DI reglamentavimo aplinkos padėtų kurti priemones ir infrastruktūrą, skirtas DI sistemų bandymams, jų lyginamųjų parametrų nustatymui, vertinimui ir mokymuisi reglamentavimo srityje aktualių DI sistemų aspektų (pavyzdžiui, tikslumo, patvarumo ir kibernetinio saugumo) paaiškinimui, taip pat priemones, kuriomis būtų sumažinta rizika pagrindinėms teisėms, aplinkai ir visai visuomenei.
3. Prospective providers in the AI regulatory sandboxes, in particular SMEs and start-ups, shall be directed, where relevant, to pre-deployment services such as guidance on the implementation of this Regulation, to other value-adding services such as help with standardisation documents and certification, testing and experimentation facilities, European Digital Innovation Hubs and centres of excellence.
3. Galimi tiekėjai, dalyvaujantys apribotose bandomosiose DI reglamentavimo aplinkose, visų pirma MVĮ ir startuoliai, kai aktualu, nukreipiami pasinaudoti pasirengimo diegimui paslaugomis, pavyzdžiui, patarimais dėl šio reglamento įgyvendinimo, kitomis pridėtinės vertės paslaugomis, pavyzdžiui, pagalba dėl standartizacijos dokumentų ir sertifikavimo, bandymų ir eksperimentavimo priemonių, Europos skaitmeninių inovacijų centrų ir kompetencijos centrų.
4. Where national competent authorities consider authorising testing in real world conditions supervised within the framework of an AI regulatory sandbox to be established under this Article, they shall specifically agree the terms and conditions of such testing and, in particular, the appropriate safeguards with the participants, with a view to protecting fundamental rights, health and safety. Where appropriate, they shall cooperate with other national competent authorities with a view to ensuring consistent practices across the Union.
4. Kai nacionalinės kompetentingos institucijos svarsto galimybę leisti atlikti bandymą realiomis sąlygomis, prižiūrimą pagal šį straipsnį sukurtinoje apribotoje bandomojoje DI reglamentavimo aplinkoje, jos konkrečiai susitaria su dalyviais dėl tokio bandymo sąlygų, visų pirma dėl tinkamų apsaugos priemonių, kad būtų apsaugotos pagrindinės teisės, sveikata ir sauga. Kai tinkama, jos bendradarbiauja su kitomis nacionalinėmis kompetentingomis institucijomis, kad visoje Sąjungoje būtų užtikrinta nuosekli praktika.
Article 59
59 straipsnis
Further processing of personal data for developing certain AI systems in the public interest in the AI regulatory sandbox
Tolesnis asmens duomenų tvarkymas apribotoje bandomojoje DI reglamentavimo aplinkoje siekiant sukurti tam tikras su viešuoju interesu susijusias DI sistemas
1. In the AI regulatory sandbox, personal data lawfully collected for other purposes may be processed solely for the purpose of developing, training and testing certain AI systems in the sandbox when all of the following conditions are met:
1. Apribotoje bandomojoje DI reglamentavimo aplinkoje kitais tikslais teisėtai surinkti asmens duomenys gali būti tvarkomi tik tam tikrų DI sistemų kūrimo, mokymo ir bandymo apribotoje bandomojoje reglamentavimo aplinkoje tikslais, jei tenkinamos visos šios sąlygos:
(a)
AI systems shall be developed for safeguarding substantial public interest by a public authority or another natural or legal person and in one or more of the following areas:
a)
DI sistemas valdžios institucija arba kitas fizinis arba juridinis asmuo sukuria siekdami apsaugoti svarbų viešąjį interesą vienoje ar daugiau iš šių sričių:
(i)
public safety and public health, including disease detection, diagnosis prevention, control and treatment and improvement of health care systems;
i)
visuomenės saugumo ir visuomenės sveikatos, įskaitant ligų nustatymą, diagnozę, prevenciją, kontrolę ir gydymą, taip pat sveikatos priežiūros sistemų tobulinimo;
(ii)
a high level of protection and improvement of the quality of the environment, protection of biodiversity, protection against pollution, green transition measures, climate change mitigation and adaptation measures;
ii)
aukšto aplinkos apsaugos lygio užtikrinimo ir aplinkos kokybės gerinimo, biologinės įvairovės apsaugos, apsaugos nuo taršos, žaliosios pertvarkos priemonių, klimato kaitos švelninimo ir prisitaikymo prie jos priemonių;
(iii)
energy sustainability;
iii)
energetinio tvarumo;
(iv)
safety and resilience of transport systems and mobility, critical infrastructure and networks;
iv)
transporto sistemų ir judumo, ypatingos svarbos infrastruktūros ir tinklų saugos ir atsparumo;
(v)
efficiency and quality of public administration and public services;
v)
viešojo administravimo ir viešųjų paslaugų veiksmingumo ir kokybės;
(b)
the data processed are necessary for complying with one or more of the requirements referred to in Chapter III, Section 2 where those requirements cannot effectively be fulfilled by processing anonymised, synthetic or other non-personal data;
b)
duomenų tvarkymas yra būtinas siekiant laikytis vieno ar daugiau iš III skyriaus 2 skirsnyje nurodytų reikalavimų, kai tų reikalavimų neįmanoma veiksmingai įvykdyti tvarkant anoniminius, sintetinius ar kitus ne asmens duomenis;
(c)
there are effective monitoring mechanisms to identify if any high risks to the rights and freedoms of the data subjects, as referred to in Article 35 of Regulation (EU) 2016/679 and in Article 39 of Regulation (EU) 2018/1725, may arise during the sandbox experimentation, as well as response mechanisms to promptly mitigate those risks and, where necessary, stop the processing;
c)
taikomi veiksmingi stebėsenos mechanizmai, skirti nustatyti, ar eksperimentuojant apribotoje bandomojoje reglamentavimo aplinkoje gali kilti didelė rizika duomenų subjektų teisėms ir laisvėms, kaip nurodyta Reglamento (ES) 2016/679 35 straipsnyje ir Reglamento (ES) 2018/1725 39 straipsnyje, taip pat atsako mechanizmai, skirti tai rizikai greitai sumažinti ir, prireikus, duomenų tvarkymui sustabdyti;
(d)
any personal data to be processed in the context of the sandbox are in a functionally separate, isolated and protected data processing environment under the control of the prospective provider and only authorised persons have access to those data;
d)
visi apribotoje bandomojoje reglamentavimo aplinkoje tvarkytini asmens duomenys saugomi funkciniu požiūriu atskirtoje, izoliuotoje ir apsaugotoje galimo tiekėjo kontroliuojamoje duomenų tvarkymo aplinkoje ir prieigą prie tų duomenų turi tik įgalioti asmenys;
(e)
providers can further share the originally collected data only in accordance with Union data protection law; any personal data created in the sandbox cannot be shared outside the sandbox;
e)
tiekėjai iš pradžių surinktais duomenimis gali toliau dalytis tik laikydamiesi Sąjungos duomenų apsaugos teisės aktų; apribotoje bandomojoje reglamentavimo aplinkoje sukurtais asmens duomenimis už tos aplinkos ribų dalytis negalima;
(f)
any processing of personal data in the context of the sandbox neither leads to measures or decisions affecting the data subjects nor does it affect the application of their rights laid down in Union law on the protection of personal data;
f)
dėl asmens duomenų tvarkymo apribotos bandomosios reglamentavimo aplinkos kontekste nepriimama jokių priemonių ar sprendimų, kurie darytų poveikį duomenų subjektams ar jų naudojimuisi teisėmis, nustatytomis Sąjungos teisės aktuose dėl asmens duomenų apsaugos;
(g)
any personal data processed in the context of the sandbox are protected by means of appropriate technical and organisational measures and deleted once the participation in the sandbox has terminated or the personal data has reached the end of its retention period;
g)
visi apribotos bandomosios reglamentavimo aplinkos kontekste tvarkomi asmens duomenys apsaugomi tinkamomis techninėmis bei organizacinėmis priemonėmis, o pasibaigus dalyvavimui apribotoje bandomojoje reglamentavimo aplinkoje arba asmens duomenų saugojimo laikotarpiui – ištrinami;
(h)
the logs of the processing of personal data in the context of the sandbox are kept for the duration of the participation in the sandbox, unless provided otherwise by Union or national law;
h)
asmens duomenų tvarkymo apribotos bandomosios reglamentavimo aplinkos kontekste registracijos žurnalai saugomi visą dalyvavimo apribotoje bandomojoje reglamentavimo aplinkoje laikotarpį, nebent Sąjungos arba nacionalinės teisės aktuose nustatyta kitaip;
(i)
a complete and detailed description of the process and rationale behind the training, testing and validation of the AI system is kept together with the testing results as part of the technical documentation referred to in Annex IV;
i)
kaip vienas iš IV priede nurodytų techninių dokumentų, kartu su bandymo rezultatais saugomas išsamus ir detalus DI sistemos mokymo, bandymo bei validavimo proceso ir loginio pagrindo aprašas;
(j)
a short summary of the AI project developed in the sandbox, its objectives and expected results is published on the website of the competent authorities; this obligation shall not cover sensitive operational data in relation to the activities of law enforcement, border control, immigration or asylum authorities.
j)
kompetentingų institucijų svetainėje yra paskelbtas glaustas apribotoje bandomojoje reglamentavimo aplinkoje įgyvendinamo DI projekto, jo tikslų ir numatomų rezultatų aprašas; ši pareiga netaikoma neskelbtiniems operatyviniams duomenims, susijusiems su teisėsaugos, sienų kontrolės, imigracijos ar prieglobsčio institucijų veikla.
2. For the purposes of the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including safeguarding against and preventing threats to public security, under the control and responsibility of law enforcement authorities, the processing of personal data in AI regulatory sandboxes shall be based on a specific Union or national law and subject to the same cumulative conditions as referred to in paragraph 1.
2. Nusikalstamų veikų prevencijos, tyrimo, nustatymo ar traukimo baudžiamojon atsakomybėn už jas arba baudžiamųjų sankcijų vykdymo tikslais, įskaitant apsaugą nuo grėsmių visuomenės saugumui ir jų prevenciją, kontroliuojant teisėsaugos institucijoms ir jų atsakomybe, asmens duomenų tvarkymas apribotose bandomosiose DI reglamentavimo aplinkose grindžiamas konkrečiu arba Sąjungos, arba valstybės narės teisės aktu ir jam taikomos visos tos pačios 1 dalyje nurodytos sąlygos.
3. Paragraph 1 is without prejudice to Union or national law which excludes processing of personal data for other purposes than those explicitly mentioned in that law, as well as to Union or national law laying down the basis for the processing of personal data which is necessary for the purpose of developing, testing or training of innovative AI systems or any other legal basis, in compliance with Union law on the protection of personal data.
3. 1 dalimi nedaromas poveikis Sąjungos ar nacionalinės teisės aktams, kuriais draudžiama tvarkyti asmens duomenis kitais tikslais, nei aiškiai nurodyta tuose teisės aktuose, taip pat Sąjungos ar nacionalinės teisės aktuose, kuriuose nustatomas asmens duomenų tvarkymo novatoriškų DI sistemų kūrimo, bandymo ar mokymo tikslais pagrindas arba kitas teisinis pagrindas, laikantis Sąjungos teisės aktų dėl asmens duomenų apsaugos.
Article 60
60 straipsnis
Testing of high-risk AI systems in real world conditions outside AI regulatory sandboxes
Didelės rizikos DI sistemų bandymas realiomis sąlygomis už apribotų bandomųjų DI reglamentavimo aplinkų ribų
1. Testing of high-risk AI systems in real world conditions outside AI regulatory sandboxes may be conducted by providers or prospective providers of high-risk AI systems listed in Annex III, in accordance with this Article and the real-world testing plan referred to in this Article, without prejudice to the prohibitions under Article 5.
1. Nedarant poveikio 5 straipsnyje nustatytiems draudimams, III priede išvardytų didelės rizikos DI sistemų tiekėjai arba galimi tiekėjai, laikydamiesi šio straipsnio ir šiame straipsnyje nurodyto bandymo realiomis sąlygomis plano, gali atlikti didelės rizikos DI sistemų bandymą realiomis sąlygomis už apribotų bandomųjų DI reglamentavimo aplinkų ribų.
The Commission shall, by means of implementing acts, specify the detailed elements of the real-world testing plan. Those implementing acts shall be adopted in accordance with the examination procedure referred to in Article 98(2).
Komisija įgyvendinimo aktais nurodo išsamius bandymo realiomis sąlygomis plano elementus. Tie įgyvendinimo aktai priimami laikantis 98 straipsnio 2 dalyje nurodytos nagrinėjimo procedūros.
This paragraph shall be without prejudice to Union or national law on the testing in real world conditions of high-risk AI systems related to products covered by Union harmonisation legislation listed in Annex I.
Šia dalimi nedaromas poveikis Sąjungos ar nacionalinės teisės aktams dėl didelės rizikos DI sistemų, susijusių su gaminiais, kuriems taikomi I priede išvardyti teisės aktai, bandymo realiomis sąlygomis.
2. Providers or prospective providers may conduct testing of high-risk AI systems referred to in Annex III in real world conditions at any time before the placing on the market or the putting into service of the AI system on their own or in partnership with one or more deployers or prospective deployers.
2. Tiekėjai arba galimi tiekėjai, patys vieni arba kartu su vienu ar daugiau diegėjų ar galimų diegėjų, III priede nurodytų didelės rizikos DI sistemų bandymą realiomis sąlygomis gali atlikti bet kuriuo metu prieš pateikdami DI sistemą rinkai arba prieš pradedant ją naudoti.
3. The testing of high-risk AI systems in real world conditions under this Article shall be without prejudice to any ethical review that is required by Union or national law.
3. Didelės rizikos DI sistemų bandymas realiomis sąlygomis pagal šį straipsnį nedaro poveikio etikos aspektų vertinimui, kurio reikalaujama pagal Sąjungos ar nacionalinę teisę.
4. Providers or prospective providers may conduct the testing in real world conditions only where all of the following conditions are met:
4. Tiekėjai arba galimi tiekėjai bandymą realiomis sąlygomis gali atlikti tik tuo atveju, jei tenkinamos visos šios sąlygos:
(a)
the provider or prospective provider has drawn up a real-world testing plan and submitted it to the market surveillance authority in the Member State where the testing in real world conditions is to be conducted;
a)
tiekėjas arba galimas tiekėjas yra parengęs bandymo realiomis sąlygomis planą ir jį yra pateikęs valstybės narės, kurioje turi būti atliekamas bandymas realiomis sąlygomis, rinkos priežiūros institucijai;
(b)
the market surveillance authority in the Member State where the testing in real world conditions is to be conducted has approved the testing in real world conditions and the real-world testing plan; where the market surveillance authority has not provided an answer within 30 days, the testing in real world conditions and the real-world testing plan shall be understood to have been approved; where national law does not provide for a tacit approval, the testing in real world conditions shall remain subject to an authorisation;
b)
valstybės narės, kurioje turi būti atliekamas bandymas realiomis sąlygomis, rinkos priežiūros institucija yra patvirtinusi bandymą realiomis sąlygomis ir bandymo realiomis sąlygomis planą; jeigu rinkos priežiūros institucija per 30 dienų nepateikia atsakymo, laikoma, kad bandymas realiomis sąlygomis ir bandymo realiomis sąlygomis planas yra patvirtinti; jei nacionalinės teisės aktuose nėra numatytas tylus pritarimas, bandymui realiomis sąlygomis turi būti gautas leidimas;
(c)
the provider or prospective provider, with the exception of providers or prospective providers of high-risk AI systems referred to in points 1, 6 and 7 of Annex III in the areas of law enforcement, migration, asylum and border control management, and high-risk AI systems referred to in point 2 of Annex III has registered the testing in real world conditions in accordance with Article 71(4) with a Union-wide unique single identification number and with the information specified in Annex IX; the provider or prospective provider of high-risk AI systems referred to in points 1, 6 and 7 of Annex III in the areas of law enforcement, migration, asylum and border control management, has registered the testing in real-world conditions in the secure non-public section of the EU database according to Article 49(4), point (d), with a Union-wide unique single identification number and with the information specified therein; the provider or prospective provider of high-risk AI systems referred to in point 2 of Annex III has registered the testing in real-world conditions in accordance with Article 49(5);
c)
tiekėjas arba galimas tiekėjas, išskyrus III priedo 1, 6 ir 7 punktuose nurodytų didelės rizikos DI sistemų teisėsaugos, migracijos, prieglobsčio ir sienų kontrolės valdymo srityse ir didelės rizikos DI sistemų, nurodytų III priedo 2 punkte, tiekėjus ar galimus tiekėjus, bandymą realiomis sąlygomis yra užregistravęs pagal 71 straipsnio 4 dalį su Sąjungos masto unikaliu identifikaciniu numeriu ir su IX priede nurodyta informacija; III priedo 1, 6 ir 7 punktuose nurodytų didelės rizikos DI sistemų teisėsaugos, migracijos, prieglobsčio ir sienų kontrolės valdymo srityse tiekėjas arba galimas tiekėjas bandymą realiomis sąlygomis yra užregistravęs ES duomenų bazės neviešoje dalyje pagal 49 straipsnio 4 dalies d punktą su Sąjungos masto unikaliu identifikaciniu numeriu ir su ten nurodyta informacija; didelės rizikos DI sistemų, nurodytų III priedo 2 punkte, tiekėjus ar galimus tiekėjus, bandymą realiomis sąlygomis yra užregistravęs pagal 49 straipsnio 5 dalį;
(d)
the provider or prospective provider conducting the testing in real world conditions is established in the Union or has appointed a legal representative who is established in the Union;
d)
tiekėjas arba galimas tiekėjas, atliekantis bandymą realiomis sąlygomis, yra įsisteigęs Sąjungoje arba bandymo realiomis sąlygomis tikslais yra paskyręs Sąjungoje įsisteigusį teisinį atstovą;
(e)
data collected and processed for the purpose of the testing in real world conditions shall be transferred to third countries only provided that appropriate and applicable safeguards under Union law are implemented;
e)
duomenys, surinkti ir tvarkomi bandymo realiomis sąlygomis tikslais, trečiosioms valstybėms perduodami tik tuo atveju, jei įgyvendinamos tinkamos ir taikytinos apsaugos priemonės pagal Sąjungos teisę;
(f)
the testing in real world conditions does not last longer than necessary to achieve its objectives and in any case not longer than six months, which may be extended for an additional period of six months, subject to prior notification by the provider or prospective provider to the market surveillance authority, accompanied by an explanation of the need for such an extension;
f)
bandymas realiomis sąlygomis trunka ne ilgiau, nei būtina jo tikslams pasiekti, ir bet kuriuo atveju ne ilgiau kaip šešis mėnesius; šis laikotarpis gali būti pratęstas dar šešių mėnesių laikotarpiu, jei tiekėjas ar galimas tiekėjas apie tai iš anksto praneša rinkos priežiūros institucijai ir pateikia tokio pratęsimo poreikio paaiškinimą;
(g)
the subjects of the testing in real world conditions who are persons belonging to vulnerable groups due to their age or disability, are appropriately protected;
g)
bandymo realiomis sąlygomis subjektai, kurie yra asmenys dėl savo amžiaus, fizinės ar psichinės negalios priskiriami pažeidžiamoms grupėms, yra tinkamai apsaugoti;
(h)
where a provider or prospective provider organises the testing in real world conditions in cooperation with one or more deployers or prospective deployers, the latter have been informed of all aspects of the testing that are relevant to their decision to participate, and given the relevant instructions for use of the AI system referred to in Article 13; the provider or prospective provider and the deployer or prospective deployer shall conclude an agreement specifying their roles and responsibilities with a view to ensuring compliance with the provisions for testing in real world conditions under this Regulation and under other applicable Union and national law;
h)
jeigu tiekėjas arba galimas tiekėjas bandymą realiomis sąlygomis organizuoja bendradarbiaudamas su vienu ar daugiau diegėjų arba galimų diegėjų, pastarieji yra informuoti apie visus bandymo aspektus, kurie yra aktualūs jų sprendimui dalyvauti, ir jiems yra pateikti 13 straipsnyje nurodyti atitinkami nurodymai dėl DI sistemos naudojimo; tiekėjas arba galimas tiekėjas ir diegėjas ar galimas diegėjas sudaro susitarimą, kuriame nurodomi jų vaidmenys ir atsakomybė siekiant užtikrinti, kad būtų laikomasi nuostatų dėl bandymo realiomis sąlygomis pagal šį reglamentą ir kitus taikytinus Sąjungos ir nacionalinės teisės aktus;
(i)
the subjects of the testing in real world conditions have given informed consent in accordance with Article 61, or in the case of law enforcement, where the seeking of informed consent would prevent the AI system from being tested, the testing itself and the outcome of the testing in the real world conditions shall not have any negative effect on the subjects, and their personal data shall be deleted after the test is performed;
i)
bandymo realiomis sąlygomis subjektai yra davę informuoto asmens sutikimą pagal 61 straipsnį arba, teisėsaugos atveju, kai prašant informuoto asmens sutikimo būtų užkirstas kelias DI sistemos bandymui, pats bandymas ir bandymo realiomis sąlygomis rezultatai nedaro neigiamo poveikio subjektams, o jų asmens duomenys užbaigus bandymą yra ištrinami;
(j)
the testing in real world conditions is effectively overseen by the provider or prospective provider, as well as by deployers or prospective deployers through persons who are suitably qualified in the relevant field and have the necessary capacity, training and authority to perform their tasks;
j)
bandymą realiomis sąlygomis tiekėjas arba galimas tiekėjas, taip pat diegėjai arba galimi diegėjai veiksmingai prižiūri, pasitelkdami asmenis, kurie turi tinkamą kvalifikaciją atitinkamoje srityje ir turi savo užduotims atlikti reikiamų gebėjimų, yra tam parengti ir turi atitinkamus įgaliojimus;
(k)
the predictions, recommendations or decisions of the AI system can be effectively reversed and disregarded.
k)
DI sistemos sugeneruotos predikcijos, rekomendacijos ar sprendimai gali būti veiksmingai atšaukti arba į juos gali būti neatsižvelgiama.
5. Any subjects of the testing in real world conditions, or their legally designated representative, as appropriate, may, without any resulting detriment and without having to provide any justification, withdraw from the testing at any time by revoking their informed consent and may request the immediate and permanent deletion of their personal data. The withdrawal of the informed consent shall not affect the activities already carried out.
5. Bandymo realiomis sąlygomis subjektai arba atitinkamai jų teisėtai paskirtai atstovai, nepatirdami jokios žalos ir neprivalėdami pateikti jokio pagrindimo, gali bet kuriuo metu pasitraukti iš bandymo atšaukdami savo informuoto asmens sutikimą ir gali reikalauti, kad jų asmens duomenys būtų nedelsiant ištrinti. Informuoto asmens sutikimo atšaukimas neturi įtakos jau atliktai veiklai.
6. In accordance with Article 75, Member States shall confer on their market surveillance authorities the powers of requiring providers and prospective providers to provide information, of carrying out unannounced remote or on-site inspections, and of performing checks on the conduct of the testing in real world conditions and the related high-risk AI systems. Market surveillance authorities shall use those powers to ensure the safe development of testing in real world conditions.
6. Pagal 75 straipsnį valstybės narės savo rinkos priežiūros institucijoms suteikia įgaliojimus reikalauti, kad tiekėjai ir galimi tiekėjai pateiktų informaciją, atlikti nuotolinius neplaninius patikrinimus arba patikrinimus vietoje ir patikrinimus, kaip vyksta bandymas realiomis sąlygomis, taip pat patikrinti susijusias didelės rizikos DI sistemas. Rinkos priežiūros institucijos naudojasi tais įgaliojimais, kad užtikrintų saugų bandymų realiomis sąlygomis plėtojimą.
7. Any serious incident identified in the course of the testing in real world conditions shall be reported to the national market surveillance authority in accordance with Article 73. The provider or prospective provider shall adopt immediate mitigation measures or, failing that, shall suspend the testing in real world conditions until such mitigation takes place, or otherwise terminate it. The provider or prospective provider shall establish a procedure for the prompt recall of the AI system upon such termination of the testing in real world conditions.
7. Apie visus rimtus incidentus, nustatytus atliekant bandymą realiomis sąlygomis, pagal šio reglamento 73 straipsnį pranešama nacionalinei rinkos priežiūros institucijai. Tiekėjas arba galimas tiekėjas imasi neatidėliotinų rizikos sumažinimo priemonių arba, kai tai neįmanoma, sustabdo bandymą realiomis sąlygomis, kol tokia rizika bus sumažinta, arba kitu atveju jį nutraukia. Tiekėjas arba galimas tiekėjas nustato procedūrą, pagal kurią DI sistema būtų nedelsiant atšaukta, jei toks bandymas realiomis sąlygomis būtų nutrauktas.
8. Providers or prospective providers shall notify the national market surveillance authority in the Member State where the testing in real world conditions is to be conducted of the suspension or termination of the testing in real world conditions and of the final outcomes.
8. Tiekėjai arba galimi tiekėjai valstybės narės, kurioje turi būti atliekamas bandymas realiomis sąlygomis, nacionalinei rinkos priežiūros institucijai praneša apie bandymo realiomis sąlygomis sustabdymą arba nutraukimą ir galutinius rezultatus.
9. The provider or prospective provider shall be liable under applicable Union and national liability law for any damage caused in the course of their testing in real world conditions.
9. Tiekėjai arba galimi tiekėjai pagal taikytinus Sąjungos ir nacionalinės teisės aktus, kuriais reglamentuojama atsakomybė, yra atsakingi už žalą, padarytą jų atliekamo bandymo realiomis sąlygomis metu.
Article 61
61 straipsnis
Informed consent to participate in testing in real world conditions outside AI regulatory sandboxes
Informuoto asmens sutikimas dalyvauti bandyme realiomis sąlygomis už apribotų bandomųjų DI reglamentavimo aplinkų ribų
1. For the purpose of testing in real world conditions under Article 60, freely-given informed consent shall be obtained from the subjects of testing prior to their participation in such testing and after their having been duly informed with concise, clear, relevant, and understandable information regarding:
1. Bandymo realiomis sąlygomis pagal 60 straipsnį tikslais laisva valia duodamas informuoto asmens sutikimas iš subjektų turi būti gautas prieš jiems pradedant dalyvauti tokiame bandyme ir tik juos tinkamai informavus pateikiant glaustą, aiškią, aktualią ir suprantamą informaciją apie:
(a)
the nature and objectives of the testing in real world conditions and the possible inconvenience that may be linked to their participation;
a)
bandymo realiomis sąlygomis pobūdį ir tikslus bei galimus nepatogumus, kurie gali būti susiję su jų dalyvavimu;
(b)
the conditions under which the testing in real world conditions is to be conducted, including the expected duration of the subject or subjects’ participation;
b)
sąlygas, kuriomis turi būti atliekamas bandymas realiomis sąlygomis, įskaitant numatomą subjekto (-ų) dalyvavimo trukmę;
(c)
their rights, and the guarantees regarding their participation, in particular their right to refuse to participate in, and the right to withdraw from, testing in real world conditions at any time without any resulting detriment and without having to provide any justification;
c)
subjektų teises ir garantijas, susijusias su jų dalyvavimu, visų pirma jų teisę atsisakyti dalyvauti ir teisę bet kuriuo metu pasitraukti iš bandymo realiomis sąlygomis nepatiriant jokios žalos ir neprivalant pateikti pagrindimo;
(d)
the arrangements for requesting the reversal or the disregarding of the predictions, recommendations or decisions of the AI system;
d)
prašymo atšaukti DI sistemos predikcijas, rekomendacijas ar sprendimus arba į juos neatsižvelgti pateikimo tvarką;
(e)
the Union-wide unique single identification number of the testing in real world conditions in accordance with Article 60(4) point (c), and the contact details of the provider or its legal representative from whom further information can be obtained.
e)
bandymo realiomis sąlygomis visoje Sąjungoje taikomą vienintelį unikalųjį identifikacinį numerį pagal 60 straipsnio 4 dalies c punktą ir tiekėjo arba jo teisinio atstovo, iš kurio galima gauti papildomos informacijos, kontaktinius duomenis.
2. The informed consent shall be dated and documented and a copy shall be given to the subjects of testing or their legal representative.
2. Informuoto asmens sutikime turi būti nurodyta data ir jis įforminamas dokumentu, o subjektams arba jų teisiniams atstovams pateikiama šio dokumento kopija.
Article 62
62 straipsnis
Measures for providers and deployers, in particular SMEs, including start-ups
Tiekėjams ir diegėjams, ypač MVĮ, įskaitant startuolius, taikomos priemonės
1. Member States shall undertake the following actions:
1. Valstybės narės imasi šių veiksmų:
(a)
provide SMEs, including start-ups, having a registered office or a branch in the Union, with priority access to the AI regulatory sandboxes, to the extent that they fulfil the eligibility conditions and selection criteria; the priority access shall not preclude other SMEs, including start-ups, other than those referred to in this paragraph from access to the AI regulatory sandbox, provided that they also fulfil the eligibility conditions and selection criteria;
a)
suteikia MVĮ, įskaitant startuolius, kurios Sąjungoje turi registruotą buveinę arba filialą, pirmenybę dalyvauti apribotose bandomosiose DI reglamentavimo aplinkose, jei jos tenkina tinkamumo sąlygas ir atrankos kriterijus; ši pirmenybė dalyvauti nekliudo kitoms MVĮ, įskaitant startuolius, kurios nėra šioje dalyje nurodytos įmonės, taip pat dalyvauti apribotoje bandomojoje DI reglamentavimo aplinkoje, jei jos taip pat atitinka tinkamumo sąlygas ir atrankos kriterijus;
(b)
organise specific awareness raising and training activities on the application of this Regulation tailored to the needs of SMEs including start-ups, deployers and, as appropriate, local public authorities;
b)
organizuoja specialią informuotumo apie šio reglamento taikymą didinimo ir mokymo šia tema veiklą, specialiai pritaikytą MVĮ, įskaitant startuolius, diegėjų ir atitinkamai vietos valdžios institucijų poreikiams;
(c)
utilise existing dedicated channels and where appropriate, establish new ones for communication with SMEs including start-ups, deployers, other innovators and, as appropriate, local public authorities to provide advice and respond to queries about the implementation of this Regulation, including as regards participation in AI regulatory sandboxes;
c)
naudoja esamus specialius kanalus ir, kai tinkama, sukuria naujus kanalus ryšiams su MVĮ, įskaitant startuolius, diegėjais, kitais novatoriais ir atitinkamai vietos valdžios institucijomis, kad būtų teikiamos konsultacijos ir atsakoma į užklausas dėl šio reglamento įgyvendinimo, be kita ko, dėl dalyvavimo apribotose bandomosiose DI reglamentavimo aplinkose;
(d)
facilitate the participation of SMEs and other relevant stakeholders in the standardisation development process.
d)
sudaro palankesnes sąlygas MVĮ ir kitiems atitinkamiems suinteresuotiesiems subjektams dalyvauti standartų rengimo procese.
2. The specific interests and needs of the SME providers, including start-ups, shall be taken into account when setting the fees for conformity assessment under Article 43, reducing those fees proportionately to their size, market size and other relevant indicators.
2. Nustatant rinkliavas už 43 straipsnyje nurodytą atitikties vertinimą atsižvelgiama į konkrečius tiekėjų, kurie yra MVĮ, įskaitant startuolius, interesus ir poreikius; šios rinkliavos proporcingai sumažinamos atsižvelgiant į jų dydį, rinkos dydį ir kitus atitinkamus rodiklius.
3. The AI Office shall undertake the following actions:
3. DI tarnyba imasi šių veiksmų:
(a)
provide standardised templates for areas covered by this Regulation, as specified by the Board in its request;
a)
pateikia standartinius šablonus, skirtus sritims, kurioms taikomas šis reglamentas, kaip savo prašyme nurodė Valdyba;
(b)
develop and maintain a single information platform providing easy to use information in relation to this Regulation for all operators across the Union;
b)
sukuria ir tvarko bendrą informacinę platformą, kurioje visiems veiklos vykdytojams visoje Sąjungoje būtų teikiama lengvai naudojama su šiuo reglamentu susijusi informacija;
(c)
organise appropriate communication campaigns to raise awareness about the obligations arising from this Regulation;
c)
rengia atitinkamas komunikacijos kampanijas, skirtas informuotumui apie iš šio reglamento kylančias pareigas didinti;
(d)
evaluate and promote the convergence of best practices in public procurement procedures in relation to AI systems.
d)
vertina ir skatina su DI sistemomis susijusių viešųjų pirkimų procedūrų geriausios praktikos konvergenciją.
Article 63
63 straipsnis
Derogations for specific operators
Konkretiems veiklos vykdytojams taikomos nukrypti leidžiančios nuostatos
1. Microenterprises within the meaning of Recommendation 2003/361/EC may comply with certain elements of the quality management system required by Article 17 of this Regulation in a simplified manner, provided that they do not have partner enterprises or linked enterprises within the meaning of that Recommendation. For that purpose, the Commission shall develop guidelines on the elements of the quality management system which may be complied with in a simplified manner considering the needs of microenterprises, without affecting the level of protection or the need for compliance with the requirements in respect of high-risk AI systems.
1. Labai mažos įmonės, kaip tai suprantama Rekomendacijoje 2003/361/EB, tam tikrų kokybės valdymo sistemos, kurios reikalaujama pagal šio reglamento 17 straipsnį, elementų gali laikytis supaprastintai, su sąlyga, kad jos neturi įmonių partnerių arba susijusių įmonių, kaip tai suprantama toje rekomendacijoje. Tuo tikslu Komisija parengia gaires dėl kokybės valdymo sistemos elementų, kurių gali būti laikomasi supaprastintai, atsižvelgiant į labai mažų įmonių poreikius, nedarant poveikio apsaugos lygiui ar poreikiui laikytis reikalavimų, susijusių su didelės rizikos DI sistemomis.
2. Paragraph 1 of this Article shall not be interpreted as exempting those operators from fulfilling any other requirements or obligations laid down in this Regulation, including those established in Articles 9, 10, 11, 12, 13, 14, 15, 72 and 73.
2. Šio straipsnio 1 dalis negali būti suprantama taip, kad tie veiklos vykdytojai atleidžiami nuo kitų šiame reglamente nustatytų reikalavimų ir pareigų vykdymo, įskaitant 9, 10, 11, 12, 13, 14, 15, 72 ir 73 straipsniuose nustatytus reikalavimus ir pareigas.
CHAPTER VII
VII SKYRIUS
GOVERNANCE
VALDYMAS
SECTION 1
1 SKIRSNIS
Governance at Union level
Valdymas Sąjungos lygmeniu
Article 64
64 straipsnis
AI Office
DI tarnyba
1. The Commission shall develop Union expertise and capabilities in the field of AI through the AI Office.
1. Komisija per DI tarnybą plėtoja Sąjungos ekspertines žinias ir pajėgumus DI srityje.
2. Member States shall facilitate the tasks entrusted to the AI Office, as reflected in this Regulation.
2. Valstybės narės sudaro palankesnes sąlygas vykdyti DI tarnybai pavestas užduotis, kaip nurodyta šiame reglamente.
Article 65
65 straipsnis
Establishment and structure of the European Artificial Intelligence Board
Europos dirbtinio intelekto valdybos įsteigimas ir struktūra
1. A European Artificial Intelligence Board (the ‘Board’) is hereby established.
1. Įsteigiama Europos dirbtinio intelekto valdyba (toliau – Valdyba).
2. The Board shall be composed of one representative per Member State. The European Data Protection Supervisor shall participate as observer. The AI Office shall also attend the Board’s meetings, without taking part in the votes. Other national and Union authorities, bodies or experts may be invited to the meetings by the Board on a case by case basis, where the issues discussed are of relevance for them.
2. Valdybą sudaro po vieną kiekvienos valstybės narės atstovą. Stebėtojo teisėmis joje dalyvauja Europos duomenų apsaugos priežiūros pareigūnas. Valdybos posėdžiuose taip pat dalyvauja DI tarnyba, tačiau ji nedalyvauja balsuojant. Į Valdybos posėdžius kiekvienu konkrečiu atveju gali būti kviečiamos kitos nacionalinės ir Sąjungos institucijos, įstaigos ar ekspertai, jei aptariami klausimai yra jiems aktualūs.
3. Each representative shall be designated by their Member State for a period of three years, renewable once.
3. Kiekvieną atstovą valstybė narė skiria trejų metų laikotarpiui, kuris gali būti pratęstas vieną kartą.
4. Member States shall ensure that their representatives on the Board:
4. Valstybės narės užtikrina, kad jų atstovai Valdyboje:
(a)
have the relevant competences and powers in their Member State so as to contribute actively to the achievement of the Board’s tasks referred to in Article 66;
a)
savo valstybėje narėje turėtų atitinkamą kompetenciją ir įgaliojimus, kad galėtų aktyviai prisidėti prie 66 straipsnyje nurodytų Valdybos užduočių vykdymo;
(b)
are designated as a single contact point vis-à-vis the Board and, where appropriate, taking into account Member States’ needs, as a single contact point for stakeholders;
b)
būtų paskirti ryšių su Valdyba palaikymo vienu bendru kontaktiniu punktu ir, kai tinkama, atsižvelgiant į valstybių narių poreikius, ryšių su suinteresuotaisiais subjektais palaikymo vienu bendru kontaktiniu punktu;
(c)
are empowered to facilitate consistency and coordination between national competent authorities in their Member State as regards the implementation of this Regulation, including through the collection of relevant data and information for the purpose of fulfilling their tasks on the Board.
c)
būtų įgalioti palengvinti savo valstybės narės nacionalinių kompetentingų institucijų veiklos nuoseklumo ir koordinavimo užtikrinimą, kiek tai susiję su šio reglamento įgyvendinimu, be kita ko, rinktų atitinkamus duomenis ir informaciją, kad galėtų vykdyti savo užduotis Valdyboje.
5. The designated representatives of the Member States shall adopt the Board’s rules of procedure by a two-thirds majority. The rules of procedure shall, in particular, lay down procedures for the selection process, the duration of the mandate of, and specifications of the tasks of, the Chair, detailed arrangements for voting, and the organisation of the Board’s activities and those of its sub-groups.
5. Paskirti valstybių narių atstovai Valdybos darbo tvarkos taisykles priima dviejų trečdalių balsų dauguma. Darbo tvarkos taisyklėse visų pirma nustatoma atrankos proceso tvarka, įgaliojimų trukmė ir pirmininko užduočių specifikacijos, išsami balsavimo tvarka ir Valdybos bei jos pogrupių veiklos organizavimas.
6. The Board shall establish two standing sub-groups to provide a platform for cooperation and exchange among market surveillance authorities and notifying authorities about issues related to market surveillance and notified bodies respectively.
6. Valdyba įsteigia du nuolatinius pogrupius, kad būtų suteikta platforma rinkos priežiūros institucijų bendradarbiavimui ir keitimuisi informacija, o notifikuojančioms institucijoms būtų pranešama apie klausimus, susijusius su atitinkamai rinkos priežiūros ir notifikuotosiomis įstaigomis.
The standing sub-group for market surveillance should act as the administrative cooperation group (ADCO) for this Regulation within the meaning of Article 30 of Regulation (EU) 2019/1020.
Nuolatinis rinkos priežiūros pogrupis turėtų veikti kaip administracinio bendradarbiavimo šio reglamento tikslais grupė, kaip tai suprantama Reglamento (ES) 2019/1020 30 straipsnyje.
The Board may establish other standing or temporary sub-groups as appropriate for the purpose of examining specific issues. Where appropriate, representatives of the advisory forum referred to in Article 67 may be invited to such sub-groups or to specific meetings of those subgroups as observers.
Valdyba atitinkamai gali sudaryti kitus nuolatinius ar laikinuosius pogrupius konkretiems klausimams nagrinėti. Kai tinkama, į tokius pogrupius arba į konkrečius tų pogrupių posėdžius stebėtojų teisėmis gali būti kviečiami 67 straipsnyje nurodyto patariamojo forumo atstovai.
7. The Board shall be organised and operated so as to safeguard the objectivity and impartiality of its activities.
7. Valdybos veikla organizuojama ir ji veikia taip, kad būtų užtikrintas jos veiklos objektyvumas ir nešališkumas.
8. The Board shall be chaired by one of the representatives of the Member States. The AI Office shall provide the secretariat for the Board, convene the meetings upon request of the Chair, and prepare the agenda in accordance with the tasks of the Board pursuant to this Regulation and its rules of procedure.
8. Valdybai pirmininkauja vienas iš valstybių narių atstovų. DI tarnyba teikia Valdybai sekretoriato paslaugas, pirmininko prašymu sušaukia posėdžius ir parengia darbotvarkę atsižvelgdama į Valdybos užduotis pagal šį reglamentą ir jos darbo tvarkos taisykles.
Article 66
66 straipsnis
Tasks of the Board
Valdybos užduotys
The Board shall advise and assist the Commission and the Member States in order to facilitate the consistent and effective application of this Regulation. To that end, the Board may in particular:
Valdyba konsultuoja Komisiją ir valstybes nares ir joms padeda, kad būtų palengvintas nuoseklus ir veiksmingas šio reglamento taikymas. Tuo tikslu Valdyba visų pirma gali:
(a)
contribute to the coordination among national competent authorities responsible for the application of this Regulation and, in cooperation with and subject to the agreement of the market surveillance authorities concerned, support joint activities of market surveillance authorities referred to in Article 74(11);
a)
prisidėti prie nacionalinių kompetentingų institucijų, atsakingų už šio reglamento taikymą, veiklos koordinavimo ir, bendradarbiaudama su atitinkamomis rinkos priežiūros institucijomis ir gavusi jų sutikimą, remti 74 straipsnio 11 dalyje nurodytą bendrą rinkos priežiūros institucijų veiklą;
(b)
collect and share technical and regulatory expertise and best practices among Member States;
b)
rinkti technines ir su reglamentavimu susijusias ekspertines žinias bei geriausios praktikos pavyzdžius ir jais dalytis su valstybėmis narėmis;
(c)
provide advice on the implementation of this Regulation, in particular as regards the enforcement of rules on general-purpose AI models;
c)
teikti konsultacijas dėl šio reglamento įgyvendinimo, visų pirma dėl bendrosios paskirties DI modeliams skirtų taisyklių vykdymo užtikrinimo;
(d)
contribute to the harmonisation of administrative practices in the Member States, including in relation to the derogation from the conformity assessment procedures referred to in Article 46, the functioning of AI regulatory sandboxes, and testing in real world conditions referred to in Articles 57, 59 and 60;
d)
prisidėti derinant valstybių narių administracinę praktiką, be kita ko, susijusią su nukrypti nuo 46 straipsnyje nurodytų atitikties vertinimo procedūrų leidžiančia nuostata, DI apribotų bandomųjų reglamentavimo aplinkų veikimu ir bandymu realiomis sąlygomis, kaip nurodyta 57, 59 ir 60 straipsniuose;
(e)
at the request of the Commission or on its own initiative, issue recommendations and written opinions on any relevant matters related to the implementation of this Regulation and to its consistent and effective application, including:
e)
Komisijos prašymu arba savo iniciatyva skelbti rekomendacijas ir rašytines nuomones dėl visų aktualių klausimų, susijusių su šio reglamento įgyvendinimu ir nuosekliu bei veiksmingu jo taikymu, be kita ko:
(i)
on the development and application of codes of conduct and codes of practice pursuant to this Regulation, as well as of the Commission’s guidelines;
i)
dėl elgesio kodeksų ir praktikos kodeksų, taip pat Komisijos gairių rengimo ir taikymo pagal šį reglamentą;
(ii)
the evaluation and review of this Regulation pursuant to Article 112, including as regards the serious incident reports referred to in Article 73, and the functioning of the EU database referred to in Article 71, the preparation of the delegated or implementing acts, and as regards possible alignments of this Regulation with the Union harmonisation legislation listed in Annex I;
ii)
dėl šio reglamento vertinimo ir peržiūros pagal 112 straipsnį, be kita ko, kiek tai susiję su 73 straipsnyje nurodytais pranešimais apie rimtus incidentus, ir dėl 71 straipsnyje nurodytos ES duomenų bazės veikimo, deleguotųjų arba įgyvendinimo aktų rengimo ir dėl galimo šio reglamento suderinimo su I priede išvardytais Sąjungos derinimo teisės aktais;
(iii)
on technical specifications or existing standards regarding the requirements set out in Chapter III, Section 2;
iii)
dėl techninių specifikacijų arba esamų standartų, susijusių su III skyriaus 2 skirsnyje nustatytais reikalavimais;
(iv)
on the use of harmonised standards or common specifications referred to in Articles 40 and 41;
iv)
dėl 40 ir 41 straipsniuose nurodytų darniųjų standartų arba bendrųjų specifikacijų naudojimo;
(v)
trends, such as European global competitiveness in AI, the uptake of AI in the Union, and the development of digital skills;
v)
dėl tendencijų, pavyzdžiui, Europos pasaulinio konkurencingumo DI srityje, DI diegimo Sąjungoje ir skaitmeninių įgūdžių ugdymo;
(vi)
trends on the evolving typology of AI value chains, in particular on the resulting implications in terms of accountability;
vi)
dėl tendencijų, susijusių su kintančia DI vertės grandinių tipologija, visų pirma dėl su tuo susijusių pasekmių atsakomybei;
(vii)
on the potential need for amendment to Annex III in accordance with Article 7, and on the potential need for possible revision of Article 5 pursuant to Article 112, taking into account relevant available evidence and the latest developments in technology;
vii)
dėl galimo poreikio pagal 7 straipsnį iš dalies pakeisti III priedą ir dėl galimo poreikio laikantis 112 straipsnio galimai peržiūrėti 5 straipsnį, atsižvelgiant į atitinkamus turimus faktinius duomenis ir naujausius technologinius pokyčius;
(f)
support the Commission in promoting AI literacy, public awareness and understanding of the benefits, risks, safeguards and rights and obligations in relation to the use of AI systems;
f)
remti Komisiją skatinant visuomenės informuotumą ir supratimą apie DI sistemų naudojimo naudą, jų riziką, su jomis susijusias apsaugos priemones ir teises bei pareigas;
(g)
facilitate the development of common criteria and a shared understanding among market operators and competent authorities of the relevant concepts provided for in this Regulation, including by contributing to the development of benchmarks;
g)
sudaryti palankesnes sąlygas parengti bendrus kriterijus ir plėtoti bendrą rinkos dalyvių ir kompetentingų institucijų supratimą apie atitinkamas šiame reglamente numatytas sąvokas, be kita, prisidėti prie lyginamųjų parametrų rengimo;
(h)
cooperate, as appropriate, with other Union institutions, bodies, offices and agencies, as well as relevant Union expert groups and networks, in particular in the fields of product safety, cybersecurity, competition, digital and media services, financial services, consumer protection, data and fundamental rights protection;
h)
atitinkamai bendradarbiauti su kitomis Sąjungos institucijomis, įstaigomis, organais ir agentūromis, taip pat atitinkamomis Sąjungos ekspertų grupėmis ir tinklais, visų pirma gaminių saugos, kibernetinio saugumo, konkurencijos, skaitmeninių ir žiniasklaidos paslaugų, finansinių paslaugų, vartotojų apsaugos, duomenų ir pagrindinių teisių apsaugos srityse;
(i)
contribute to effective cooperation with the competent authorities of third countries and with international organisations;
i)
prisidėti prie veiksmingo bendradarbiavimo su trečiųjų valstybių kompetentingomis institucijomis ir tarptautinėmis organizacijomis;
(j)
assist national competent authorities and the Commission in developing the organisational and technical expertise required for the implementation of this Regulation, including by contributing to the assessment of training needs for staff of Member States involved in implementing this Regulation;
j)
padėti nacionalinėms kompetentingoms institucijoms ir Komisijai plėtoti organizacines ir technines ekspertines žinias, reikalingas šiam reglamentui įgyvendinti, be kita ko, prisidėti vertinant valstybių narių darbuotojų, dalyvaujančių įgyvendinant šį reglamentą, mokymo poreikius;
(k)
assist the AI Office in supporting national competent authorities in the establishment and development of AI regulatory sandboxes, and facilitate cooperation and information-sharing among AI regulatory sandboxes;
k)
padėti DI tarnybai remti nacionalines kompetentingas institucijas kuriant ir plėtojant DI apribotas bandomąsias reglamentavimo aplinkas ir sudaryti palankesnes sąlygas bendradarbiavimui ir dalijimuisi informacija tokiose aplinkose;
(l)
contribute to, and provide relevant advice on, the development of guidance documents;
l)
prisidėti prie rekomendacinių dokumentų rengimo ir teikti atitinkamas konsultacijas šiuo klausimu;
(m)
advise the Commission in relation to international matters on AI;
m)
konsultuoti Komisiją tarptautiniais su DI susijusiais klausimais;
(n)
provide opinions to the Commission on the qualified alerts regarding general-purpose AI models;
n)
teikti nuomones Komisijai dėl kvalifikuotų perspėjimų dėl bendrosios paskirties DI modelių;
(o)
receive opinions by the Member States on qualified alerts regarding general-purpose AI models, and on national experiences and practices on the monitoring and enforcement of AI systems, in particular systems integrating the general-purpose AI models.
o)
gauti valstybių narių nuomones apie kvalifikuotus perspėjimus dėl bendrosios paskirties DI modelių ir apie nacionalinę patirtį bei praktiką DI sistemų, visų pirma sistemų, į kuriais yra integruota bendrosios paskirties DI modelių, stebėsenos ir joms taikomų reikalavimų vykdymo užtikrinimo srityse.
Article 67
67 straipsnis
Advisory forum
Patariamasis forumas
1. An advisory forum shall be established to provide technical expertise and advise the Board and the Commission, and to contribute to their tasks under this Regulation.
1. Įsteigiamas patariamasis forumas, kurio paskirtis – teikti technines ekspertines žinias ir konsultuoti Valdybą bei Komisiją ir prisidėti prie jų užduočių pagal šį reglamentą vykdymo.
2. The membership of the advisory forum shall represent a balanced selection of stakeholders, including industry, start-ups, SMEs, civil society and academia. The membership of the advisory forum shall be balanced with regard to commercial and non-commercial interests and, within the category of commercial interests, with regard to SMEs and other undertakings.
2. Patariamojo forumo nariais yra subalansuotai atrinkta suinteresuotųjų subjektų, įskaitant pramonės atstovus, startuolius, MVĮ, pilietinės visuomenės ir akademinės bendruomenės atstovus, grupė. Patariamajame forume subalansuotai atstovaujama komerciniams ir nekomerciniams interesams, o komercinių interesų kategorijoje – MVĮ ir kitoms įmonėms.
3. The Commission shall appoint the members of the advisory forum, in accordance with the criteria set out in paragraph 2, from amongst stakeholders with recognised expertise in the field of AI.
3. Komisija, laikydamasi 2 dalyje nustatytų kriterijų, skiria patariamojo forumo narius iš pripažintų ekspertinių žinių DI srityje turinčių suinteresuotųjų subjektų.
4. The term of office of the members of the advisory forum shall be two years, which may be extended by up to no more than four years.
4. Patariamojo forumo nariai skiriami dvejų metų kadencijai, kuri gali būti pratęsta ne ilgesniam kaip ketverių metų laikotarpiui.
5. The Fundamental Rights Agency, ENISA, the European Committee for Standardization (CEN), the European Committee for Electrotechnical Standardization (CENELEC), and the European Telecommunications Standards Institute (ETSI) shall be permanent members of the advisory forum.
5. Pagrindinių teisių agentūra, ENISA, Europos standartizacijos komitetas (CEN), Europos elektrotechnikos standartizacijos komitetas (CENELEC) ir Europos telekomunikacijų standartų institutas (ETSI) yra nuolatiniai patariamojo forumo nariai.
6. The advisory forum shall draw up its rules of procedure. It shall elect two co-chairs from among its members, in accordance with criteria set out in paragraph 2. The term of office of the co-chairs shall be two years, renewable once.
6. Patariamasis forumas parengia savo darbo tvarkos taisykles. Jis iš savo narių išrenka du bendrapirmininkius pagal 2 dalyje nustatytus kriterijus. Bendrapirmininkiai skiriami dvejų metų kadencijai, kuri gali būti pratęsta vieną kartą.
7. The advisory forum shall hold meetings at least twice a year. The advisory forum may invite experts and other stakeholders to its meetings.
7. Patariamasis forumas rengia posėdžius bent du kartus per metus. Patariamasis forumas į savo posėdžius gali kviesti ekspertus ir kitus suinteresuotuosius subjektus.
8. The advisory forum may prepare opinions, recommendations and written contributions at the request of the Board or the Commission.
8. Valdybos arba Komisijos prašymu patariamasis forumas gali rengti nuomones, rekomendacijas ir rašytines pastabas.
9. The advisory forum may establish standing or temporary sub-groups as appropriate for the purpose of examining specific questions related to the objectives of this Regulation.
9. Patariamasis forumas atitinkamai gali sudaryti nuolatinius arba laikinuosius pogrupius konkretiems su šio reglamento tikslais susijusiems klausimams nagrinėti.
10. The advisory forum shall prepare an annual report on its activities. That report shall be made publicly available.
10. Patariamasis forumas parengia metinę savo veiklos ataskaitą. Ši ataskaita skelbiama viešai.
Article 68
68 straipsnis
Scientific panel of independent experts
Nepriklausomų ekspertų mokslinė komisija
1. The Commission shall, by means of an implementing act, make provisions on the establishment of a scientific panel of independent experts (the ‘scientific panel’) intended to support the enforcement activities under this Regulation. That implementing act shall be adopted in accordance with the examination procedure referred to in Article 98(2).
1. Komisija įgyvendinimo aktu priima nuostatas dėl nepriklausomų ekspertų mokslinės komisijos (toliau – mokslinė komisija), kuriai pavesta remti vykdymo užtikrinimo veiklą pagal šį reglamentą, įsteigimo. Tas įgyvendinimo aktas priimamas laikantis 98 straipsnio 2 dalyje nurodytos nagrinėjimo procedūros.
2. The scientific panel shall consist of experts selected by the Commission on the basis of up-to-date scientific or technical expertise in the field of AI necessary for the tasks set out in paragraph 3, and shall be able to demonstrate meeting all of the following conditions:
2. Mokslinę komisiją sudaro ekspertai, kuriuos Komisija atrenka remdamasi jų naujausiomis mokslinėmis ar techninėmis ekspertinėmis žiniomis DI srityje, kurių reikia 3 dalyje nustatytoms užduotims atlikti, ir kurie gali įrodyti, kad atitinka visas šias sąlygas:
(a)
having particular expertise and competence and scientific or technical expertise in the field of AI;
a)
turi specialių ekspertinių žinių ir kompetencijos ir mokslinių ar techninių ekspertinių žinių DI srityje;
(b)
independence from any provider of AI systems or general-purpose AI models;
b)
yra nepriklausomi nuo DI sistemų ar bendrosios paskirties DI modelių tiekėjų;
(c)
an ability to carry out activities diligently, accurately and objectively.
c)
sugeba savo veiklą vykdyti kruopščiai, tiksliai ir objektyviai.
The Commission, in consultation with the Board, shall determine the number of experts on the panel in accordance with the required needs and shall ensure fair gender and geographical representation.
Komisija, konsultuodamasi su Valdyba, nustato ekspertų skaičių komisijoje, atsižvelgdama į būtinus poreikius, ir užtikrina teisingą lyčių ir geografinį atstovavimą.
3. The scientific panel shall advise and support the AI Office, in particular with regard to the following tasks:
3. Mokslinė komisija konsultuoja ir remia DI tarnybą ir jai padeda, visų pirma vykdant šias užduotis:
(a)
supporting the implementation and enforcement of this Regulation as regards general-purpose AI models and systems, in particular by:
a)
remiant šio reglamento įgyvendinimą ir vykdymo užtikrinimą, kiek tai susiję su bendrosios paskirties DI modeliais ir sistemomis, visų pirma:
(i)
alerting the AI Office of possible systemic risks at Union level of general-purpose AI models, in accordance with Article 90;
i)
pagal 90 straipsnį teikia perspėjimus DI tarnybai apie galimą bendrosios paskirties DI modelių Sąjungos lygmens sisteminę riziką;
(ii)
contributing to the development of tools and methodologies for evaluating capabilities of general-purpose AI models and systems, including through benchmarks;
ii)
prisideda prie priemonių ir metodikų, skirtų bendrosios paskirties DI modelių ir sistemų pajėgumams vertinti (be kita ko, panaudojant lyginamuosius parametrus), rengimo;
(iii)
providing advice on the classification of general-purpose AI models with systemic risk;
iii)
teikia konsultacijas dėl sisteminės rizikos bendrosios paskirties DI modelių klasifikavimo;
(iv)
providing advice on the classification of various general-purpose AI models and systems;
iv)
teikia konsultacijas dėl įvairių bendrosios paskirties DI modelių ir sistemų klasifikavimo;
(v)
contributing to the development of tools and templates;
v)
prisideda prie priemonių ir šablonų kūrimo;
(b)
supporting the work of market surveillance authorities, at their request;
b)
rinkos priežiūros institucijų prašymu remiant jų darbą;
(c)
supporting cross-border market surveillance activities as referred to in Article 74(11), without prejudice to the powers of market surveillance authorities;
c)
remiant tarpvalstybinę rinkos priežiūros veiklą, nurodytą 74 straipsnio 11 dalyje, nedarant poveikio rinkos priežiūros institucijų įgaliojimams;
(d)
supporting the AI Office in carrying out its duties in the context of the Union safeguard procedure pursuant to Article 81.
d)
remiant DI tarnybą, jai vykdant savo pareigas pagal 81 straipsnį nustatytos Sąjungos apsaugos procedūros kontekste.
4. The experts on the scientific panel shall perform their tasks with impartiality and objectivity, and shall ensure the confidentiality of information and data obtained in carrying out their tasks and activities. They shall neither seek nor take instructions from anyone when exercising their tasks under paragraph 3. Each expert shall draw up a declaration of interests, which shall be made publicly available. The AI Office shall establish systems and procedures to actively manage and prevent potential conflicts of interest.
4. Mokslinės komisijos ekspertai savo užduotis vykdo nešališkai bei objektyviai ir užtikrina informacijos ir duomenų, gautų vykdant savo užduotis ir veiklą, konfidencialumą. Vykdydami savo užduotis pagal 3 dalį, jie nesiekia gauti ir nepriima jokių nurodymų. Kiekvienas ekspertas parengia interesų deklaraciją, kuri paskelbiama viešai. DI tarnyba nustato sistemas ir procedūras, kuriomis būtų aktyviai valdomi galimi interesų konfliktai ir jiems užkertamas kelias.
5. The implementing act referred to in paragraph 1 shall include provisions on the conditions, procedures and detailed arrangements for the scientific panel and its members to issue alerts, and to request the assistance of the AI Office for the performance of the tasks of the scientific panel.
5. Į 1 dalyje nurodytą įgyvendinimo aktą įtraukiamos nuostatos dėl sąlygų, procedūrų ir išsamios tvarkos, pagal kurias mokslinė komisija ir jos nariai skelbia perspėjimus ir prašo DI tarnybos pagalbos mokslinės komisijos užduočių vykdymui.
Article 69
69 straipsnis
Access to the pool of experts by the Member States
Valstybių narių galimybės naudotis ekspertų rezervu
1. Member States may call upon experts of the scientific panel to support their enforcement activities under this Regulation.
1. Valstybės narės gali kreiptis į mokslinės komisijos ekspertus, kad jie padėtų užtikrinti veiklos pagal šį reglamentą vykdymą.
2. The Member States may be required to pay fees for the advice and support provided by the experts. The structure and the level of fees as well as the scale and structure of recoverable costs shall be set out in the implementing act referred to in Article 68(1), taking into account the objectives of the adequate implementation of this Regulation, cost-effectiveness and the necessity of ensuring effective access to experts for all Member States.
2. Gali būti reikalaujama, kad valstybės narės mokėtų rinkliavas už ekspertų teikiamas konsultacijas ir paramą. Rinkliavų struktūra ir dydis, taip pat atlygintinų išlaidų dydis ir struktūra nustatomi 68 straipsnio 1 dalyje nurodytame įgyvendinimo akte, atsižvelgiant į tinkamo šio reglamento įgyvendinimo tikslus, išlaidų efektyvumą ir būtinybę užtikrinti, kad visos valstybės narės galėtų veiksmingai naudotis ekspertų paslaugomis.
3. The Commission shall facilitate timely access to the experts by the Member States, as needed, and ensure that the combination of support activities carried out by Union AI testing support pursuant to Article 84 and experts pursuant to this Article is efficiently organised and provides the best possible added value.
3. Komisija sudaro palankesnes sąlygas valstybėms narėms prireikus laiku pasinaudoti ekspertų paslaugomis ir užtikrina, kad Sąjungos DI bandymų pagalbinių struktūrų pagal 84 straipsnį ir ekspertų pagal šį straipsnį vykdomos paramos veiklos derinimas būtų organizuojamas veiksmingai ir suteiktų kuo didesnės pridėtinės vertės.
SECTION 2
2 SKIRSNIS
National competent authorities
Nacionalinės kompetentingos institucijos
Article 70
70 straipsnis
Designation of national competent authorities and single points of contact
Nacionalinių kompetentingų institucijų ir vieno bendro kontaktinio punkto skyrimas
1. Each Member State shall establish or designate as national competent authorities at least one notifying authority and at least one market surveillance authority for the purposes of this Regulation. Those national competent authorities shall exercise their powers independently, impartially and without bias so as to safeguard the objectivity of their activities and tasks, and to ensure the application and implementation of this Regulation. The members of those authorities shall refrain from any action incompatible with their duties. Provided that those principles are observed, such activities and tasks may be performed by one or more designated authorities, in accordance with the organisational needs of the Member State.
1. Kiekviena valstybė narė šio reglamento tikslais įsteigia arba paskiria nacionalinėmis kompetentingomis institucijomis bent vieną notifikuojančiąją instituciją ir bent vieną rinkos priežiūros instituciją. Tos nacionalinės kompetentingos institucijos naudojasi savo įgaliojimais nepriklausomai, nešališkai ir netendencingai, kad apsaugotų savo veiklos bei užduočių objektyvumą ir užtikrintų šio reglamento taikymą ir įgyvendinimą. Tų institucijų nariai susilaiko nuo bet kokių su jų pareigomis nesuderinamų veiksmų. Su sąlyga, kad laikomasi šių principų, atsižvelgiant į valstybės narės organizacinius poreikius tokią veiklą ir užduotis gali vykdyti viena ar daugiau paskirtųjų institucijų.
2. Member States shall communicate to the Commission the identity of the notifying authorities and the market surveillance authorities and the tasks of those authorities, as well as any subsequent changes thereto. Member States shall make publicly available information on how competent authorities and single points of contact can be contacted, through electronic communication means by 2 August 2025. Member States shall designate a market surveillance authority to act as the single point of contact for this Regulation, and shall notify the Commission of the identity of the single point of contact. The Commission shall make a list of the single points of contact publicly available.
2. Valstybės narės praneša Komisijai notifikuojančiųjų institucijų ir rinkos priežiūros institucijų pavadinimus ir tų institucijų užduotis, taip pat visus vėlesnius jų pakeitimus. Valstybės narės ne vėliau kaip 2025 m. rugpjūčio 2 d. elektroninėmis ryšio priemonėmis viešai paskelbia informaciją apie tai, kaip galima susisiekti su kompetentingomis institucijomis ir bendrais kontaktiniais punktais. Valstybės narės šio reglamento tikslais vieną rinkos priežiūros instituciją paskiria vienu bendru kontaktiniu punktu ir praneša Komisijai to vieno bendro kontaktinio punkto pavadinimą. Komisija tokių bendrų kontaktinių punktų sąrašą paskelbia viešai.
3. Member States shall ensure that their national competent authorities are provided with adequate technical, financial and human resources, and with infrastructure to fulfil their tasks effectively under this Regulation. In particular, the national competent authorities shall have a sufficient number of personnel permanently available whose competences and expertise shall include an in-depth understanding of AI technologies, data and data computing, personal data protection, cybersecurity, fundamental rights, health and safety risks and knowledge of existing standards and legal requirements. Member States shall assess and, if necessary, update competence and resource requirements referred to in this paragraph on an annual basis.
3. Valstybės narės užtikrina, kad jų nacionalinėms kompetentingoms institucijoms būtų suteikta pakankamai techninių, finansinių ir žmogiškųjų išteklių ir būtų suteikta infrastruktūra jų užduotims pagal šį reglamentą veiksmingai vykdyti. Visų pirma, nacionalinės kompetentingos institucijos turi nuolat turėti pakankamai darbuotojų, kurių kompetencija ir ekspertinės žinios apimtų išsamų DI technologijų, duomenų ir duomenų kompiuterijos, asmens duomenų apsaugos, kibernetinio saugumo, pagrindinių teisių, rizikos sveikatai ir saugai, taip pat esamų standartų bei teisinių reikalavimų išmanymą. Valstybės narės kasmet įvertina ir, prireikus, atnaujina šioje dalyje nurodytus su kompetencija ir ištekliais susijusius reikalavimus.
4. National competent authorities shall take appropriate measures to ensure an adequate level of cybersecurity.
4. Nacionalinės kompetentingos institucijos imasi tinkamų priemonių užtikrinti tinkamam kibernetinio saugumo lygiui.
5. When performing their tasks, the national competent authorities shall act in accordance with the confidentiality obligations set out in Article 78.
5. Vykdydamos savo užduotis, nacionalinės kompetentingos institucijos laikosi 78 straipsnyje nustatytų konfidencialumo pareigų.
6. By 2 August 2025, and once every two years thereafter, Member States shall report to the Commission on the status of the financial and human resources of the national competent authorities, with an assessment of their adequacy. The Commission shall transmit that information to the Board for discussion and possible recommendations.
6. Ne vėliau kaip 2025 m. rugpjūčio 2 d., o vėliau – kartą per dvejus metus valstybės narės praneša Komisijai apie nacionalinių kompetentingų institucijų finansinių ir žmogiškųjų išteklių būklę ir pateikia jų tinkamumo įvertinimą. Komisija šią informaciją perduoda Valdybai aptarti ir galimoms rekomendacijoms pateikti.
7. The Commission shall facilitate the exchange of experience between national competent authorities.
7. Komisija padeda nacionalinėms kompetentingoms institucijoms keistis patirtimi.
8. National competent authorities may provide guidance and advice on the implementation of this Regulation, in particular to SMEs including start-ups, taking into account the guidance and advice of the Board and the Commission, as appropriate. Whenever national competent authorities intend to provide guidance and advice with regard to an AI system in areas covered by other Union law, the national competent authorities under that Union law shall be consulted, as appropriate.
8. Nacionalinės kompetentingos institucijos gali teikti gaires ir patarimus dėl šio reglamento įgyvendinimo, visų pirma MVĮ, įskaitant startuolius, atitinkamai atsižvelgdamos į Valdybos ir Komisijos gaires ir patarimus. Kai nacionalinės kompetentingos institucijos ketina DI sistemos atžvilgiu pateikti gairių ir patarimų srityse, kurioms taikoma kiti Sąjungos teisės aktai, atitinkamai pagal tuos Sąjungos teisės aktus konsultuojamasi su nacionalinėmis kompetentingomis institucijomis.
9. Where Union institutions, bodies, offices or agencies fall within the scope of this Regulation, the European Data Protection Supervisor shall act as the competent authority for their supervision.
9. Kai šis reglamentas taikomas Sąjungos institucijoms, įstaigoms, organams ar agentūroms, jų priežiūros tikslu kompetentingos institucijos funkcijas vykdo Europos duomenų apsaugos priežiūros pareigūnas.
CHAPTER VIII
VIII SKYRIUS
EU DATABASE FOR HIGH-RISK AI SYSTEMS
DIDELĖS RIZIKOS DI SISTEMŲ ES DUOMENŲ BAZĖ
Article 71
71 straipsnis
EU database for high-risk AI systems listed in Annex III
III priede išvardytų didelės rizikos DI sistemų ES duomenų bazė
1. The Commission shall, in collaboration with the Member States, set up and maintain an EU database containing information referred to in paragraphs 2 and 3 of this Article concerning high-risk AI systems referred to in Article 6(2) which are registered in accordance with Articles 49 and 60 and AI systems that are not considered as high-risk pursuant to Article 6(3) and which are registered in accordance with Article 6(4) and Article 49. When setting the functional specifications of such database, the Commission shall consult the relevant experts, and when updating the functional specifications of such database, the Commission shall consult the Board.
1. Komisija, bendradarbiaudama su valstybėmis narėmis, sukuria ir tvarko ES duomenų bazę, kurioje saugoma šio straipsnio 2 ir 3 dalyse nurodyta informacija, susijusi su 6 straipsnio 2 dalyje nurodytomis pagal 49 ir 60 straipsnius užregistruotomis didelės rizikos DI sistemomis ir DI sistemomis, kurios pagal 6 straipsnio 3 dalį nelaikomos didelės rizikos DI sistemomis ir kurios yra užregistruotos pagal 6 straipsnio 4 dalį ir 49 straipsnį. Nustatydama tokios duomenų bazės funkcines specifikacijas, Komisija konsultuojasi su atitinkamais ekspertais, o atnaujindama tokios duomenų bazės funkcines specifikacijas – su Valdyba.
2. The data listed in Sections A and B of Annex VIII shall be entered into the EU database by the provider or, where applicable, by the authorised representative.
2. VIII priedo A ir B skirsniuose išvardytus duomenis į ES duomenų bazę įveda tiekėjas arba, kai taikytina, įgaliotas atstovas.
3. The data listed in Section C of Annex VIII shall be entered into the EU database by the deployer who is, or who acts on behalf of, a public authority, agency or body, in accordance with Article 49(3) and (4).
3. VIII priedo C skirsnyje išvardytus duomenis į ES duomenų bazę įveda diegėjas, kuris yra valdžios institucija, agentūra ar įstaiga arba kuris veikia jų vardu, pagal 49 straipsnio 3 ir 4 dalis.
4. With the exception of the section referred to in Article 49(4) and Article 60(4), point (c), the information contained in the EU database registered in accordance with Article 49 shall be accessible and publicly available in a user-friendly manner. The information should be easily navigable and machine-readable. The information registered in accordance with Article 60 shall be accessible only to market surveillance authorities and the Commission, unless the prospective provider or provider has given consent for also making the information accessible the public.
4. Išskyrus 49 straipsnio 4 dalyje ir 60 straipsnio 4 dalies c punkte nurodytą skirsnį, su ES duomenų bazėje saugoma informacija, užregistruota pagal 49 straipsnį, turi būti galima vartotojui patogiu būdu susipažinti ir ji turi būti skelbiama viešai. Informacija turėtų būti lengvai naršoma ir kompiuterio nuskaitoma. Pagal 60 straipsnį užregistruota informacija yra prieinama tik rinkos priežiūros institucijoms ir Komisijai, išskyrus atvejus, kai galimas tiekėjas ar tiekėjas yra davęs sutikimą, kad ši informacija būtų prieinama viešai.
5. The EU database shall contain personal data only in so far as necessary for collecting and processing information in accordance with this Regulation. That information shall include the names and contact details of natural persons who are responsible for registering the system and have the legal authority to represent the provider or the deployer, as applicable.
5. ES duomenų bazėje saugomi tik tie asmens duomenys, kurie yra būtini informacijai pagal šį reglamentą rinkti ir tvarkyti. Ta informacija apima fizinių asmenų, atsakingų už sistemos registravimą ir turinčių teisinius įgaliojimus atstovauti atitinkamai tiekėjui arba diegėjui, vardus bei pavardes ir kontaktinius duomenis.
6. The Commission shall be the controller of the EU database. It shall make available to providers, prospective providers and deployers adequate technical and administrative support. The EU database shall comply with the applicable accessibility requirements.
6. Komisija yra ES duomenų bazės valdytoja. Ji teikia tiekėjams, galimiems tiekėjams ir diegėjams tinkamą techninę ir administracinę paramą. ES duomenų bazė turi atitikti taikomus prieinamumo reikalavimus.
CHAPTER IX
IX SKYRIUS
POST-MARKET MONITORING, INFORMATION SHARING AND MARKET SURVEILLANCE
STEBĖSENA PO PATEIKIMO RINKAI, DALIJIMASIS INFORMACIJA IR RINKOS PRIEŽIŪRA
SECTION 1
1 SKIRSNIS
Post-market monitoring
Stebėsena po pateikimo rinkai
Article 72
72 straipsnis
Post-market monitoring by providers and post-market monitoring plan for high-risk AI systems
Tiekėjų vykdoma stebėsena po pateikimo rinkai ir didelės rizikos DI sistemų stebėsenos po pateikimo rinkai planas
1. Providers shall establish and document a post-market monitoring system in a manner that is proportionate to the nature of the AI technologies and the risks of the high-risk AI system.
1. Tiekėjai nustato stebėsenos po pateikimo rinkai sistemą ir jos duomenis dokumentuoja tokiu būdu, kuris yra proporcingas DI technologijų pobūdžiui ir didelės rizikos DI sistemos keliamai rizikai.
2. The post-market monitoring system shall actively and systematically collect, document and analyse relevant data which may be provided by deployers or which may be collected through other sources on the performance of high-risk AI systems throughout their lifetime, and which allow the provider to evaluate the continuous compliance of AI systems with the requirements set out in Chapter III, Section 2. Where relevant, post-market monitoring shall include an analysis of the interaction with other AI systems. This obligation shall not cover sensitive operational data of deployers which are law-enforcement authorities.
2. Naudojantis stebėsenos po pateikimo rinkai sistema aktyviai ir sistemingai renkami, dokumentuojami ir analizuojami atitinkami duomenys, kuriuos gali teikti diegėjai arba kurie gali būti renkami naudojantis kitais informacijos apie didelės rizikos DI sistemų veikimo efektyvumą šaltiniais visą jų gyvavimo laikotarpį ir kurie sudaro sąlygas tiekėjui įvertinti, ar DI sistemos nuolat atitinka III skyriaus 2 skirsnyje nustatytus reikalavimus. Kai aktualu, stebėsena po pateikimo rinkai apima sąveikos su kitomis DI sistemomis analizę. Ši pareiga netaikoma diegėjų, kurie yra teisėsaugos institucijos, neskelbtiniems operatyviniams duomenims.
3. The post-market monitoring system shall be based on a post-market monitoring plan. The post-market monitoring plan shall be part of the technical documentation referred to in Annex IV. The Commission shall adopt an implementing act laying down detailed provisions establishing a template for the post-market monitoring plan and the list of elements to be included in the plan by 2 February 2026. That implementing act shall be adopted in accordance with the examination procedure referred to in Article 98(2).
3. Stebėsenos po pateikimo rinkai sistema grindžiama stebėsenos po pateikimo rinkai planu. Stebėsenos po pateikimo rinkai planas yra vienas iš IV priede nurodytų techninių dokumentų. Komisija ne vėliau kaip 2026 m. vasario 2 d. priima įgyvendinimo aktą, kuriame nustatomos išsamios nuostatos dėl stebėsenos po pateikimo rinkai plano šablono ir į planą įtrauktinų elementų sąrašo. Tas įgyvendinimo aktas priimamas laikantis 98 straipsnio 2 dalyje nurodytos nagrinėjimo procedūros.
4. For high-risk AI systems covered by the Union harmonisation legislation listed in Section A of Annex I, where a post-market monitoring system and plan are already established under that legislation, in order to ensure consistency, avoid duplications and minimise additional burdens, providers shall have a choice of integrating, as appropriate, the necessary elements described in paragraphs 1, 2 and 3 using the template referred in paragraph 3 into systems and plans already existing under that legislation, provided that it achieves an equivalent level of protection.
4. Didelės rizikos DI sistemų, kurioms taikomi I priedo A skirsnyje išvardyti Sąjungos derinamieji teisės aktai, atveju, jeigu pagal tuos teisės aktus stebėsenos po pateikimo rinkai sistema jau yra įdiegta, o planas jau yra parengtas, siekiant užtikrinti nuoseklumą, išvengti veiksmų dubliavimosi ir kuo labiau sumažinti papildomą naštą, tiekėjai, naudodamiesi 3 dalyje nurodytą šablonu, gali pasirinkti į pagal tuos teisės aktus jau sukurtas sistemas ir parengtus planus atitinkamai integruoti 1, 2 ir 3 dalyse apibūdintus būtinus elementus, su sąlyga, kad taip bus užtikrintas lygiavertis apsaugos lygis.
The first subparagraph of this paragraph shall also apply to high-risk AI systems referred to in point 5 of Annex III placed on the market or put into service by financial institutions that are subject to requirements under Union financial services law regarding their internal governance, arrangements or processes.
Pirma šios dalies pastraipa taip pat taikoma III priedo 5 punkte nurodytoms didelės rizikos DI sistemoms, kurias rinkai pateikė arba pradėjo naudoti finansų įstaigos, kurioms pagal Sąjungos finansinių paslaugų teisės aktus taikomi reikalavimai, susiję su jų vidaus valdymu, tvarka ar procesais.
SECTION 2
2 SKIRSNIS
Sharing of information on serious incidents
Dalijimasis informacija apie rimtus incidentus
Article 73
73 straipsnis
Reporting of serious incidents
Pranešimas apie rimtus incidentus
1. Providers of high-risk AI systems placed on the Union market shall report any serious incident to the market surveillance authorities of the Member States where that incident occurred.
1. DI sistemas Sąjungos rinkai pateikiantys tiekėjai valstybių narių, kuriose įvyko rimtas incidentas, rinkos priežiūros institucijoms praneša apie visus tokius incidentus.
2. The report referred to in paragraph 1 shall be made immediately after the provider has established a causal link between the AI system and the serious incident or the reasonable likelihood of such a link, and, in any event, not later than 15 days after the provider or, where applicable, the deployer, becomes aware of the serious incident.
2. 1 dalyje nurodytas pranešimas pateikiamas iškart po to, kai tiekėjas nustato priežastinį ryšį tarp DI sistemos ir rimto incidento arba pagrįstą tokio ryšio tikimybę, ir bet kuriuo atveju ne vėliau kaip per 15 dienų po to, kai tiekėjas arba, kai taikytina, diegėjas sužino apie rimtą incidentą.
The period for the reporting referred to in the first subparagraph shall take account of the severity of the serious incident.
Nustatant pirmoje pastraipoje nurodytą pranešimo laikotarpį atsižvelgiama į rimto incidento sunkumą.
3. Notwithstanding paragraph 2 of this Article, in the event of a widespread infringement or a serious incident as defined in Article 3, point (49)(b), the report referred to in paragraph 1 of this Article shall be provided immediately, and not later than two days after the provider or, where applicable, the deployer becomes aware of that incident.
3. Nepaisant šio straipsnio 2 dalies, plačiai paplitusio pažeidimo arba rimto incidento, kaip apibrėžta 3 straipsnio 49 punkto b papunktyje, atveju šio straipsnio 1 dalyje nurodyta ataskaita pateikiama iškart, ir ne vėliau kaip dvi dienos nuo tada, kai tiekėjas arba, kai taikoma, diegėjas sužino apie incidentą.
4. Notwithstanding paragraph 2, in the event of the death of a person, the report shall be provided immediately after the provider or the deployer has established, or as soon as it suspects, a causal relationship between the high-risk AI system and the serious incident, but not later than 10 days after the date on which the provider or, where applicable, the deployer becomes aware of the serious incident.
4. Nepaisant 2 dalies, asmens mirties atveju pranešimas pateikiamas iš karto po to, kai tiekėjas arba diegėjas nustato arba įtaria didelės rizikos DI sistemos ir rimto incidento priežastinį ryšį, tai padaroma ne vėliau kaip per 10 dienų nuo tos dienos, kai tiekėjas arba, kai taikytina, diegėjas sužino apie rimtą incidentą.
5. Where necessary to ensure timely reporting, the provider or, where applicable, the deployer, may submit an initial report that is incomplete, followed by a complete report.
5. Kai tai būtina siekiant užtikrinti, kad pranešimai būtų pateikiami laiku, tiekėjas arba, kai taikytina, diegėjas gali pateikti pradinį neišsamų pranešimą, o vėliau – išsamų pranešimą.
6. Following the reporting of a serious incident pursuant to paragraph 1, the provider shall, without delay, perform the necessary investigations in relation to the serious incident and the AI system concerned. This shall include a risk assessment of the incident, and corrective action.
6. Pranešęs apie rimtą incidentą pagal 1 dalį, tiekėjas nedelsdamas atlieka būtinus tyrimus, susijusius su rimtu incidentu ir atitinkama DI sistema. Tai apima incidento rizikos vertinimą ir taisomuosius veiksmus.
The provider shall cooperate with the competent authorities, and where relevant with the notified body concerned, during the investigations referred to in the first subparagraph, and shall not perform any investigation which involves altering the AI system concerned in a way which may affect any subsequent evaluation of the causes of the incident, prior to informing the competent authorities of such action.
Atlikdamas pirmoje pastraipoje nurodytus tyrimus tiekėjas bendradarbiauja su kompetentingomis institucijomis ir, kai aktualu, su atitinkama notifikuotąja įstaiga ir, prieš tai neinformavęs kompetentingų institucijų apie tokius veiksmus, neatlieka jokių tyrimų, kurių metu atitinkama DI sistema būtų pakeista taip, kad tai galėtų turėti įtakos vėlesniam incidento priežasčių vertinimui.
7. Upon receiving a notification related to a serious incident referred to in Article 3, point (49)(c), the relevant market surveillance authority shall inform the national public authorities or bodies referred to in Article 77(1). The Commission shall develop dedicated guidance to facilitate compliance with the obligations set out in paragraph 1 of this Article. That guidance shall be issued by 2 August 2025, and shall be assessed regularly.
7. Gavusi pranešimą, susijusį su 3 straipsnio 49 punkto c papunktyje nurodytu rimtu incidentu, atitinkama rinkos priežiūros institucija informuoja 77 straipsnio 1 dalyje nurodytas nacionalines valdžios institucijas ar įstaigas. Siekdama palengvinti šio straipsnio 1 dalyje nustatytų pareigų vykdymą Komisija parengia specialias gaires. Tos gairės priimamos ne vėliau kaip 2025 m. rugpjūčio 2 d. ir reguliariai vertinamos.
8. The market surveillance authority shall take appropriate measures, as provided for in Article 19 of Regulation (EU) 2019/1020, within seven days from the date it received the notification referred to in paragraph 1 of this Article, and shall follow the notification procedures as provided in that Regulation.
8. Rinkos priežiūros institucija per septynias dienas nuo šio straipsnio 1 dalyje nurodyto pranešimo gavimo dienos imasi tinkamų priemonių, kaip numatyta Reglamento (ES) 2019/1020 19 straipsnyje, ir laikosi tame reglamente nustatytų pranešimo procedūrų.
9. For high-risk AI systems referred to in Annex III that are placed on the market or put into service by providers that are subject to Union legislative instruments laying down reporting obligations equivalent to those set out in this Regulation, the notification of serious incidents shall be limited to those referred to in Article 3, point (49)(c).
9. III priede nurodytų didelės rizikos DI sistemų, kurias rinkai pateikė arba pradėjo naudoti tiekėjai, kuriems taikomi Sąjungos teisė aktai, nustatantys pranešimo pareigas, lygiavertes nustatytoms šiame reglamente, atveju pranešama tik apie 3 straipsnio 49 punkto c papunktyje nurodytus rimtus incidentus.
10. For high-risk AI systems which are safety components of devices, or are themselves devices, covered by Regulations (EU) 2017/745 and (EU) 2017/746, the notification of serious incidents shall be limited to those referred to in Article 3, point (49)(c) of this Regulation, and shall be made to the national competent authority chosen for that purpose by the Member States where the incident occurred.
10. Didelės rizikos DI sistemų, kurios yra prietaisų saugos komponentai arba kurios pačios yra prietaisai, kurioms taikomi reglamentai (ES) 2017/745 ir (ES) 2017/746, atveju pranešama tik apie šio reglamento 3 straipsnio 49 punkto c papunktyje nurodytus rimtus incidentus ir apie juos pranešama valstybių narių, kuriose įvyko incidentas, tuo tikslu pasirinktai nacionalinei kompetentingai institucijai.
11. National competent authorities shall immediately notify the Commission of any serious incident, whether or not they have taken action on it, in accordance with Article 20 of Regulation (EU) 2019/1020.
11. Nacionalinės kompetentingos institucijos pagal Reglamento (ES) 2019/1020 20 straipsnį nedelsdamos praneša Komisijai apie kiekvieną rimtą incidentą nepriklausomai nuo to, ar jos ėmėsi veiksmų jo atžvilgiu.
SECTION 3
3 SKIRSNIS
Enforcement
Vykdymo užtikrinimas
Article 74
74 straipsnis
Market surveillance and control of AI systems in the Union market
Sąjungos rinkoje esančių DI sistemų rinkos priežiūra ir kontrolė
1. Regulation (EU) 2019/1020 shall apply to AI systems covered by this Regulation. For the purposes of the effective enforcement of this Regulation:
1. DI sistemoms, kurios patenka į šio reglamento taikymo sritį, taikomas Reglamentas (ES) 2019/1020. Šio reglamento veiksmingo vykdymo užtikrinimo tikslais:
(a)
any reference to an economic operator under Regulation (EU) 2019/1020 shall be understood as including all operators identified in Article 2(1) of this Regulation;
a)
visos nuorodos į ekonominės veiklos vykdytoją pagal Reglamentą (ES) 2019/1020 suprantamos kaip apimančios visus šio reglamento 2 straipsnio 1 dalyje nurodytus veiklos vykdytojus;
(b)
any reference to a product under Regulation (EU) 2019/1020 shall be understood as including all AI systems falling within the scope of this Regulation.
b)
visos nuorodos į gaminį pagal Reglamentą (ES) 2019/1020 suprantamos kaip apimančios visas DI sistemas, kurioms taikomas šis reglamentas.
2. As part of their reporting obligations under Article 34(4) of Regulation (EU) 2019/1020, the market surveillance authorities shall report annually to the Commission and relevant national competition authorities any information identified in the course of market surveillance activities that may be of potential interest for the application of Union law on competition rules. They shall also annually report to the Commission about the use of prohibited practices that occurred during that year and about the measures taken.
2. Vykdydamos savo pareigas pranešti pagal Reglamento (ES) 2019/1020 34 straipsnio 4 dalį, rinkos priežiūros institucijos kasmet praneša Komisijai ir atitinkamoms nacionalinėms konkurencijos institucijoms visą vykdant rinkos priežiūros veiklą nustatytą informaciją, kuri gali būti svarbi konkurencijos taisykles reglamentuojančių Sąjungos teisės aktų taikymui. Jos taip pat kasmet praneša Komisijai apie tais metais vykdytos draudžiamos praktikos atvejus ir apie priemones, kurių buvo imtasi.
3. For high-risk AI systems related to products covered by the Union harmonisation legislation listed in Section A of Annex I, the market surveillance authority for the purposes of this Regulation shall be the authority responsible for market surveillance activities designated under those legal acts.
3. Didelės rizikos DI sistemų, susijusių su gaminiais, kuriems taikomi I priedo A skirsnyje išvardyti Sąjungos derinamieji teisės aktai, atveju šio reglamento tikslais rinkos priežiūros institucija yra pagal tuos teisės aktus paskirta institucija, atsakinga už rinkos priežiūros veiklą.
By derogation from the first subparagraph, and in appropriate circumstances, Member States may designate another relevant authority to act as a market surveillance authority, provided they ensure coordination with the relevant sectoral market surveillance authorities responsible for the enforcement of the Union harmonisation legislation listed in Annex I.
Nukrypstant nuo pirmos pastraipos, esant tinkamoms aplinkybėms valstybės narės gali paskirti kitą atitinkamą instituciją veikti kaip rinkos priežiūros institucija, su sąlyga, kad jos užtikrins veiklos koordinavimą su atitinkamomis sektorių rinkos priežiūros institucijomis, atsakingomis už I priede išvardytų Sąjungos derinimo teisės aktų vykdymo užtikrinimą.
4. The procedures referred to in Articles 79 to 83 of this Regulation shall not apply to AI systems related to products covered by the Union harmonisation legislation listed in section A of Annex I, where such legal acts already provide for procedures ensuring an equivalent level of protection and having the same objective. In such cases, the relevant sectoral procedures shall apply instead.
4. Šio reglamento 79–83 straipsniuose nurodytos procedūros netaikomos DI sistemoms, susijusioms su gaminiais, kuriems taikomi I priedo A skirsnyje išvardyti Sąjungos derinamieji teisės aktai, kai tokiuose teisės aktuose jau numatytos procedūros, kuriomis užtikrinamas lygiavertis apsaugos lygis arba kuriomis siekiama tokio paties tikslo. Tokiais atvejais taikomos atitinkamos sektorių procedūros.
5. Without prejudice to the powers of market surveillance authorities under Article 14 of Regulation (EU) 2019/1020, for the purpose of ensuring the effective enforcement of this Regulation, market surveillance authorities may exercise the powers referred to in Article 14(4), points (d) and (j), of that Regulation remotely, as appropriate.
5. Nedarant poveikio rinkos priežiūros institucijų įgaliojimams pagal Reglamento (ES) 2019/1020 14 straipsnį, veiksmingo šio reglamento vykdymo užtikrinimo tikslais rinkos priežiūros institucijos atitinkamai to reglamento 14 straipsnio 4 dalies d ir j punktuose nurodytais įgaliojimais gali naudotis nuotoliniu būdu.
6. For high-risk AI systems placed on the market, put into service, or used by financial institutions regulated by Union financial services law, the market surveillance authority for the purposes of this Regulation shall be the relevant national authority responsible for the financial supervision of those institutions under that legislation in so far as the placing on the market, putting into service, or the use of the AI system is in direct connection with the provision of those financial services.
6. Didelės rizikos DI sistemų, kurias rinkai pateikia, pradeda naudoti arba naudoja finansų įstaigos, kurias reglamentuoja Sąjungos finansinių paslaugų teisės aktai, atveju šio reglamento tikslais rinkos priežiūros institucija yra atitinkama nacionalinė institucija, atsakinga už tų įstaigų finansinę priežiūrą pagal tuos teisės aktus, tiek, kiek DI sistemos pateikimas rinkai, pradėjimas naudoti arba naudojimas yra tiesiogiai susijęs su tų finansinių paslaugų teikimu.
7. By way of derogation from paragraph 6, in appropriate circumstances, and provided that coordination is ensured, another relevant authority may be identified by the Member State as market surveillance authority for the purposes of this Regulation.
7. Nukrypstant nuo 6 dalies, atitinkamomis aplinkybėmis ir su sąlyga, kad bus užtikrinta veiklos koordinavimas, šio reglamento tikslais valstybė narė gali rinkos priežiūros institucija paskirti kitą atitinkamą instituciją.
National market surveillance authorities supervising regulated credit institutions regulated under Directive 2013/36/EU, which are participating in the Single Supervisory Mechanism established by Regulation (EU) No 1024/2013, should report, without delay, to the European Central Bank any information identified in the course of their market surveillance activities that may be of potential interest for the prudential supervisory tasks of the European Central Bank specified in that Regulation.
Nacionalinės rinkos priežiūros institucijos, prižiūrinčios reguliuojamas kredito įstaigas, reglamentuojamas pagal Direktyvą 2013/36/ES, kurios dalyvauja bendrame priežiūros mechanizme, nustatytame Reglamentu (ES) Nr. 1024/2013, turėtų nedelsdamos pateikti Europos Centriniam Bankui visą vykdant rinkos priežiūros veiklą nustatytą informaciją, kuri gali būti svarbi Europos Centrinio Banko prudencinės priežiūros užduotims, nurodytoms tame reglamente.
8. For high-risk AI systems listed in point 1 of Annex III to this Regulation, in so far as the systems are used for law enforcement purposes, border management and justice and democracy, and for high-risk AI systems listed in points 6, 7 and 8 of Annex III to this Regulation, Member States shall designate as market surveillance authorities for the purposes of this Regulation either the competent data protection supervisory authorities under Regulation (EU) 2016/679 or Directive (EU) 2016/680, or any other authority designated pursuant to the same conditions laid down in Articles 41 to 44 of Directive (EU) 2016/680. Market surveillance activities shall in no way affect the independence of judicial authorities, or otherwise interfere with their activities when acting in their judicial capacity.
8. Didelės rizikos DI sistemų, išvardytų šio reglamento III priedo 1 punkte atveju, tiek, kiek tos sistemos naudojamos teisėsaugos, sienų valdymo ir teisingumo ir demokratijos tikslais, taip pat didelės rizikos DI sistemų, išvardytų šio reglamento III priedo 6, 7 ir 8 punktuose, atveju valstybės narės šio reglamento tikslais rinkos priežiūros institucijomis paskiria kompetentingas duomenų apsaugos priežiūros institucijas pagal Reglamentą (ES) 2016/679 ar Direktyvą (ES) 2016/680 arba kitas institucijas, paskiriamos laikantis tų pačių sąlygų, kurios yra nustatytos Direktyvos (ES) 2016/680 41–44 straipsniuose. Rinkos priežiūros veikla jokiu būdu nedaro poveikio teisminių institucijų nepriklausomumui ar ja kitaip nesikišama į jų veiklą, kai jos vykdo teismines funkcijas.
9. Where Union institutions, bodies, offices or agencies fall within the scope of this Regulation, the European Data Protection Supervisor shall act as their market surveillance authority, except in relation to the Court of Justice of the European Union acting in its judicial capacity.
9. Kai šis reglamentas taikomas Sąjungos institucijoms, įstaigoms, organams ar agentūroms, jų atžvilgiu rinkos priežiūros institucijos funkcijas vykdo Europos duomenų apsaugos priežiūros pareigūnas, išskyrus Europos Sąjungos Teisingumo Teismo, vykdančio savo teismines funkcijas, atvejį.
10. Member States shall facilitate coordination between market surveillance authorities designated under this Regulation and other relevant national authorities or bodies which supervise the application of Union harmonisation legislation listed in Annex I, or in other Union law, that might be relevant for the high-risk AI systems referred to in Annex III.
10. Valstybės narės sudaro palankias sąlygas koordinuoti pagal šį reglamentą paskirtų rinkos priežiūros institucijų ir kitų atitinkamų nacionalinių institucijų ar įstaigų, prižiūrinčių, kaip taikomi I priede išvardyti Sąjungos derinamieji teisės aktai ar kiti Sąjungos teisės aktai, kurie gali būti svarbūs III priede nurodytoms didelės rizikos DI sistemoms, veiklą.
11. Market surveillance authorities and the Commission shall be able to propose joint activities, including joint investigations, to be conducted by either market surveillance authorities or market surveillance authorities jointly with the Commission, that have the aim of promoting compliance, identifying non-compliance, raising awareness or providing guidance in relation to this Regulation with respect to specific categories of high-risk AI systems that are found to present a serious risk across two or more Member States in accordance with Article 9 of Regulation (EU) 2019/1020. The AI Office shall provide coordination support for joint investigations.
11. Rinkos priežiūros institucijos ir Komisija turi turėti galimybę pagal Reglamento (ES) 2019/1020 9 straipsnį pasiūlyti bendrą veiklą, įskaitant bendrus tyrimus, kurią vykdytų pačios rinkos priežiūros institucijos arba rinkos priežiūros institucijos kartu su Komisija ir kuria būtų siekiama skatinti atitiktį, nustatyti neatitikties atvejus, didinti informuotumą arba teikti su šiuo reglamentu susijusias gaires dėl konkrečių kategorijų didelės rizikos DI sistemų, kurios, kaip nustatyta, kelia didelę riziką dviejose ar daugiau valstybių narių. DI tarnyba padeda koordinuoti bendrus tyrimus.
12. Without prejudice to the powers provided for under Regulation (EU) 2019/1020, and where relevant and limited to what is necessary to fulfil their tasks, the market surveillance authorities shall be granted full access by providers to the documentation as well as the training, validation and testing data sets used for the development of high-risk AI systems, including, where appropriate and subject to security safeguards, through application programming interfaces (API) or other relevant technical means and tools enabling remote access.
12. Nedarant poveikio pagal Reglamentą (ES) 2019/1020 numatytiems įgaliojimams, kai aktualu, ir neviršijant to, kas būtina rinkos priežiūros institucijų užduotims atlikti, tiekėjai šioms institucijoms turi suteikti visapusišką prieigą prie dokumentų, taip pat didelės rizikos DI sistemų plėtojimui naudojamų mokymo, validavimo ir bandymo duomenų rinkinių, įskaitant, kai tinkama, ir taikant apsaugos priemones, taikomųjų programų sąsajas (API) arba kitas atitinkamas technines priemones ir įrankius, kurie sudaro sąlygas nuotolinei prieigai.
13. Market surveillance authorities shall be granted access to the source code of the high-risk AI system upon a reasoned request and only when both of the following conditions are fulfilled:
13. Prieigą prie didelės rizikos DI sistemos pirminio kodo rinkos priežiūros institucijoms tiekėjai suteikia gavę jų motyvuotą prašymą ir tik tada, kai tenkinamos abi šios sąlygos:
(a)
access to source code is necessary to assess the conformity of a high-risk AI system with the requirements set out in Chapter III, Section 2; and
a)
prieiga prie pirminio kodo yra būtina siekiant įvertinti didelės rizikos DI sistemos atitiktį III skyriaus 2 skirsnyje nustatytiems reikalavimams ir
(b)
testing or auditing procedures and verifications based on the data and documentation provided by the provider have been exhausted or proved insufficient.
b)
nebeįmanoma atlikti kitų bandymo ir audito procedūrų ir patikrinimų, pagrįstų tiekėjo pateiktais duomenimis ir dokumentais, arba paaiškėjo, kad tokių procedūrų ir patikrinimų nepakanka.
14. Any information or documentation obtained by market surveillance authorities shall be treated in accordance with the confidentiality obligations set out in Article 78.
14. Visa rinkos priežiūros institucijų gauta informacija ar dokumentai tvarkomi laikantis 78 straipsnyje nustatytų konfidencialumo pareigų.
Article 75
75 straipsnis
Mutual assistance, market surveillance and control of general-purpose AI systems
Savitarpio pagalba, rinkos priežiūra ir bendrosios paskirties DI sistemų kontrolė
1. Where an AI system is based on a general-purpose AI model, and the model and the system are developed by the same provider, the AI Office shall have powers to monitor and supervise compliance of that AI system with obligations under this Regulation. To carry out its monitoring and supervision tasks, the AI Office shall have all the powers of a market surveillance authority provided for in this Section and Regulation (EU) 2019/1020.
1. Kai DI sistema grindžiama bendrosios paskirties DI modeliu, o modelį bei sistemą yra sukūręs tas pats tiekėjas, DI tarnyba turi įgaliojimus stebėti ir prižiūrėti, kaip tos DI sistemos atžvilgiu laikomasi šiame reglamente nustatytų pareigų. Kad galėtų vykdyti savo stebėsenos ir priežiūros užduotis, DI tarnyba turi visus rinkos priežiūros institucijos įgaliojimus, numatytus šiame skirsnyje ir Reglamente (ES) 2019/1020.
2. Where the relevant market surveillance authorities have sufficient reason to consider general-purpose AI systems that can be used directly by deployers for at least one purpose that is classified as high-risk pursuant to this Regulation to be non-compliant with the requirements laid down in this Regulation, they shall cooperate with the AI Office to carry out compliance evaluations, and shall inform the Board and other market surveillance authorities accordingly.
2. Jei atitinkamos rinkos priežiūros institucijos turi pakankamą pagrindą manyti, kad bendrosios paskirties DI sistemos, kurias diegėjai gali tiesiogiai naudoti bent vienai paskirčiai, kuri pagal šį reglamentą priskiriama didelės rizikos kategorijai, neatitinka šiame reglamente nustatytų reikalavimų, jos bendradarbiauja su DI tarnyba, kad atliktų atitikties vertinimus, ir atitinkamai informuoja Valdybą ir kitas rinkos priežiūros institucijas.
3. Where a market surveillance authority is unable to conclude its investigation of the high-risk AI system because of its inability to access certain information related to the general-purpose AI model despite having made all appropriate efforts to obtain that information, it may submit a reasoned request to the AI Office, by which access to that information shall be enforced. In that case, the AI Office shall supply to the applicant authority without delay, and in any event within 30 days, any information that the AI Office considers to be relevant in order to establish whether a high-risk AI system is non-compliant. Market surveillance authorities shall safeguard the confidentiality of the information that they obtain in accordance with Article 78 of this Regulation. The procedure provided for in Chapter VI of Regulation (EU) 2019/1020 shall apply mutatis mutandis.
3. Tais atvejais, kai rinkos priežiūros institucija negali užbaigti didelės rizikos DI sistemos tyrimo, nes negavo prieigos prie tam tikros su bendrosios paskirties DI modeliu susijusios informacijos, nors ir dėjo visas tinkamas pastangas tai informacijai gauti, ji gali pateikti DI tarnybai pagrįstą prašymą, kuriuo būtų užtikrinta prieiga prie tos informacijos. Tokiu atveju DI tarnyba nedelsdama ir bet kuriuo atveju per 30 dienų pateikia prašančiajai institucijai visą informaciją, kurią DI tarnyba laiko svarbia siekiant nustatyti, ar didelės rizikos DI sistema neatitinka reikalavimų. Rinkos priežiūros institucijos pagal šio reglamento 78 straipsnį užtikrina gautos informacijos konfidencialumą. Mutatis mutandis taikoma Reglamento (ES) 2019/1020 VI skyriuje numatyta procedūra.
Article 76
76 straipsnis
Supervision of testing in real world conditions by market surveillance authorities
Rinkos priežiūros institucijų vykdoma bandymo realiomis sąlygomis priežiūra
1. Market surveillance authorities shall have competences and powers to ensure that testing in real world conditions is in accordance with this Regulation.
1. Rinkos priežiūros institucijos yra kompetentingos ir turi įgaliojimus užtikrinti, kad bandymas realiomis sąlygomis atitiktų šį reglamentą.
2. Where testing in real world conditions is conducted for AI systems that are supervised within an AI regulatory sandbox under Article 58, the market surveillance authorities shall verify the compliance with Article 60 as part of their supervisory role for the AI regulatory sandbox. Those authorities may, as appropriate, allow the testing in real world conditions to be conducted by the provider or prospective provider, in derogation from the conditions set out in Article 60(4), points (f) and (g).
2. Kai bandymas realiomis sąlygomis atliekamas DI sistemų, kurios prižiūrimos apribotoje bandomojoje DI reglamentavimo aplinkoje pagal 58 straipsnį, atžvilgiu, rinkos priežiūros institucijos, vykdydamos apribotos bandomosios DI reglamentavimo aplinkos priežiūros funkciją, patikrina, ar laikomasi 60 straipsnio. Tos institucijos gali atitinkamai leisti, kad tiekėjas arba galimas tiekėjas bandymą realiomis sąlygomis atliktų nukrypdamas nuo 60 straipsnio 4 dalies f ir g punktuose nustatytų sąlygų.
3. Where a market surveillance authority has been informed by the prospective provider, the provider or any third party of a serious incident or has other grounds for considering that the conditions set out in Articles 60 and 61 are not met, it may take either of the following decisions on its territory, as appropriate:
3. Jei galimas tiekėjas, tiekėjas arba trečioji šalis rinkos priežiūros instituciją yra informavę apie rimtą incidentą arba jei ta institucija turi kitų motyvų manyti, kad nevykdomos 60 ir 61 straipsniuose nustatytos sąlygos, ji gali atitinkamai savo teritorijoje priimti bet kurį iš šių sprendimų:
(a)
to suspend or terminate the testing in real world conditions;
a)
sustabdyti arba nutraukti bandymą realiomis sąlygomis;
(b)
to require the provider or prospective provider and the deployer or prospective deployer to modify any aspect of the testing in real world conditions.
b)
reikalauti, kad tiekėjas arba galimas tiekėjas ir diegėjas arba galimas diegėjas pakeistų bet kurį bandymo realiomis sąlygomis aspektą.
4. Where a market surveillance authority has taken a decision referred to in paragraph 3 of this Article, or has issued an objection within the meaning of Article 60(4), point (b), the decision or the objection shall indicate the grounds therefor and how the provider or prospective provider can challenge the decision or objection.
4. Jeigu rinkos priežiūros institucija yra priėmusi šio straipsnio 3 dalyje nurodytą sprendimą arba yra pareiškusi prieštaravimą, kaip tai suprantama 60 straipsnio 4 dalies b punkte, tame sprendime arba prieštaravime nurodomi motyvai ir tai, kaip tiekėjas arba galimas tiekėjas gali tą sprendimą arba prieštaravimą užginčyti.
5. Where applicable, where a market surveillance authority has taken a decision referred to in paragraph 3, it shall communicate the grounds therefor to the market surveillance authorities of other Member States in which the AI system has been tested in accordance with the testing plan.
5. Kai taikytina, kai rinkos priežiūros institucija priima 3 dalyje nurodytą sprendimą, ji praneša to sprendimo motyvus kitų valstybių narių, kuriose ta DI sistema buvo bandoma pagal bandymų planą, rinkos priežiūros institucijoms.
Article 77
77 straipsnis
Powers of authorities protecting fundamental rights
Pagrindines teises ginančių institucijų įgaliojimai
1. National public authorities or bodies which supervise or enforce the respect of obligations under Union law protecting fundamental rights, including the right to non-discrimination, in relation to the use of high-risk AI systems referred to in Annex III shall have the power to request and access any documentation created or maintained under this Regulation in accessible language and format when access to that documentation is necessary for effectively fulfilling their mandates within the limits of their jurisdiction. The relevant public authority or body shall inform the market surveillance authority of the Member State concerned of any such request.
1. Nacionalinės valdžios institucijos arba įstaigos, prižiūrinčios, kaip vykdomos pareigos pagal Sąjungos teisės aktus dėl pagrindinių teisių, įskaitant teisę nebūti diskriminuojamiems, apsaugos, kai naudojamos III priede nurodytos didelės rizikos DI sistemos, arba užtikrinančios tų pareigų vykdymą, turi įgaliojimus prašyti prieigos prie visų pagal šį reglamentą parengtų ar saugomų dokumentų ir juos gauti suprantama kalba ir prieinamu formatu, kai prieiga prie tų dokumentų yra būtina jų įgaliojimams veiksmingai įgyvendinti laikantis jų jurisdikcijos ribų. Atitinkama valdžios institucija ar įstaiga apie tokį prašymą informuoja atitinkamos valstybės narės rinkos priežiūros instituciją.
2. By 2 November 2024, each Member State shall identify the public authorities or bodies referred to in paragraph 1 and make a list of them publicly available. Member States shall notify the list to the Commission and to the other Member States, and shall keep the list up to date.
2. Ne vėliau kaip 2024 m. lapkričio 2 d. kiekviena valstybė narė identifikuoja 1 dalyje nurodytas valdžios institucijas ar įstaigas ir jų sąrašą paskelbia viešai. Valstybės narės pateikia sąrašą Komisijai bei kitoms valstybėms narėms ir nuolat jį atnaujina.
3. Where the documentation referred to in paragraph 1 is insufficient to ascertain whether an infringement of obligations under Union law protecting fundamental rights has occurred, the public authority or body referred to in paragraph 1 may make a reasoned request to the market surveillance authority, to organise testing of the high-risk AI system through technical means. The market surveillance authority shall organise the testing with the close involvement of the requesting public authority or body within a reasonable time following the request.
3. Jeigu 1 dalyje nurodytų dokumentų nepakanka, kad būtų galima įsitikinti, ar buvo nesilaikyta Sąjungos teisės aktuose, kuriais saugomos pagrindinės teisės, nustatytų pareigų, 1 dalyje nurodyta valdžios institucija arba įstaiga gali pateikti rinkos priežiūros institucijai motyvuotą prašymą organizuoti didelės rizikos DI sistemos bandymą techninėmis priemonėmis. Rinkos priežiūros institucija per pagrįstą laikotarpį po prašymo pateikimo suorganizuoja bandymą glaudžiai bendradarbiaudama su prašančiąja valdžios institucija ar įstaiga.
4. Any information or documentation obtained by the national public authorities or bodies referred to in paragraph 1 of this Article pursuant to this Article shall be treated in accordance with the confidentiality obligations set out in Article 78.
4. Visa informacija ar dokumentai, kuriuos šio straipsnio 1 dalyje nurodytos nacionalinės valdžios institucijos ar įstaigos gavo pagal šio straipsnio nuostatas, tvarkomi laikantis 78 straipsnyje nustatytų konfidencialumo pareigų.
Article 78
78 straipsnis
Confidentiality
Konfidencialumas
1. The Commission, market surveillance authorities and notified bodies and any other natural or legal person involved in the application of this Regulation shall, in accordance with Union or national law, respect the confidentiality of information and data obtained in carrying out their tasks and activities in such a manner as to protect, in particular:
1. Komisija, rinkos priežiūros institucijos ir notifikuotosios įstaigos ir visi kiti fiziniai ar juridiniai asmenys, dalyvaujantys taikant šį reglamentą, pagal Sąjungos ar nacionalinės teisės aktus užtikrina informacijos ir duomenų, gautų vykdant jų užduotis ir veiklą, konfidencialumą, kad visų pirma būtų apsaugotos:
(a)
the intellectual property rights and confidential business information or trade secrets of a natural or legal person, including source code, except in the cases referred to in Article 5 of Directive (EU) 2016/943 of the European Parliament and of the Council (57);
a)
intelektinės nuosavybės teisės ir fizinio ar juridinio asmens konfidenciali verslo informacija ar komercinės paslaptys, įskaitant pirminį kodą, išskyrus atvejus, nurodytus Europos Parlamento ir Tarybos direktyvos (ES) 2016/943 (57) 5 straipsnyje;
(b)
the effective implementation of this Regulation, in particular for the purposes of inspections, investigations or audits;
b)
veiksmingas šio reglamento įgyvendinimas, visų pirma patikrinimų, tyrimų arba auditų tikslais;
(c)
public and national security interests;
c)
visuomenės ir nacionalinio saugumo interesai;
(d)
the conduct of criminal or administrative proceedings;
d)
baudžiamojo ar administracinio proceso vykdymas;
(e)
information classified pursuant to Union or national law.
e)
pagal Sąjungos arba nacionalinės teisės aktus įslaptinta informacija.
2. The authorities involved in the application of this Regulation pursuant to paragraph 1 shall request only data that is strictly necessary for the assessment of the risk posed by AI systems and for the exercise of their powers in accordance with this Regulation and with Regulation (EU) 2019/1020. They shall put in place adequate and effective cybersecurity measures to protect the security and confidentiality of the information and data obtained, and shall delete the data collected as soon as it is no longer needed for the purpose for which it was obtained, in accordance with applicable Union or national law.
2. Institucijos, dalyvaujančios taikant šį reglamentą pagal 1 dalį, prašo tik tų duomenų, kurie yra tikrai būtini DI sistemų keliamai rizikai įvertinti ir jų įgaliojimams vykdyti laikantis šio reglamento ir Reglamento (ES) 2019/1020. Jos įdiegia tinkamas ir veiksmingas kibernetinio saugumo priemones, kad būtų apsaugotas gautos informacijos bei duomenų saugumas ir konfidencialumas, o surinktus duomenis ištrina iškart, kai tik jie yra nebereikalingi tikslui, kuriuo jie buvo gauti, pagal taikytinus Sąjungos ar nacionalinės teisės aktus.
3. Without prejudice to paragraphs 1 and 2, information exchanged on a confidential basis between the national competent authorities or between national competent authorities and the Commission shall not be disclosed without prior consultation of the originating national competent authority and the deployer when high-risk AI systems referred to in point 1, 6 or 7 of Annex III are used by law enforcement, border control, immigration or asylum authorities and when such disclosure would jeopardise public and national security interests. This exchange of information shall not cover sensitive operational data in relation to the activities of law enforcement, border control, immigration or asylum authorities.
3. Nedarant poveikio 1 ir 2 dalims, informacija, kuria konfidencialiai keičiasi nacionalinės kompetentingos institucijos tarpusavyje arba su Komisija, neatskleidžiama iš anksto nepasikonsultavus su ją pateikusia nacionaline kompetentinga institucija ir diegėju, kai III priedo 1, 6 arba 7 punkte nurodytas didelės rizikos DI sistemas naudoja teisėsaugos, sienų kontrolės, imigracijos ar prieglobsčio institucijos ir jei toks atskleidimas keltų grėsmę visuomenės ir nacionalinio saugumo interesams. Šis keitimasis informacija neapima neskelbtinų operatyvinių duomenų, susijusių su teisėsaugos, sienų kontrolės, imigracijos ar prieglobsčio institucijų veikla.
When the law enforcement, immigration or asylum authorities are providers of high-risk AI systems referred to in point 1, 6 or 7 of Annex III, the technical documentation referred to in Annex IV shall remain within the premises of those authorities. Those authorities shall ensure that the market surveillance authorities referred to in Article 74(8) and (9), as applicable, can, upon request, immediately access the documentation or obtain a copy thereof. Only staff of the market surveillance authority holding the appropriate level of security clearance shall be allowed to access that documentation or any copy thereof.
Kai teisėsaugos, imigracijos ar prieglobsčio institucijos yra didelės rizikos DI sistemų, nurodytų III priedo 1, 6 ar 7 punkte, tiekėjos, IV priede nurodyti techniniai dokumentai turi likti tų institucijų patalpose. Tos institucijos užtikrina, kad, pateikusios prašymą, atitinkamai 74 straipsnio 8 ir 9 dalyse nurodytos rinkos priežiūros institucijos galėtų nedelsdamos susipažinti su dokumentais arba gauti jų kopijas. Susipažinti su tais dokumentais ar jų kopijomis leidžiama tik rinkos priežiūros institucijos darbuotojams, turintiems atitinkamo lygio asmens patikimumo pažymėjimą.
4. Paragraphs 1, 2 and 3 shall not affect the rights or obligations of the Commission, Member States and their relevant authorities, as well as those of notified bodies, with regard to the exchange of information and the dissemination of warnings, including in the context of cross-border cooperation, nor shall they affect the obligations of the parties concerned to provide information under criminal law of the Member States.
4. 1, 2 ir 3 dalimis nedaromas poveikis Komisijos, valstybių narių ir atitinkamų jų institucijų, taip pat notifikuotųjų įstaigų teisėms ir pareigoms keistis informacija ir platinti įspėjimus, be kita ko, tarpvalstybinio bendradarbiavimo kontekste, taip pat nedaro poveikio atitinkamų šalių pareigoms teikti informaciją pagal valstybių narių baudžiamąją teisę.
5. The Commission and Member States may exchange, where necessary and in accordance with relevant provisions of international and trade agreements, confidential information with regulatory authorities of third countries with which they have concluded bilateral or multilateral confidentiality arrangements guaranteeing an adequate level of confidentiality.
5. Komisija ir valstybės narės, kai tai būtina, laikydamosi atitinkamų tarptautinių ir prekybos susitarimų nuostatų, gali keistis konfidencialia informacija su trečiųjų valstybių, su kuriomis jos yra sudariusios dvišalius arba daugiašalius konfidencialumo susitarimus, kuriais užtikrinamas reikiamas konfidencialumo lygis, reguliavimo institucijomis.
Article 79
79 straipsnis
Procedure at national level for dealing with AI systems presenting a risk
Nacionalinio lygmens procedūra, taikoma riziką keliančioms DI sistemoms
1. AI systems presenting a risk shall be understood as a ‘product presenting a risk’ as defined in Article 3, point 19 of Regulation (EU) 2019/1020, in so far as they present risks to the health or safety, or to fundamental rights, of persons.
1. Riziką keliančios DI sistemos laikomos pavojų keliančiu gaminiu, kaip apibrėžta Reglamento (ES) 2019/1020 3 straipsnio 19 punkte, tiek, kiek jos kelia riziką asmenų sveikatai ar saugai arba pagrindinėms teisėms.
2. Where the market surveillance authority of a Member State has sufficient reason to consider an AI system to present a risk as referred to in paragraph 1 of this Article, it shall carry out an evaluation of the AI system concerned in respect of its compliance with all the requirements and obligations laid down in this Regulation. Particular attention shall be given to AI systems presenting a risk to vulnerable groups. Where risks to fundamental rights are identified, the market surveillance authority shall also inform and fully cooperate with the relevant national public authorities or bodies referred to in Article 77(1). The relevant operators shall cooperate as necessary with the market surveillance authority and with the other national public authorities or bodies referred to in Article 77(1).
2. Jeigu valstybės narės rinkos priežiūros institucija turi pakankamo pagrindo manyti, kad DI sistema kelia 1 dalyje nurodytą riziką, ji atlieka atitinkamą DI sistemos vertinimą, kad nustatytų ar jos atžvilgiu laikomasi visų šiame reglamente nustatytų reikalavimų ir pareigų. Ypatingas dėmesys skiriamas DI sistemoms, keliančioms riziką pažeidžiamoms grupėms. Kai nustatoma rizika pagrindinėms teisėms, rinkos priežiūros institucija taip pat nedelsdama informuoja atitinkamas 77 straipsnio 1 dalyje nurodytas nacionalines valdžios institucijas ar įstaigas ir su jomis visapusiškai bendradarbiauja. Atitinkami veiklos vykdytojai prireikus bendradarbiauja su rinkos priežiūros institucija ir 77 straipsnio 1 dalyje nurodytomis kitomis nacionalinėmis valdžios institucijomis ar įstaigomis.
Where, in the course of that evaluation, the market surveillance authority or, where applicable the market surveillance authority in cooperation with the national public authority referred to in Article 77(1), finds that the AI system does not comply with the requirements and obligations laid down in this Regulation, it shall without undue delay require the relevant operator to take all appropriate corrective actions to bring the AI system into compliance, to withdraw the AI system from the market, or to recall it within a period the market surveillance authority may prescribe, and in any event within the shorter of 15 working days, or as provided for in the relevant Union harmonisation legislation.
Jeigu atlikdama tą vertinimą rinkos priežiūros institucija arba, kai taikytina, rinkos priežiūros institucija, bendradarbiaudama su 77 straipsnio 1 dalyje nurodyta nacionaline valdžios institucija, nustato, kad DI sistemos atžvilgiu nesilaikoma šiame reglamente nustatytų reikalavimų ir pareigų, ji nepagrįstai nedelsdama pareikalauja, kad atitinkamas veiklos vykdytojas imtųsi visų reikiamų taisomųjų veiksmų, kad būtų užtikrinta DI sistemos atitiktis, DI sistema būtų pašalinta iš rinkos arba ji būtų atšaukta per laikotarpį, kurį rinkos priežiūros institucija gali nustatyti, ir bet kuriuo atveju per trumpesnį nei 15 darbo dienų laikotarpį arba kaip numatyta atitinkamuose Sąjungos derinamuosiuose teisės aktuose.
The market surveillance authority shall inform the relevant notified body accordingly. Article 18 of Regulation (EU) 2019/1020 shall apply to the measures referred to in the second subparagraph of this paragraph.
Rinkos priežiūros institucija apie tai informuoja atitinkamą notifikuotąją įstaigą. Šios dalies antroje pastraipoje nurodytoms priemonėms taikomas Reglamento (ES) 2019/1020 18 straipsnis.
3. Where the market surveillance authority considers that the non-compliance is not restricted to its national territory, it shall inform the Commission and the other Member States without undue delay of the results of the evaluation and of the actions which it has required the operator to take.
3. Jei rinkos priežiūros institucija mano, kad reikalavimų nesilaikoma ne tik jos nacionalinėje teritorijoje, ji nepagrįstai nedelsdama informuoja Komisiją ir kitas valstybes nares apie vertinimo rezultatus ir veiksmus, kurių ji nurodė imtis veiklos vykdytojui.
4. The operator shall ensure that all appropriate corrective action is taken in respect of all the AI systems concerned that it has made available on the Union market.
4. Veiklos vykdytojas užtikrina, kad visų reikiamų taisomųjų veiksmų būtų imtasi visų atitinkamų DI sistemų, kurias jis pateikė Sąjungos rinkai, atžvilgiu.
5. Where the operator of an AI system does not take adequate corrective action within the period referred to in paragraph 2, the market surveillance authority shall take all appropriate provisional measures to prohibit or restrict the AI system’s being made available on its national market or put into service, to withdraw the product or the standalone AI system from that market or to recall it. That authority shall without undue delay notify the Commission and the other Member States of those measures.
5. Jeigu per 2 dalyje nurodytą laikotarpį su DI sistema susijusios veiklos vykdytojas nesiima tinkamų taisomųjų veiksmų, rinkos priežiūros institucija imasi visų tinkamų laikinųjų priemonių, kad būtų uždraustas arba apribotas DI sistemos pateikimas jos nacionalinei rinkai arba pradėjimas naudoti, gaminys arba atskira DI sistema būtų pašalinti iš rinkos arba atšaukti. Apie tokias priemones ta institucija nepagrįstai nedelsdama praneša Komisijai ir kitoms valstybėms narėms.
6. The notification referred to in paragraph 5 shall include all available details, in particular the information necessary for the identification of the non-compliant AI system, the origin of the AI system and the supply chain, the nature of the non-compliance alleged and the risk involved, the nature and duration of the national measures taken and the arguments put forward by the relevant operator. In particular, the market surveillance authorities shall indicate whether the non-compliance is due to one or more of the following:
6. 5 dalyje nurodytame pranešime pateikiami visi turimi duomenys, visų pirma informacija, kurios reikia reikalavimų neatitinkančiai DI sistemai identifikuoti, DI sistemos ir vertės grandinės kilmė, įtariamo reikalavimų nesilaikymo ir keliamos rizikos pobūdis, nacionalinių priemonių, kurių imtasi, pobūdis ir trukmė, taip pat atitinkamo veiklos vykdytojo pateikti argumentai. Visų pirma rinkos priežiūros institucijos nurodo, ar reikalavimų nesilaikymas sietinas su viena ar daugiau iš šių priežasčių:
(a)
non-compliance with the prohibition of the AI practices referred to in Article 5;
a)
nesilaikoma 5 straipsnyje nurodyto su DI susijusios praktikos draudimo;
(b)
a failure of a high-risk AI system to meet requirements set out in Chapter III, Section 2;
b)
didelės rizikos DI sistema neatitinka III skyriaus 2 skirsnyje nustatytų reikalavimų;
(c)
shortcomings in the harmonised standards or common specifications referred to in Articles 40 and 41 conferring a presumption of conformity;
c)
40 ir 41 straipsniuose nurodyti darnieji standartai arba bendrosios specifikacijos, kuriais remiantis daryta atitikties prezumpcija, turi trūkumų;
(d)
non-compliance with Article 50.
d)
nesilaikoma 50 straipsnio.
7. The market surveillance authorities other than the market surveillance authority of the Member State initiating the procedure shall, without undue delay, inform the Commission and the other Member States of any measures adopted and of any additional information at their disposal relating to the non-compliance of the AI system concerned, and, in the event of disagreement with the notified national measure, of their objections.
7. Kitos rinkos priežiūros institucijos nei procedūrą inicijavusios valstybės narės rinkos priežiūros institucija nedelsdamos informuoja Komisiją ir kitas valstybes nares apie visas priemones, kurių ėmėsi, ir pateikia visą turimą papildomą informaciją, susijusią su atitinkamai DI sistemai taikomų reikalavimų nesilaikymu, o jei nesutinka su nacionaline priemone, apie kurią pranešta, – savo prieštaravimus.
8. Where, within three months of receipt of the notification referred to in paragraph 5 of this Article, no objection has been raised by either a market surveillance authority of a Member State or by the Commission in respect of a provisional measure taken by a market surveillance authority of another Member State, that measure shall be deemed justified. This shall be without prejudice to the procedural rights of the concerned operator in accordance with Article 18 of Regulation (EU) 2019/1020. The three-month period referred to in this paragraph shall be reduced to 30 days in the event of non-compliance with the prohibition of the AI practices referred to in Article 5 of this Regulation.
8. Jeigu per tris mėnesius nuo šio straipsnio 5 dalyje nurodyto pranešimo gavimo nei valstybės narės rinkos priežiūros institucija, nei Komisija nepareiškia prieštaravimo dėl laikinosios priemonės, kurios ėmėsi kitos valstybės narės rinkos priežiūros institucija, ta priemonė laikoma pagrįsta. Tai nedaro poveikio atitinkamo veiklos vykdytojo procesinėms teisėms pagal Reglamento (ES) 2019/1020 18 straipsnį. Tuo atveju, kai nesilaikoma šio reglamento 5 straipsnyje nurodyto su DI susijusios praktikos draudimo, šioje dalyje nurodytas trijų mėnesių laikotarpis sutrumpinamas iki 30 dienų.
9. The market surveillance authorities shall ensure that appropriate restrictive measures are taken in respect of the product or the AI system concerned, such as withdrawal of the product or the AI system from their market, without undue delay.
9. Rinkos priežiūros institucijos užtikrina, kad atitinkamo gaminio arba DI sistemos atžvilgiu nepagrįstai nedelsiant būtų taikomos tinkamos ribojamosios priemonės, pavyzdžiui, gaminys arba DI sistema būtų pašalinti iš jų rinkos.
Article 80
80 straipsnis
Procedure for dealing with AI systems classified by the provider as non-high-risk in application of Annex III
Procedūra, taikoma DI sistemoms, kurias tiekėjas pagal III priedą priskiria nedidelės rizikos sistemoms
1. Where a market surveillance authority has sufficient reason to consider that an AI system classified by the provider as non-high-risk pursuant to Article 6(3) is indeed high-risk, the market surveillance authority shall carry out an evaluation of the AI system concerned in respect of its classification as a high-risk AI system based on the conditions set out in Article 6(3) and the Commission guidelines.
1. Jeigu rinkos priežiūros institucija turi pakankamą pagrindą manyti, kad DI sistema, kurią tiekėjas pagal 6 straipsnio 3 dalį priskiria nedidelės rizikos sistemoms, iš tikrųjų yra didelės rizikos sistema, rinkos priežiūros institucija atlieka atitinkamos DI sistemos vertinimą, susijusį su jos priskyrimu didelės rizikos DI sistemoms, remdamasi 6 straipsnio 3 dalyje nustatytomis sąlygomis ir Komisijos gairėmis.
2. Where, in the course of that evaluation, the market surveillance authority finds that the AI system concerned is high-risk, it shall without undue delay require the relevant provider to take all necessary actions to bring the AI system into compliance with the requirements and obligations laid down in this Regulation, as well as take appropriate corrective action within a period the market surveillance authority may prescribe.
2. Jeigu atlikdama tą vertinimą rinkos priežiūros institucija nustato, kad atitinkama DI sistema kelia didelę riziką, ji nepagrįstai nedelsdama pareikalauja, kad atitinkamas tiekėjas imtųsi visų reikiamų veiksmų, kad būtų užtikrintas tos DI sistemos atžvilgiu taikomų šiame reglamente nustatytų reikalavimų ir pareigų laikymasis, taip pat per laikotarpį, kurį rinkos priežiūros institucija gali nustatyti, būtų imtasi tinkamų taisomųjų veiksmų.
3. Where the market surveillance authority considers that the use of the AI system concerned is not restricted to its national territory, it shall inform the Commission and the other Member States without undue delay of the results of the evaluation and of the actions which it has required the provider to take.
3. Jeigu rinkos priežiūros institucija mano, kad atitinkama DI sistema naudojama ne tik jos nacionalinėje teritorijoje, ji nepagrįstai nedelsdama informuoja Komisiją ir kitas valstybes nares apie vertinimo rezultatus ir veiksmus, kurių ji nurodė imtis tiekėjui.
4. The provider shall ensure that all necessary action is taken to bring the AI system into compliance with the requirements and obligations laid down in this Regulation. Where the provider of an AI system concerned does not bring the AI system into compliance with those requirements and obligations within the period referred to in paragraph 2 of this Article, the provider shall be subject to fines in accordance with Article 99.
4. Tiekėjas užtikrina, kad būtų imtasi visų reikiamų veiksmų, kad DI sistemos atžvilgiu būtų laikomasi šiame reglamente nustatytų reikalavimų ir pareigų. Jei atitinkamas DI sistemos tiekėjas per šio straipsnio 2 dalyje nurodytą laikotarpį neužtikrina, kad DI sistemos atžvilgiu būtų laikomasi tų reikalavimų ir pareigų, tiekėjui skiriamos baudos pagal 99 straipsnį.
5. The provider shall ensure that all appropriate corrective action is taken in respect of all the AI systems concerned that it has made available on the Union market.
5. Tiekėjas užtikrina, kad visų reikiamų taisomųjų veiksmų būtų imtasi visų atitinkamų DI sistemų, kurias jis pateikė Sąjungos rinkai, atžvilgiu.
6. Where the provider of the AI system concerned does not take adequate corrective action within the period referred to in paragraph 2 of this Article, Article 79(5) to (9) shall apply.
6. Jeigu per šio straipsnio 2 dalyje nurodytą laikotarpį atitinkamos DI sistemos tiekėjas nesiima tinkamų taisomųjų veiksmų, taikomos 79 straipsnio 5–9 dalys.
7. Where, in the course of the evaluation pursuant to paragraph 1 of this Article, the market surveillance authority establishes that the AI system was misclassified by the provider as non-high-risk in order to circumvent the application of requirements in Chapter III, Section 2, the provider shall be subject to fines in accordance with Article 99.
7. Jeigu atlikdama vertinimą pagal šio straipsnio 1 dalį rinkos priežiūros institucija nustato, kad tiekėjas klaidingai priskyrė DI sistemą nedidelės rizikos sistemoms, kad išvengtų III skyriaus 2 skirsnio reikalavimų taikymo, tiekėjui skiriamos baudos pagal 99 straipsnį.
8. In exercising their power to monitor the application of this Article, and in accordance with Article 11 of Regulation (EU) 2019/1020, market surveillance authorities may perform appropriate checks, taking into account in particular information stored in the EU database referred to in Article 71 of this Regulation.
8. Naudodamosi savo įgaliojimais stebėti, kaip taikomas šis straipsnis, rinkos priežiūros institucijos pagal Reglamento (ES) 2019/1020 11 straipsnį gali atlikti atitinkamus patikrinimus, visų pirma atsižvelgdamos į informaciją, saugomą šio reglamento 71 straipsnyje nurodytoje ES duomenų bazėje.
Article 81
81 straipsnis
Union safeguard procedure
Sąjungos apsaugos procedūra
1. Where, within three months of receipt of the notification referred to in Article 79(5), or within 30 days in the case of non-compliance with the prohibition of the AI practices referred to in Article 5, objections are raised by the market surveillance authority of a Member State to a measure taken by another market surveillance authority, or where the Commission considers the measure to be contrary to Union law, the Commission shall without undue delay enter into consultation with the market surveillance authority of the relevant Member State and the operator or operators, and shall evaluate the national measure. On the basis of the results of that evaluation, the Commission shall, within six months, or within 60 days in the case of non-compliance with the prohibition of the AI practices referred to in Article 5, starting from the notification referred to in Article 79(5), decide whether the national measure is justified and shall notify its decision to the market surveillance authority of the Member State concerned. The Commission shall also inform all other market surveillance authorities of its decision.
1. Jeigu per tris mėnesius nuo 79 straipsnio 5 dalyje nurodyto pranešimo gavimo arba per 30 dienų tuo atveju, kai nesilaikoma 5 straipsnyje nurodyto su DI susijusios praktikos draudimo kurios nors valstybės narės rinkos priežiūros institucija pareiškia prieštaravimą dėl priemonės, kurios ėmėsi kita rinkos priežiūros institucija, arba jeigu Komisija mano, kad priemonė prieštarauja Sąjungos teisei, Komisija nepagrįstai nedelsdama pradeda konsultacijas su atitinkamos valstybės narės rinkos priežiūros institucija ir veiklos vykdytoju ar vykdytojais ir tą nacionalinę priemonę įvertina. Remdamasi to vertinimo rezultatais, Komisija per šešis mėnesius arba per 60 dienų, jei nesilaikoma 5 straipsnyje nurodyto su DI susijusios praktikos draudimo, nuo 79 straipsnio 5 dalyje nurodyto pranešimo gavimo dienos nusprendžia, ar nacionalinė priemonė yra pagrįsta, ir apie savo sprendimą praneša atitinkamos valstybės narės rinkos priežiūros institucijai. Apie tokį sprendimą Komisija taip pat informuoja visas kitas rinkos priežiūros institucijas.
2. Where the Commission considers the measure taken by the relevant Member State to be justified, all Member States shall ensure that they take appropriate restrictive measures in respect of the AI system concerned, such as requiring the withdrawal of the AI system from their market without undue delay, and shall inform the Commission accordingly. Where the Commission considers the national measure to be unjustified, the Member State concerned shall withdraw the measure and shall inform the Commission accordingly.
2. Jei Komisija mano, kad priemonė, kurios ėmėsi atitinkama valstybė narė, yra pagrįsta, visos valstybės narės užtikrina, kad būtų imtasi tinkamų ribojamųjų priemonių dėl atitinkamos DI sistemos, pavyzdžiui, būtų pareikalauta nepagrįstai nedelsiant DI sistemą pašalinti iš jų rinkos, ir atitinkamai informuoja Komisiją. Jeigu Komisija nacionalinę priemonę laiko nepagrįsta, atitinkama valstybė narė priemonę atšaukia ir atitinkamai informuoja Komisiją.
3. Where the national measure is considered justified and the non-compliance of the AI system is attributed to shortcomings in the harmonised standards or common specifications referred to in Articles 40 and 41 of this Regulation, the Commission shall apply the procedure provided for in Article 11 of Regulation (EU) No 1025/2012.
3. Jei nacionalinė priemonė laikoma pagrįsta, o DI sistemos neatitiktis siejama su darniųjų standartų arba bendrųjų specifikacijų, nurodytų šio reglamento 40 ir 41 straipsniuose, trūkumais, Komisija taiko Reglamento (ES) Nr. 1025/2012 11 straipsnyje numatytą procedūrą.
Article 82
82 straipsnis
Compliant AI systems which present a risk
Riziką keliančios reikalavimus atitinkančios DI sistemos
1. Where, having performed an evaluation under Article 79, after consulting the relevant national public authority referred to in Article 77(1), the market surveillance authority of a Member State finds that although a high-risk AI system complies with this Regulation, it nevertheless presents a risk to the health or safety of persons, to fundamental rights, or to other aspects of public interest protection, it shall require the relevant operator to take all appropriate measures to ensure that the AI system concerned, when placed on the market or put into service, no longer presents that risk without undue delay, within a period it may prescribe.
1. Jeigu, atlikusi vertinimą pagal 79 straipsnį ir pasikonsultavusi su 77 straipsnio 1 dalyje nurodyta atitinkama nacionaline valdžios institucija, valstybės narės rinkos priežiūros institucija nustato, kad, nors didelės rizikos DI sistema atitinka šio reglamento reikalavimus, tačiau ji vis tiek kelia riziką asmenų sveikatai ar saugai, pagrindinėms teisėms arba kitiems visuomenės intereso apsaugos aspektams, ji pareikalauja, kad atitinkamas veiklos vykdytojas nepagrįstai nedelsdamas, per laikotarpį, kurį ji gali nustatyti, imtųsi visų tinkamų priemonių užtikrinti, kad atitinkama DI sistema, kai ji pateikiama rinkai ar pradedama naudoti, nebekeltų tokios rizikos.
2. The provider or other relevant operator shall ensure that corrective action is taken in respect of all the AI systems concerned that it has made available on the Union market within the timeline prescribed by the market surveillance authority of the Member State referred to in paragraph 1.
2. Tiekėjas arba kitas atitinkamas veiklos vykdytojas užtikrina, kad taisomųjų veiksmų dėl visų susijusių DI sistemų, kurias jie patiekė Sąjungos rinkai, būtų imtasi per 1 dalyje nurodytos valstybės narės rinkos priežiūros institucijos nustatytą terminą.
3. The Member States shall immediately inform the Commission and the other Member States of a finding under paragraph 1. That information shall include all available details, in particular the data necessary for the identification of the AI system concerned, the origin and the supply chain of the AI system, the nature of the risk involved and the nature and duration of the national measures taken.
3. Valstybės narės nedelsdamos informuoja Komisiją ir kitas valstybes nares apie pagal 1 dalį padarytas išvadas. Ta informacija apima visus turimus duomenis, visų pirma nurodomi atitinkamai DI sistemai identifikuoti būtini duomenys, DI sistemos kilmė ir tiekimo grandinė, keliamos rizikos pobūdis ir nacionalinių priemonių, kurių imtasi, pobūdis ir trukmė.
4. The Commission shall without undue delay enter into consultation with the Member States concerned and the relevant operators, and shall evaluate the national measures taken. On the basis of the results of that evaluation, the Commission shall decide whether the measure is justified and, where necessary, propose other appropriate measures.
4. Komisija nepagrįstai nedelsdama pradeda konsultacijas su atitinkamomis valstybėmis narėmis ir atitinkamais veiklos vykdytojais ir įvertina nacionalines priemones, kurių imtasi. Remdamasi to vertinimo rezultatais Komisija nusprendžia, ar priemonė pagrįsta, ir prireikus pasiūlo kitų tinkamų priemonių.
5. The Commission shall immediately communicate its decision to the Member States concerned and to the relevant operators. It shall also inform the other Member States.
5. Apie savo sprendimą Komisija tuojau pat praneša atitinkamai valstybei narei ir atitinkamiems veiklos vykdytojams. Ji taip pat informuoja kitas valstybes nares.
Article 83
83 straipsnis
Formal non-compliance
Oficiali neatitiktis
1. Where the market surveillance authority of a Member State makes one of the following findings, it shall require the relevant provider to put an end to the non-compliance concerned, within a period it may prescribe:
1. Jeigu valstybės narės rinkos priežiūros institucija padaro vieną iš toliau nurodytų išvadų, ji reikalauja, kad atitinkamas tiekėjas pašalintų nustatytą neatitiktį per laikotarpį, kurį ji gali nustatyti:
(a)
the CE marking has been affixed in violation of Article 48;
a)
CE ženklu paženklinta pažeidžiant 48 straipsnį;
(b)
the CE marking has not been affixed;
b)
nepaženklinta CE ženklu;
(c)
the EU declaration of conformity referred to in Article 47 has not been drawn up;
c)
neparengta 47 straipsnyje nurodyta ES atitikties deklaracija;
(d)
the EU declaration of conformity referred to in Article 47 has not been drawn up correctly;
d)
47 straipsnyje nurodyta ES atitikties deklaracija parengta netinkamai;
(e)
the registration in the EU database referred to in Article 71 has not been carried out;
e)
neatlikta registracija 71 straipsnyje nurodytoje ES duomenų bazėje;
(f)
where applicable, no authorised representative has been appointed;
f)
kai taikytina, nepaskirtas įgaliotasis atstovas;
(g)
technical documentation is not available.
g)
nepateikta techninių dokumentų.
2. Where the non-compliance referred to in paragraph 1 persists, the market surveillance authority of the Member State concerned shall take appropriate and proportionate measures to restrict or prohibit the high-risk AI system being made available on the market or to ensure that it is recalled or withdrawn from the market without delay.
2. Jeigu 1 dalyje nurodyta neatitiktis nepašalinama, atitinkamos valstybės narės rinkos priežiūros institucija imasi tinkamų ir proporcingų priemonių, kad būtų apribotas ar uždraustas didelės rizikos DI sistemos tiekimas rinkai arba užtikrinama, kad ji būtų nedelsiant atšaukta arba pašalinta iš rinkos.
Article 84
84 straipsnis
Union AI testing support structures
Sąjungos DI bandymų pagalbinės struktūros
1. The Commission shall designate one or more Union AI testing support structures to perform the tasks listed under Article 21(6) of Regulation (EU) 2019/1020 in the area of AI.
1. Komisija paskiria vieną ar daugiau Sąjungos DI bandymų pagalbinių struktūrų, kad būtų atliktos Reglamento (ES) 2019/1020 21 straipsnio 6 dalyje išvardytos užduotys DI srityje.
2. Without prejudice to the tasks referred to in paragraph 1, Union AI testing support structures shall also provide independent technical or scientific advice at the request of the Board, the Commission, or of market surveillance authorities.
2. Nedarant poveikio 1 dalyje nurodytoms užduotims, Sąjungos DI bandymų pagalbinės struktūros taip pat teikia nepriklausomas technines ar mokslines konsultacijas Valdybos, Komisijos arba rinkos priežiūros institucijų prašymu.
SECTION 4
4 SKIRSNIS
Remedies
Teisių gynimo priemonės
Article 85
85 straipsnis
Right to lodge a complaint with a market surveillance authority
Teisė pateikti skundą rinkos priežiūros institucijai
Without prejudice to other administrative or judicial remedies, any natural or legal person having grounds to consider that there has been an infringement of the provisions of this Regulation may submit complaints to the relevant market surveillance authority.
Nedarant poveikio kitoms administracinėms ar teisminėms teisių gynimo priemonėms, bet kuris fizinis ar juridinis asmuo, turintis pagrindo manyti, kad buvo pažeistos šio reglamento nuostatos, gali atitinkamai rinkos priežiūros institucijai pateikti skundus.
In accordance with Regulation (EU) 2019/1020, such complaints shall be taken into account for the purpose of conducting market surveillance activities, and shall be handled in line with the dedicated procedures established therefor by the market surveillance authorities.
Pagal Reglamentą (ES) 2019/1020 į tokius skundus atsižvelgiama rinkos priežiūros veiklos tikslu ir jie nagrinėjami laikantis rinkos priežiūros institucijų tuo tikslu nustatytų specialių procedūrų.
Article 86
86 straipsnis
Right to explanation of individual decision-making
Teisė gauti priimtų individualių sprendimų paaiškinimą
1. Any affected person subject to a decision which is taken by the deployer on the basis of the output from a high-risk AI system listed in Annex III, with the exception of systems listed under point 2 thereof, and which produces legal effects or similarly significantly affects that person in a way that they consider to have an adverse impact on their health, safety or fundamental rights shall have the right to obtain from the deployer clear and meaningful explanations of the role of the AI system in the decision-making procedure and the main elements of the decision taken.
1. Bet kuris asmuo, paveiktas sprendimo, kurį diegėjas priima remdamasis III priede nurodytos didelės rizikos DI sistemos, išskyrus jo 2 punkte išvardytas sistemas, išvediniu, ir kuris tam asmeniui sukelia teisinių padarinių arba daro panašų didelį poveikį taip, kad, to asmens nuomone, tai daro neigiamą poveikį jo sveikatai, saugai ar pagrindinėms teisėms, turi teisę iš diegėjo gauti aiškius ir prasmingus paaiškinimus apie DI sistemos vaidmenį sprendimų priėmimo procedūroje ir pagrindinius priimto sprendimo elementus.
2. Paragraph 1 shall not apply to the use of AI systems for which exceptions from, or restrictions to, the obligation under that paragraph follow from Union or national law in compliance with Union law.
2. 1 dalis netaikoma DI sistemų, kurioms taikomos toje dalyje nustatytos pareigos išimtys ar apribojimai, kylantys iš Sąjungos ar nacionalinės teisės laikantis Sąjungos teisės, naudojimui.
3. This Article shall apply only to the extent that the right referred to in paragraph 1 is not otherwise provided for under Union law.
3. Šis straipsnis taikomas tik tokiu mastu, kokiu 1 dalyje nurodyta teisė nenumatyta kitaip pagal Sąjungos teisę.
Article 87
87 straipsnis
Reporting of infringements and protection of reporting persons
Pranešimai apie pažeidimus ir pranešėjų apsauga
Directive (EU) 2019/1937 shall apply to the reporting of infringements of this Regulation and the protection of persons reporting such infringements.
Pranešimams apie šio reglamento pažeidimus ir asmenų, pranešančių apie tokius pažeidimus, apsaugai taikoma Direktyva (ES) 2019/1937.
SECTION 5
5 SKIRSNIS
Supervision, investigation, enforcement and monitoring in respect of providers of general-purpose AI models
Bendrosios paskirties DI modelių tiekėjų atžvilgiu taikoma priežiūra, tyrimas, vykdymo užtikrinimas ir stebėsena
Article 88
88 straipsnis
Enforcement of the obligations of providers of general-purpose AI models
Bendrosios paskirties DI modelių tiekėjų pareigų vykdymo užtikrinimas
1. The Commission shall have exclusive powers to supervise and enforce Chapter V, taking into account the procedural guarantees under Article 94. The Commission shall entrust the implementation of these tasks to the AI Office, without prejudice to the powers of organisation of the Commission and the division of competences between Member States and the Union based on the Treaties.
1. Komisija turi išimtinius įgaliojimus prižiūrėti ir užtikrinti V skyriaus vykdymą, atsižvelgiant į procedūrines garantijas pagal 94 straipsnį. Šias užduotis Komisija paveda įgyvendinti DI tarnybai, nedarant poveikio Komisijos organizaciniams įgaliojimams ir Sutartimis grindžiamam valstybių narių ir Sąjungos kompetencijos pasidalijimui.
2. Without prejudice to Article 75(3), market surveillance authorities may request the Commission to exercise the powers laid down in this Section, where that is necessary and proportionate to assist with the fulfilment of their tasks under this Regulation.
2. Nedarant poveikio 75 straipsnio 3 daliai, rinkos priežiūros institucijos gali prašyti Komisijos naudotis šiame skirsnyje nustatytais įgaliojimais, kai tai būtina ir proporcinga siekiant padėti joms vykdyti užduotis pagal šį reglamentą.
Article 89
89 straipsnis
Monitoring actions
Stebėsenos veiksmai
1. For the purpose of carrying out the tasks assigned to it under this Section, the AI Office may take the necessary actions to monitor the effective implementation and compliance with this Regulation by providers of general-purpose AI models, including their adherence to approved codes of practice.
1. DI tarnyba, siekdama vykdyti pagal šį skirsnį jai pavestas užduotis, gali imtis būtinų veiksmų, kad stebėtų, ar bendrosios paskirties DI modelių tiekėjai veiksmingai įgyvendina šį reglamentą ir ar jo laikosi, be kita ko, kaip jie laikosi patvirtintų praktikos kodeksų.
2. Downstream providers shall have the right to lodge a complaint alleging an infringement of this Regulation. A complaint shall be duly reasoned and indicate at least:
2. Tolesnės grandies tiekėjai turi teisę pateikti skundą dėl įtariamo šio reglamento pažeidimo. Skundas turi būti tinkamai pagrįstas ir jame nurodoma bent:
(a)
the point of contact of the provider of the general-purpose AI model concerned;
a)
atitinkamo bendrosios paskirties DI modelio tiekėjo kontaktinis punktas;
(b)
a description of the relevant facts, the provisions of this Regulation concerned, and the reason why the downstream provider considers that the provider of the general-purpose AI model concerned infringed this Regulation;
b)
atitinkamų faktų aprašymas, atitinkamos šio reglamento nuostatos ir priežastis, kodėl tolesnės grandies tiekėjas mano, kad atitinkamo bendrosios paskirties DI modelio tiekėjas pažeidė šį reglamentą;
(c)
any other information that the downstream provider that sent the request considers relevant, including, where appropriate, information gathered on its own initiative.
c)
visa kita informacija, kuri prašymą išsiuntusio tolesnės grandies tiekėjo nuomone, yra svarbi, įskaitant, kai tinkama, jo iniciatyva surinktą informaciją.
Article 90
90 straipsnis
Alerts of systemic risks by the scientific panel
Mokslinės komisijos perspėjimai apie sisteminę riziką
1. The scientific panel may provide a qualified alert to the AI Office where it has reason to suspect that:
1. Mokslinė komisija DI tarnybai gali pateikti kvalifikuotą perspėjimą, jei turi pagrindo įtarti, kad:
(a)
a general-purpose AI model poses concrete identifiable risk at Union level; or
a)
bendrosios paskirties DI modelis Sąjungos lygmeniu kelia konkrečią nustatomą riziką arba
(b)
a general-purpose AI model meets the conditions referred to in Article 51.
b)
bendrosios paskirties DI modelis atitinka 51 straipsnyje nurodytas sąlygas.
2. Upon such qualified alert, the Commission, through the AI Office and after having informed the Board, may exercise the powers laid down in this Section for the purpose of assessing the matter. The AI Office shall inform the Board of any measure according to Articles 91 to 94.
2. Gavusi tokį kvalifikuotą perspėjimą, Komisija per DI tarnybą ir informavusi Valdybą, siekdama tai įvertinti, gali pasinaudoti šiame skirsnyje nustatytais įgaliojimais. DI tarnyba informuoja Valdybą apie visas priemones pagal 91–94 straipsnius.
3. A qualified alert shall be duly reasoned and indicate at least:
3. Kvalifikuotas perspėjimas turi būti tinkamai pagrįstas ir jame nurodoma bent:
(a)
the point of contact of the provider of the general-purpose AI model with systemic risk concerned;
a)
atitinkamo sisteminės rizikos bendrosios paskirties DI modelio tiekėjo kontaktinis punktas;
(b)
a description of the relevant facts and the reasons for the alert by the scientific panel;
b)
atitinkamų faktų aprašymas ir priežastys, dėl kurių mokslinė komisija pateikė perspėjimą;
(c)
any other information that the scientific panel considers to be relevant, including, where appropriate, information gathered on its own initiative.
c)
visa kita informacija, kuri, mokslinės komisijos nuomone, yra svarbi, įskaitant, kai tinkama, jos iniciatyva surinktą informaciją.
Article 91
91 straipsnis
Power to request documentation and information
Įgaliojimai prašyti dokumentų ir informacijos
1. The Commission may request the provider of the general-purpose AI model concerned to provide the documentation drawn up by the provider in accordance with Articles 53 and 55, or any additional information that is necessary for the purpose of assessing compliance of the provider with this Regulation.
1. Komisija gali paprašyti atitinkamo bendrosios paskirties DI modelio tiekėjo pateikti pagal 53 ir 55 straipsnius tiekėjo parengtus dokumentus arba bet kokią papildomą informaciją, kurios reikia siekiant įvertinti, ar tiekėjas laikosi šio reglamento.
2. Before sending the request for information, the AI Office may initiate a structured dialogue with the provider of the general-purpose AI model.
2. Prieš išsiųsdama prašymą pateikti informaciją, DI tarnyba gali pradėti struktūrinį dialogą su bendrosios paskirties DI modelio tiekėju.
3. Upon a duly substantiated request from the scientific panel, the Commission may issue a request for information to a provider of a general-purpose AI model, where the access to information is necessary and proportionate for the fulfilment of the tasks of the scientific panel under Article 68(2).
3. Gavusi tinkamai pagrįstą mokslinės komisijos prašymą, Komisija gali bendrosios paskirties DI modelio tiekėjui pateikti prašymą dėl informacijos, jei prieiga prie informacijos yra būtina ir proporcinga mokslinės komisijos užduotims pagal 68 straipsnio 2 dalį vykdyti.
4. The request for information shall state the legal basis and the purpose of the request, specify what information is required, set a period within which the information is to be provided, and indicate the fines provided for in Article 101 for supplying incorrect, incomplete or misleading information.
4. Prašyme pateikti informaciją nurodomas prašymo teisinis pagrindas ir tikslas, nurodoma, kokios informacijos reikia, nustatomas laikotarpis, per kurį informacija turi būti pateikta ir nurodomos 101 straipsnyje numatytos baudos už neteisingos, neišsamios ar klaidinančios informacijos pateikimą.
5. The provider of the general-purpose AI model concerned, or its representative shall supply the information requested. In the case of legal persons, companies or firms, or where the provider has no legal personality, the persons authorised to represent them by law or by their statutes, shall supply the information requested on behalf of the provider of the general-purpose AI model concerned. Lawyers duly authorised to act may supply information on behalf of their clients. The clients shall nevertheless remain fully responsible if the information supplied is incomplete, incorrect or misleading.
5. Prašomą informaciją pateikia atitinkamo bendrosios paskirties DI modelio tiekėjas arba jo atstovas. Juridinių asmenų, bendrovių ar įmonių atveju arba tais atvejais, kai tiekėjas neturi juridinio asmens statuso, prašomą informaciją atitinkamo bendrosios paskirties DI modelio tiekėjo vardu pateikia asmenys, teisės aktais arba jo įstatais įgalioti jam atstovauti. Tinkamai įgalioti teisininkai gali teikti informaciją savo klientų vardu. Vis dėlto klientai lieka visiškai atsakingi, jei pateikta informacija yra neišsami, neteisinga ar klaidinanti.
Article 92
92 straipsnis
Power to conduct evaluations
Įgaliojimai atlikti vertinimus
1. The AI Office, after consulting the Board, may conduct evaluations of the general-purpose AI model concerned:
1. DI tarnyba, pasikonsultavusi su Valdyba, gali atlikti atitinkamo bendrosios paskirties DI modelio vertinimus:
(a)
to assess compliance of the provider with obligations under this Regulation, where the information gathered pursuant to Article 91 is insufficient; or
a)
kad įvertintų, kaip tiekėjas vykdo pareigas pagal šį reglamentą, kai pagal 91 straipsnį surinkta informacija yra nepakankama, arba
(b)
to investigate systemic risks at Union level of general-purpose AI models with systemic risk, in particular following a qualified alert from the scientific panel in accordance with Article 90(1), point (a).
b)
kad ištirtų sisteminę riziką Sąjungos lygmeniu, susijusią su sisteminės rizikos bendrosios paskirties DI modeliais, visų pirma remiantis mokslinės komisijos kvalifikuotu perspėjimu pagal 90 straipsnio 1 dalies a punktą.
2. The Commission may decide to appoint independent experts to carry out evaluations on its behalf, including from the scientific panel established pursuant to Article 68. Independent experts appointed for this task shall meet the criteria outlined in Article 68(2).
2. Komisija gali nuspręsti paskirti nepriklausomus ekspertus vertinimams atlikti jos vardu, įskaitant ekspertus iš mokslinės komisijos, sudarytos pagal 68 straipsnį. Šiai užduočiai atlikti paskirti nepriklausomi ekspertai turi atitikti 68 straipsnio 2 dalyje išdėstytus kriterijus.
3. For the purposes of paragraph 1, the Commission may request access to the general-purpose AI model concerned through APIs or further appropriate technical means and tools, including source code.
3. 1 dalies tikslais Komisija gali prašyti prieigos prie atitinkamo bendrosios paskirties DI modelio per API arba kitas tinkamas technines priemones ir įrankius, įskaitant pirminį kodą.
4. The request for access shall state the legal basis, the purpose and reasons of the request and set the period within which the access is to be provided, and the fines provided for in Article 101 for failure to provide access.
4. Prašyme suteikti prieigą prie informacijos nurodomas prašymo teisinis pagrindas, tikslas bei priežastys ir nustatomas laikotarpis, per kurį prieiga turi būti suteikta, taip pat nurodomos 101 straipsnyje numatytos baudos už prieigos nesuteikimą.
5. The providers of the general-purpose AI model concerned or its representative shall supply the information requested. In the case of legal persons, companies or firms, or where the provider has no legal personality, the persons authorised to represent them by law or by their statutes, shall provide the access requested on behalf of the provider of the general-purpose AI model concerned.
5. Atitinkamo bendrosios paskirties DI modelio tiekėjai arba jo atstovas suteikia prašomą informaciją. Juridinių asmenų, bendrovių ar įmonių atveju arba tais atvejais, kai tiekėjas neturi juridinio asmens statuso, prašomą prieigą atitinkamo bendrosios paskirties DI modelio tiekėjo vardu suteikia asmenys, teisės aktais arba jų nuostatais įgalioti jiems atstovauti.
6. The Commission shall adopt implementing acts setting out the detailed arrangements and the conditions for the evaluations, including the detailed arrangements for involving independent experts, and the procedure for the selection thereof. Those implementing acts shall be adopted in accordance with the examination procedure referred to in Article 98(2).
6. Komisija priima įgyvendinimo aktus, kuriais nustatoma išsami vertinimų tvarka ir sąlygos, įskaitant išsamią nepriklausomų ekspertų įtraukimo tvarką ir jų atrankos procedūrą. Tie įgyvendinimo aktai priimami laikantis 98 straipsnio 2 dalyje nurodytos nagrinėjimo procedūros.
7. Prior to requesting access to the general-purpose AI model concerned, the AI Office may initiate a structured dialogue with the provider of the general-purpose AI model to gather more information on the internal testing of the model, internal safeguards for preventing systemic risks, and other internal procedures and measures the provider has taken to mitigate such risks.
7. Prieš prašydama prieigos prie atitinkamo bendrosios paskirties DI modelio, DI tarnyba gali pradėti struktūrinį dialogą su bendrosios paskirties DI modelio tiekėju, kad surinktų daugiau informacijos apie modelio vidaus bandymus, sisteminės rizikos prevencijai skirtas vidaus apsaugos priemones ir kitas vidaus procedūras bei priemones, kurių tiekėjas ėmėsi tokiai rizikai sumažinti.
Article 93
93 straipsnis
Power to request measures
Įgaliojimai prašyti imtis priemonių
1. Where necessary and appropriate, the Commission may request providers to:
1. Kai būtina ir tikslinga, Komisija gali prašyti, kad tiekėjai:
(a)
take appropriate measures to comply with the obligations set out in Articles 53 and 54;
a)
imtųsi tinkamų priemonių 53 ir 54 straipsniuose nustatytoms pareigoms vykdyti;
(b)
implement mitigation measures, where the evaluation carried out in accordance with Article 92 has given rise to serious and substantiated concern of a systemic risk at Union level;
b)
įgyvendintų rizikos mažinimo priemones, kai pagal 92 straipsnį atlikus vertinimą kyla rimtas ir pagrįstas susirūpinimas dėl sisteminės rizikos Sąjungos lygmeniu;
(c)
restrict the making available on the market, withdraw or recall the model.
c)
apribotų modelio tiekimą rinkai, jį pašalintų arba atšauktų.
2. Before a measure is requested, the AI Office may initiate a structured dialogue with the provider of the general-purpose AI model.
2. Prieš paprašydama imtis priemonės, DI tarnyba gali pradėti struktūrinį dialogą su bendrosios paskirties DI modelio tiekėju.
3. If, during the structured dialogue referred to in paragraph 2, the provider of the general-purpose AI model with systemic risk offers commitments to implement mitigation measures to address a systemic risk at Union level, the Commission may, by decision, make those commitments binding and declare that there are no further grounds for action.
3. Jei per 2 dalyje nurodytą struktūrinį dialogą sisteminės rizikos bendrosios paskirties DI modelio tiekėjas pasiūlo įsipareigoti įgyvendinti rizikos mažinimo priemones, kad būtų šalinama sisteminė rizika Sąjungos lygmeniu, Komisija gali priimti sprendimą, kuriuo tie įsipareigojimai taptų privalomi, ir paskelbti, kad nėra pagrindo imtis tolesnių veiksmų.
Article 94
94 straipsnis
Procedural rights of economic operators of the general-purpose AI model
Bendrosios paskirties DI modelio ekonominės veiklos vykdytojų procesinės teisės
Article 18 of Regulation (EU) 2019/1020 shall apply mutatis mutandis to the providers of the general-purpose AI model, without prejudice to more specific procedural rights provided for in this Regulation.
Reglamento (ES) 2019/1020 18 straipsnis mutatis mutandis taikomas bendrosios paskirties DI modelio tiekėjams, nedarant poveikio konkretesnėms šiame reglamente numatytoms procesinėms teisėms.
CHAPTER X
X SKYRIUS
CODES OF CONDUCT AND GUIDELINES
ELGESIO KODEKSAI IR GAIRĖS
Article 95
95 straipsnis
Codes of conduct for voluntary application of specific requirements
Savanoriško konkrečių reikalavimų taikymo elgesio kodeksai
1. The AI Office and the Member States shall encourage and facilitate the drawing up of codes of conduct, including related governance mechanisms, intended to foster the voluntary application to AI systems, other than high-risk AI systems, of some or all of the requirements set out in Chapter III, Section 2 taking into account the available technical solutions and industry best practices allowing for the application of such requirements.
1. DI tarnyba ir valstybės narės skatina ir padeda rengti elgesio kodeksus, įskaitant susijusius valdymo mechanizmus, kuriais siekiama skatinti DI sistemoms, išskyrus didelės rizikos DI sistemas, savanoriškai taikyti kelis ar visus III skyriaus 2 skirsnyje nustatytus reikalavimus, atsižvelgiant į turimus techninius sprendimus ir sektoriaus geriausią praktiką, kuriais sudaromos sąlygos taikyti tokius reikalavimus.
2. The AI Office and the Member States shall facilitate the drawing up of codes of conduct concerning the voluntary application, including by deployers, of specific requirements to all AI systems, on the basis of clear objectives and key performance indicators to measure the achievement of those objectives, including elements such as, but not limited to:
2. DI tarnyba ir valstybės narės padeda rengti elgesio kodeksus, susijusius su savanorišku konkrečių reikalavimų taikymu, įskaitant diegėjų vykdomą taikymą, visoms DI sistemoms, remiantis aiškiais tikslais ir tų tikslų pasiekimui įvertinti skirtais pagrindiniais veikimo rodikliais, įskaitant, pavyzdžiui, toliau nurodytus elementus (bet jais neapsiribojant):
(a)
applicable elements provided for in Union ethical guidelines for trustworthy AI;
a)
taikytini elementai, numatyti Sąjungos patikimo DI etikos gairėse;
(b)
assessing and minimising the impact of AI systems on environmental sustainability, including as regards energy-efficient programming and techniques for the efficient design, training and use of AI;
b)
DI sistemų poveikio aplinkosauginiam tvarumui įvertinimas, be kita ko, kiek tai susiję su efektyviu energijos vartojimu grindžiamu programavimu ir veiksmingo DI projektavimo, mokymo ir naudojimo metodais, ir kuo didesnis to poveikio sumažinimas;
(c)
promoting AI literacy, in particular that of persons dealing with the development, operation and use of AI;
c)
raštingumo DI srityje, visų pirma asmenų, susijusių su DI kūrimu, veikimu ir naudojimu, raštingumo skatinimas;
(d)
facilitating an inclusive and diverse design of AI systems, including through the establishment of inclusive and diverse development teams and the promotion of stakeholders’ participation in that process;
d)
palankesnių sąlygų įtraukiam ir įvairove grindžiamam DI sistemų projektavimui sudarymas, be kita ko, sudarant įtraukias ir įvairove grindžiamas kūrimo grupes ir skatinant suinteresuotuosius subjektus dalyvauti tame procese;
(e)
assessing and preventing the negative impact of AI systems on vulnerable persons or groups of vulnerable persons, including as regards accessibility for persons with a disability, as well as on gender equality.
e)
neigiamo DI sistemų poveikio pažeidžiamiems asmenims ar pažeidžiamų asmenų grupėms, be kita ko, kiek tai susiję su prieinamumu asmenims su negalia, taip pat lyčių lygybei vertinimas ir prevencija.
3. Codes of conduct may be drawn up by individual providers or deployers of AI systems or by organisations representing them or by both, including with the involvement of any interested stakeholders and their representative organisations, including civil society organisations and academia. Codes of conduct may cover one or more AI systems taking into account the similarity of the intended purpose of the relevant systems.
3. Elgesio kodeksus gali rengti individualūs DI sistemų tiekėjai ar diegėjai arba jiems atstovaujančios organizacijos, arba ir vieni, ir kiti, be kita ko, dalyvaujant visiems suinteresuotiesiems subjektams, taip pat jiems atstovaujančioms organizacijoms, įskaitant pilietinės visuomenės organizacijas ir akademinę bendruomenę. Elgesio kodeksai gali būti taikomi vienai ar daugiau DI sistemų, atsižvelgiant į atitinkamų sistemų numatytosios paskirties panašumą.
4. The AI Office and the Member States shall take into account the specific interests and needs of SMEs, including start-ups, when encouraging and facilitating the drawing up of codes of conduct.
4. DI tarnyba ir valstybės narės, skatindamos ir padėdamos rengti elgesio kodeksus, atsižvelgia į konkrečius MVĮ, įskaitant startuolius, interesus ir poreikius.
Article 96
96 straipsnis
Guidelines from the Commission on the implementation of this Regulation
Komisijos gairės dėl šio reglamento įgyvendinimo
1. The Commission shall develop guidelines on the practical implementation of this Regulation, and in particular on:
1. Komisija parengia šio reglamento praktinio įgyvendinimo gaires, visų pirma dėl:
(a)
the application of the requirements and obligations referred to in Articles 8 to 15 and in Article 25;
a)
8–15 straipsniuose ir 25 straipsnyje nurodytų reikalavimų taikymo ir pareigų vykdymo;
(b)
the prohibited practices referred to in Article 5;
b)
5 straipsnyje nurodytos draudžiamos praktikos;
(c)
the practical implementation of the provisions related to substantial modification;
c)
nuostatų, susijusių su esminiais pakeitimais, praktinio įgyvendinimo;
(d)
the practical implementation of transparency obligations laid down in Article 50;
d)
50 straipsnyje nustatytų skaidrumo pareigų praktinio įgyvendinimo;
(e)
detailed information on the relationship of this Regulation with the Union harmonisation legislation listed in Annex I, as well as with other relevant Union law, including as regards consistency in their enforcement;
e)
išsamios informacijos apie šio reglamento ryšį su I priede išvardytais Sąjungos derinamaisiais teisės aktais, taip pat su kitais atitinkamais Sąjungos teisės aktais, be kita ko, kiek tai susiję su jų vykdymo užtikrinimo nuoseklumu;
(f)
the application of the definition of an AI system as set out in Article 3, point (1).
f)
3 straipsnio 1 punkte pateiktos DI sistemos apibrėžties taikymo.
When issuing such guidelines, the Commission shall pay particular attention to the needs of SMEs including start-ups, of local public authorities and of the sectors most likely to be affected by this Regulation.
Priimdama tokias gaires, Komisija ypač daug dėmesio skiria MVĮ, įskaitant startuolius, vietos valdžios institucijų ir sektorių, kuriems šio reglamento poveikis yra labiausiai tikėtinas, poreikiams.
The guidelines referred to in the first subparagraph of this paragraph shall take due account of the generally acknowledged state of the art on AI, as well as of relevant harmonised standards and common specifications that are referred to in Articles 40 and 41, or of those harmonised standards or technical specifications that are set out pursuant to Union harmonisation law.
Šios dalies pirmoje pastraipoje nurodytose gairėse tinkamai atsižvelgiama į visuotinai pripažintus pažangiausius DI srities metodus, taip pat į atitinkamus darniuosius standartus ir bendrąsias specifikacijas, nurodytus 40 ir 41 straipsniuose, arba į darniuosius standartus ar technines specifikacijas, nustatytus pagal Sąjungos derinamuosius teisės aktus.
2. At the request of the Member States or the AI Office, or on its own initiative, the Commission shall update guidelines previously adopted when deemed necessary.
2. Anksčiau priimtas gaires Komisija, jeigu tai laiko reikalinga, atnaujina valstybių narių arba DI tarnybos prašymu arba savo iniciatyva.
CHAPTER XI
XI SKYRIUS
DELEGATION OF POWER AND COMMITTEE PROCEDURE
DELEGUOTIEJI ĮGALIOJIMAI IR KOMITETO PROCEDŪRA
Article 97
97 straipsnis
Exercise of the delegation
Įgaliojimų delegavimas
1. The power to adopt delegated acts is conferred on the Commission subject to the conditions laid down in this Article.
1. Įgaliojimai priimti deleguotuosius aktus Komisijai suteikiami šiame straipsnyje nustatytomis sąlygomis.
2. The power to adopt delegated acts referred to in Article 6(6) and (7), Article 7(1) and (3), Article 11(3), Article 43(5) and (6), Article 47(5), Article 51(3), Article 52(4) and Article 53(5) and (6) shall be conferred on the Commission for a period of five years from 1 August 2024. The Commission shall draw up a report in respect of the delegation of power not later than nine months before the end of the five-year period. The delegation of power shall be tacitly extended for periods of an identical duration, unless the European Parliament or the Council opposes such extension not later than three months before the end of each period.
2. 6 straipsnio 6 ir 7 dalyse, 7 straipsnio 1 ir 3 dalyse, 11 straipsnio 3 dalyje, 43 straipsnio 5 ir 6 dalyse, 47 straipsnio 5 dalyje, 51 straipsnio 3 dalyje, 52 straipsnio 4 dalyje ir 53 straipsnio 5 ir 6 dalyse nurodyti įgaliojimai priimti deleguotuosius aktus Komisijai suteikiami penkerių metų laikotarpiui nuo 2024 m. rugpjūčio 1 d. Likus ne mažiau kaip devyniems mėnesiams iki penkerių metų laikotarpio pabaigos Komisija parengia naudojimosi deleguotaisiais įgaliojimais ataskaitą. Deleguotieji įgaliojimai savaime pratęsiami tokios pačios trukmės laikotarpiams, išskyrus atvejus, kai Europos Parlamentas arba Taryba pareiškia prieštaravimų dėl tokio pratęsimo likus ne mažiau kaip trims mėnesiams iki kiekvieno laikotarpio pabaigos.
3. The delegation of power referred to in Article 6(6) and (7), Article 7(1) and (3), Article 11(3), Article 43(5) and (6), Article 47(5), Article 51(3), Article 52(4) and Article 53(5) and (6) may be revoked at any time by the European Parliament or by the Council. A decision of revocation shall put an end to the delegation of power specified in that decision. It shall take effect the day following that of its publication in the Official Journal of the European Union or at a later date specified therein. It shall not affect the validity of any delegated acts already in force.
3. Europos Parlamentas arba Taryba gali bet kada atšaukti 6 straipsnio 6 ir 7 dalyse, 7 straipsnio 1 ir 3 dalyse, 11 straipsnio 3 dalyje, 43 straipsnio 5 ir 6 dalyse, 47 straipsnio 5 dalyje, 51 straipsnio 3 dalyje, 52 straipsnio 4 dalyje ir 53 straipsnio 5 ir 6 dalyse nurodytus deleguotuosius įgaliojimus. Sprendimu dėl įgaliojimų atšaukimo nutraukiami tame sprendime nurodyti įgaliojimai priimti deleguotuosius aktus. Jis įsigalioja kitą dieną po jo paskelbimo Europos Sąjungos oficialiajame leidinyje arba vėlesnę jame nurodytą dieną. Jis nedaro poveikio jau galiojančių deleguotųjų aktų galiojimui.
4. Before adopting a delegated act, the Commission shall consult experts designated by each Member State in accordance with the principles laid down in the Interinstitutional Agreement of 13 April 2016 on Better Law-Making.
4. Prieš priimdama deleguotąjį aktą Komisija konsultuojasi su kiekvienos valstybės narės paskirtais ekspertais vadovaudamasi 2016 m. balandžio 13 d. Tarpinstituciniame susitarime dėl geresnės teisėkūros nustatytais principais.
5. As soon as it adopts a delegated act, the Commission shall notify it simultaneously to the European Parliament and to the Council.
5. Apie priimtą deleguotąjį aktą Komisija nedelsdama vienu metu praneša Europos Parlamentui ir Tarybai.
6. Any delegated act adopted pursuant to Article 6(6) or (7), Article 7(1) or (3), Article 11(3), Article 43(5) or (6), Article 47(5), Article 51(3), Article 52(4) or Article 53(5) or (6) shall enter into force only if no objection has been expressed by either the European Parliament or the Council within a period of three months of notification of that act to the European Parliament and the Council or if, before the expiry of that period, the European Parliament and the Council have both informed the Commission that they will not object. That period shall be extended by three months at the initiative of the European Parliament or of the Council.
6. Pagal 6 straipsnio 6 arba 7 dalį, 7 straipsnio 1 arba 3 dalį, 11 straipsnio 3 dalį, 43 straipsnio 5 ir 6 dalį, 47 straipsnio 5 dalį, 51 straipsnio 3 dalį, 52 straipsnio 4 dalį arba 53 straipsnio 5 arba 6 dalį priimti deleguotieji aktai įsigalioja tik tuo atveju, jeigu per tris mėnesius nuo pranešimo Europos Parlamentui ir Tarybai apie tą aktą dienos nei Europos Parlamentas, nei Taryba nepareiškia prieštaravimų arba jeigu dar nepasibaigus šiam laikotarpiui ir Europos Parlamentas, ir Taryba praneša Komisijai, kad prieštaravimų nereikš. Europos Parlamento arba Tarybos iniciatyva šis laikotarpis pratęsiamas trimis mėnesiais.
Article 98
98 straipsnis
Committee procedure
Komiteto procedūra
1. The Commission shall be assisted by a committee. That committee shall be a committee within the meaning of Regulation (EU) No 182/2011.
1. Komisijai padeda komitetas. Tas komitetas – tai komitetas, kaip tai suprantama Reglamente (ES) Nr. 182/2011.
2. Where reference is made to this paragraph, Article 5 of Regulation (EU) No 182/2011 shall apply.
2. Kai daroma nuoroda į šią dalį, taikomas Reglamento (ES) Nr. 182/2011 5 straipsnis.
CHAPTER XII
XII SKYRIUS
PENALTIES
SANKCIJOS
Article 99
99 straipsnis
Penalties
Sankcijos
1. In accordance with the terms and conditions laid down in this Regulation, Member States shall lay down the rules on penalties and other enforcement measures, which may also include warnings and non-monetary measures, applicable to infringements of this Regulation by operators, and shall take all measures necessary to ensure that they are properly and effectively implemented, thereby taking into account the guidelines issued by the Commission pursuant to Article 96. The penalties provided for shall be effective, proportionate and dissuasive. They shall take into account the interests of SMEs, including start-ups, and their economic viability.
1. Laikydamosi šiame reglamente nustatytų sąlygų, valstybės narės nustato taisykles dėl sankcijų ir kitų vykdymo užtikrinimo priemonių, kurios taip pat gali apimti įspėjimus ir nepinigines priemones, taikytinų už veiklos vykdytojų padarytus šio reglamento pažeidimus, ir imasi visų būtinų priemonių užtikrinti, kad jos būtų tinkamai ir veiksmingai įgyvendinamos, taip atsižvelgdamos į Komisijos pagal 96 straipsnį paskelbtas gaires. Numatytos sankcijos turi būti veiksmingos, proporcingos ir atgrasomos. Jomis visų pirma atsižvelgiama į MVĮ, įskaitant startuolius, interesus ir jų ekonominį gyvybingumą.
2. The Member States shall, without delay and at the latest by the date of entry into application, notify the Commission of the rules on penalties and of other enforcement measures referred to in paragraph 1, and shall notify it, without delay, of any subsequent amendment to them.
2. Valstybės narės nedelsdamos ir ne vėliau kaip iki taikymo pradžios dienos praneša Komisijai apie taisykles dėl sankcijų ir kitų vykdymo užtikrinimo priemonių, nurodytų 1 dalyje, ir nedelsdamos praneša jai apie visus vėlesnius jų pakeitimus.
3. Non-compliance with the prohibition of the AI practices referred to in Article 5 shall be subject to administrative fines of up to EUR 35 000 000 or, if the offender is an undertaking, up to 7 % of its total worldwide annual turnover for the preceding financial year, whichever is higher.
3. Už 5 straipsnyje nurodytų su DI susijusios praktikos draudimų nesilaikymą skiriamos iki 35 000 000 EUR dydžio administracinės baudos arba, jei pažeidėjas yra įmonė, iki 7 % jos bendros pasaulinės praėjusių finansinių metų metinės apyvartos, atsižvelgiant į tai, kuri yra didesnė.
4. Non-compliance with any of the following provisions related to operators or notified bodies, other than those laid down in Articles 5, shall be subject to administrative fines of up to EUR 15 000 000 or, if the offender is an undertaking, up to 3 % of its total worldwide annual turnover for the preceding financial year, whichever is higher:
4. Iki 15 000 000 EUR dydžio administracinės baudos arba, jei pažeidėjas yra įmonė, iki 3 % jos bendros pasaulinės praėjusių finansinių metų metinės apyvartos, atsižvelgiant į tai, kuri yra didesnė, skiriamos, jei nesilaikoma kurios nors iš toliau nurodytų nuostatų, susijusių su veiklos vykdytojais ar notifikuotosiomis įstaigomis, išskyrus 5 straipsnyje išdėstytas nuostatas:
(a)
obligations of providers pursuant to Article 16;
a)
tiekėjų pareigų pagal 16 straipsnį;
(b)
obligations of authorised representatives pursuant to Article 22;
b)
įgaliotųjų atstovų pareigų pagal 22 straipsnį;
(c)
obligations of importers pursuant to Article 23;
c)
importuotojų pareigų pagal 23 straipsnį;
(d)
obligations of distributors pursuant to Article 24;
d)
platintojų pareigų pagal 24 straipsnį;
(e)
obligations of deployers pursuant to Article 26;
e)
diegėjų pareigų pagal 26 straipsnį;
(f)
requirements and obligations of notified bodies pursuant to Article 31, Article 33(1), (3) and (4) or Article 34;
f)
notifikuotosioms įstaigoms taikomų reikalavimų ir pareigų pagal 31 straipsnį, 33 straipsnio 1 dalį, 33 straipsnio 3 dalį, 33 straipsnio 4 dalį arba 34 straipsnį;
(g)
transparency obligations for providers and deployers pursuant to Article 50.
g)
tiekėjams ir diegėjams taikomų skaidrumo pareigų pagal 50 straipsnį.
5. The supply of incorrect, incomplete or misleading information to notified bodies or national competent authorities in reply to a request shall be subject to administrative fines of up to EUR 7 500 000 or, if the offender is an undertaking, up to 1 % of its total worldwide annual turnover for the preceding financial year, whichever is higher.
5. Už neteisingos, neišsamios ar klaidinančios informacijos pateikimą notifikuotosioms įstaigoms arba nacionalinėms kompetentingoms institucijoms atsakant į jų prašymą taikomos iki 7 500 000 EUR dydžio administracinės baudos arba, jei pažeidėjas yra įmonė – iki 1 % jos bendros pasaulinės praėjusių finansinių metų metinės apyvartos, atsižvelgiant į tai, kuri yra didesnė.
6. In the case of SMEs, including start-ups, each fine referred to in this Article shall be up to the percentages or amount referred to in paragraphs 3, 4 and 5, whichever thereof is lower.
6. MVĮ, įskaitant startuolius, atveju kiekviena šiame straipsnyje nurodyta bauda neviršija 3, 4 ir 5 dalyse nurodytų procentų arba sumos, atsižvelgiant į tai, kuri yra mažesnė.
7. When deciding whether to impose an administrative fine and when deciding on the amount of the administrative fine in each individual case, all relevant circumstances of the specific situation shall be taken into account and, as appropriate, regard shall be given to the following:
7. Sprendžiant, ar skirti administracinę baudą, ir sprendžiant, koks turėtų būti jos dydis kiekvienu konkrečiu atveju, atitinkamai atsižvelgiama į visas reikšmingas konkrečios situacijos aplinkybes ir į šiuos dalykus:
(a)
the nature, gravity and duration of the infringement and of its consequences, taking into account the purpose of the AI system, as well as, where appropriate, the number of affected persons and the level of damage suffered by them;
a)
pažeidimo pobūdį, sunkumą, trukmę ir jo pasekmes, atsižvelgiant į atitinkamos DI sistemos paskirtį, taip pat, kai tikslinga, į paveiktų asmenų skaičių ir jų patirtos žalos dydį;
(b)
whether administrative fines have already been applied by other market surveillance authorities to the same operator for the same infringement;
b)
tai, ar kitos rinkos priežiūros institucijos jau yra skyrusios administracines baudas tam pačiam veiklos vykdytojui už tą patį pažeidimą;
(c)
whether administrative fines have already been applied by other authorities to the same operator for infringements of other Union or national law, when such infringements result from the same activity or omission constituting a relevant infringement of this Regulation;
c)
tai, ar kitos institucijos jau yra skyrusios administracines baudas tam pačiam veiklos vykdytojui už kitų Sąjungos ar nacionalinės teisės aktų pažeidimus, kai tokie pažeidimai padaryti dėl tos pačios veiklos arba neveikimo, kurie yra svarbus šio reglamento pažeidimas;
(d)
the size, the annual turnover and market share of the operator committing the infringement;
d)
pažeidimą padariusio veiklos vykdytojo dydį, metinę apyvartą ir rinkos dalį;
(e)
any other aggravating or mitigating factor applicable to the circumstances of the case, such as financial benefits gained, or losses avoided, directly or indirectly, from the infringement;
e)
kitas atsakomybę sunkinančias ar švelninančias aplinkybes, susijusias su konkrečiu atveju, pavyzdžiui, gautą finansinę naudą arba nuostolius, kurių buvo tiesiogiai ar netiesiogiai išvengta dėl pažeidimo;
(f)
the degree of cooperation with the national competent authorities, in order to remedy the infringement and mitigate the possible adverse effects of the infringement;
f)
bendradarbiavimo su nacionaline kompetentinga institucija lygį siekiant atitaisyti pažeidimą ir sumažinti galimą neigiamą jo poveikį;
(g)
the degree of responsibility of the operator taking into account the technical and organisational measures implemented by it;
g)
veiklos vykdytojo atsakomybės laipsnį, atsižvelgiant į jo įgyvendintas technines ir organizacines priemones;
(h)
the manner in which the infringement became known to the national competent authorities, in particular whether, and if so to what extent, the operator notified the infringement;
h)
tai, kokiu būdu nacionalinė kompetentinga institucija sužinojo apie pažeidimą, visų pirma tai, ar veiklos vykdytojas pranešė apie pažeidimą, jei taip – kokia apimtimi;
(i)
the intentional or negligent character of the infringement;
i)
tai, ar pažeidimas padarytas tyčia ar dėl aplaidumo;
(j)
any action taken by the operator to mitigate the harm suffered by the affected persons.
j)
visus veiklos vykdytojo atliktus veiksmus siekiant sumažinti asmenų, kuriems padarytas poveikis, patirtą žalą.
8. Each Member State shall lay down rules on to what extent administrative fines may be imposed on public authorities and bodies established in that Member State.
8. Kiekviena valstybė narė nustato taisykles, reglamentuojančias, kokiu mastu administracinės baudos gali būti skiriamos toje valstybėje narėje įsisteigusioms valdžios institucijomis ir įstaigoms.
9. Depending on the legal system of the Member States, the rules on administrative fines may be applied in such a manner that the fines are imposed by competent national courts or by other bodies, as applicable in those Member States. The application of such rules in those Member States shall have an equivalent effect.
9. Priklausomai nuo valstybių narių teisinės sistemos, administracines baudas reglamentuojančios taisyklės gali būti taikomos taip, kad tose valstybėse narėse baudas atitinkamai skirtų kompetentingi nacionaliniai teismai ar kitos įstaigos. Tokių taisyklių taikymo poveikis tose valstybėse narėse turi būti lygiavertis.
10. The exercise of powers under this Article shall be subject to appropriate procedural safeguards in accordance with Union and national law, including effective judicial remedies and due process.
10. Naudojimuisi įgaliojimais pagal šį straipsnį taikomos atitinkamos procedūrinės garantijos laikantis Sąjungos ir nacionalinės teisės, įskaitant veiksmingas teismines teisių gynimo priemones ir tinkamą procesą.
11. Member States shall, on an annual basis, report to the Commission about the administrative fines they have issued during that year, in accordance with this Article, and about any related litigation or judicial proceedings.
11. Valstybės narės kasmet praneša Komisijai apie administracines baudas, kurias jos skyrė tais metais pagal šį straipsnį, ir apie visus susijusius ginčų nagrinėjimo ar teismo procesus.
Article 100
100 straipsnis
Administrative fines on Union institutions, bodies, offices and agencies
Administracinės baudos Sąjungos institucijoms, įstaigoms, organams ir agentūroms
1. The European Data Protection Supervisor may impose administrative fines on Union institutions, bodies, offices and agencies falling within the scope of this Regulation. When deciding whether to impose an administrative fine and when deciding on the amount of the administrative fine in each individual case, all relevant circumstances of the specific situation shall be taken into account and due regard shall be given to the following:
1. Europos duomenų apsaugos priežiūros pareigūnas gali skirti administracines baudas Sąjungos institucijoms, įstaigoms, organams ir agentūroms, kurie patenka į šio reglamento taikymo sritį. Sprendžiant, ar skirti administracinę baudą ir koks turėtų būti jos dydis kiekvienu konkrečiu atveju, deramai atsižvelgiama į visas reikšmingas konkrečios situacijos aplinkybes ir į šiuos dalykus:
(a)
the nature, gravity and duration of the infringement and of its consequences, taking into account the purpose of the AI system concerned, as well as, where appropriate, the number of affected persons and the level of damage suffered by them;
a)
pažeidimo pobūdį, sunkumą, trukmę ir jo pasekmes, atsižvelgiant į atitinkamos DI sistemos paskirtį, taip pat, kai tinkama, į asmenų, kuriems padarytas poveikis, skaičių ir jų patirtos žalos dydį;
(b)
the degree of responsibility of the Union institution, body, office or agency, taking into account technical and organisational measures implemented by them;
b)
Sąjungos institucijos, įstaigos, organo ar agentūros atsakomybės laipsnį, atsižvelgiant į jų įgyvendintas technines ir organizacines priemones;
(c)
any action taken by the Union institution, body, office or agency to mitigate the damage suffered by affected persons;
c)
bet kokius veiksmus, kurių ėmėsi Sąjungos institucija, įstaiga, organas ar agentūra, kad sumažintų asmenų, kuriems padarytas poveikis, patirtą žalą;
(d)
the degree of cooperation with the European Data Protection Supervisor in order to remedy the infringement and mitigate the possible adverse effects of the infringement, including compliance with any of the measures previously ordered by the European Data Protection Supervisor against the Union institution, body, office or agency concerned with regard to the same subject matter;
d)
bendradarbiavimo su Europos duomenų apsaugos priežiūros pareigūnu lygį siekiant ištaisyti pažeidimą ir sumažinti galimą neigiamą pažeidimo poveikį, įskaitant visų priemonių, kurias Europos duomenų apsaugos priežiūros pareigūnas anksčiau nurodė taikyti atitinkamai Sąjungos institucijai, įstaigai, organui ar agentūrai dėl to paties dalyko, taikymą;
(e)
any similar previous infringements by the Union institution, body, office or agency;
e)
bet kokius anksčiau Sąjungos institucijos, įstaigos, organo ar agentūros padarytus panašius pažeidimus;
(f)
the manner in which the infringement became known to the European Data Protection Supervisor, in particular whether, and if so to what extent, the Union institution, body, office or agency notified the infringement;
f)
tai, kokiu būdu Europos duomenų apsaugos priežiūros pareigūnas sužinojo apie pažeidimą, visų pirma, ar Sąjungos institucija, įstaiga, organas ar agentūra pranešė apie pažeidimą, jei taip – kokia apimtimi;
(g)
the annual budget of the Union institution, body, office or agency.
g)
Sąjungos institucijos, įstaigos, organo ar agentūros metinį biudžetą.
2. Non-compliance with the prohibition of the AI practices referred to in Article 5 shall be subject to administrative fines of up to EUR 1 500 000.
2. Už 5 straipsnyje nurodyto su DI susijusios praktikos draudimo nesilaikymą skiriamos iki 1 500 000 EUR dydžio administracinės baudos.
3. The non-compliance of the AI system with any requirements or obligations under this Regulation, other than those laid down in Article 5, shall be subject to administrative fines of up to EUR 750 000.
3. Už DI sistemos neatitiktį bet kuriems pagal šį reglamentą nustatytiems reikalavimams ar pareigoms, išskyrus nustatytus 5 straipsnyje, skiriamos iki 750 000 EUR dydžio administracinės baudos.
4. Before taking decisions pursuant to this Article, the European Data Protection Supervisor shall give the Union institution, body, office or agency which is the subject of the proceedings conducted by the European Data Protection Supervisor the opportunity of being heard on the matter regarding the possible infringement. The European Data Protection Supervisor shall base his or her decisions only on elements and circumstances on which the parties concerned have been able to comment. Complainants, if any, shall be associated closely with the proceedings.
4. Prieš priimdamas sprendimus pagal šį straipsnį, Europos duomenų apsaugos priežiūros pareigūnas suteikia Sąjungos institucijai, įstaigai, organui ar agentūrai, dėl kurių jis pradėjo procesą, galimybę būti išklausytiems su galimu pažeidimu susijusiais klausimais. Europos duomenų apsaugos priežiūros pareigūnas savo sprendimus grindžia tik tais elementais ir aplinkybėmis, dėl kurių atitinkamos šalys galėjo pateikti pastabų. Skundo pateikėjai, jei jų yra, turi būti įtraukti į procesą.
5. The rights of defence of the parties concerned shall be fully respected in the proceedings. They shall be entitled to have access to the European Data Protection Supervisor’s file, subject to the legitimate interest of individuals or undertakings in the protection of their personal data or business secrets.
5. Proceso metu turi būti visapusiškai gerbiama šalių teisė į gynybą. Joms turi būti suteikta teisė susipažinti su Europos duomenų apsaugos priežiūros pareigūno byla, atsižvelgiant į fizinių asmenų ar įmonių teisėtą interesą, kad būtų apsaugoti jų asmens duomenys ar verslo paslaptys.
6. Funds collected by imposition of fines in this Article shall contribute to the general budget of the Union. The fines shall not affect the effective operation of the Union institution, body, office or agency fined.
6. Lėšos, surinktos skyrus šiame straipsnyje numatytas baudas, įskaitomos į Sąjungos bendrąjį biudžetą. Baudos nedaro poveikio veiksmingai Sąjungos institucijos, įstaigos, organo ar agentūros, kuriems skirta bauda, veiklai.
7. The European Data Protection Supervisor shall, on an annual basis, notify the Commission of the administrative fines it has imposed pursuant to this Article and of any litigation or judicial proceedings it has initiated.
7. Europos duomenų apsaugos priežiūros pareigūnas kasmet praneša Komisijai apie administracines baudas, kurias jis skyrė pagal šį straipsnį, ir apie visus savo inicijuotus ginčų nagrinėjimo ar teismo procesus.
Article 101
101 straipsnis
Fines for providers of general-purpose AI models
Baudos bendrosios paskirties DI modelių tiekėjams
1. The Commission may impose on providers of general-purpose AI models fines not exceeding 3 % of their annual total worldwide turnover in the preceding financial year or EUR 15 000 000, whichever is higher., when the Commission finds that the provider intentionally or negligently:
1. Komisija bendrosios paskirties DI modelių tiekėjams gali skirti baudas, neviršijančias 3 % jų bendros pasaulinės praėjusių finansinių metų metinės apyvartos arba 15 000 000 EUR sumos, atsižvelgiant į tai, kuri yra didesnė, jei Komisija nustato, kad tiekėjas tyčia ar dėl aplaidumo:
(a)
infringed the relevant provisions of this Regulation;
a)
pažeidė atitinkamas šio reglamento nuostatas;
(b)
failed to comply with a request for a document or for information pursuant to Article 91, or supplied incorrect, incomplete or misleading information;
b)
nepatenkino prašymo pateikti dokumentą arba pateikti informaciją pagal 91 straipsnį arba pateikė neteisingą, neišsamią ar klaidinančią informaciją;
(c)
failed to comply with a measure requested under Article 93;
c)
nesilaikė pagal 93 straipsnį prašomos priemonės;
(d)
failed to make available to the Commission access to the general-purpose AI model or general-purpose AI model with systemic risk with a view to conducting an evaluation pursuant to Article 92.
d)
nesuteikė Komisijai prieigos prie bendrosios paskirties DI modelio arba sisteminės rizikos bendrosios paskirties DI modelio, kad būtų galima atlikti vertinimą pagal 92 straipsnį.
In fixing the amount of the fine or periodic penalty payment, regard shall be had to the nature, gravity and duration of the infringement, taking due account of the principles of proportionality and appropriateness. The Commission shall also into account commitments made in accordance with Article 93(3) or made in relevant codes of practice in accordance with Article 56.
Nustatant baudos arba periodinės baudos dydį atsižvelgiama į pažeidimo pobūdį, sunkumą ir trukmę, deramai atsižvelgiant į proporcingumo ir tinkamumo principus. Komisija taip pat atsižvelgia į įsipareigojimus, prisiimtus pagal 93 straipsnio 3 dalį arba prisiimtus atitinkamuose praktikos kodeksuose pagal 56 straipsnį.
2. Before adopting the decision pursuant to paragraph 1, the Commission shall communicate its preliminary findings to the provider of the general-purpose AI model and give it an opportunity to be heard.
2. Prieš priimdama sprendimą pagal 1 dalį, Komisija pateikia preliminarias išvadas bendrosios paskirties DI modelio tiekėjui ir suteikia jam galimybę būti išklausytam.
3. Fines imposed in accordance with this Article shall be effective, proportionate and dissuasive.
3. Pagal šį straipsnį skiriamos baudos turi būti veiksmingos, proporcingos ir atgrasomos.
4. Information on fines imposed under this Article shall also be communicated to the Board as appropriate.
4. Informacija apie pagal šį straipsnį skirtas baudas atitinkamai perduodama ir Valdybai.
5. The Court of Justice of the European Union shall have unlimited jurisdiction to review decisions of the Commission fixing a fine under this Article. It may cancel, reduce or increase the fine imposed.
5. Europos Sąjungos Teisingumo Teismas turi neribotą jurisdikciją peržiūrėti Komisijos sprendimus, kuriais pagal šį straipsnį nustatoma bauda. Jis gali panaikinti, sumažinti arba padidinti skirtą baudą.
6. The Commission shall adopt implementing acts containing detailed arrangements and procedural safeguards for proceedings in view of the possible adoption of decisions pursuant to paragraph 1 of this Article. Those implementing acts shall be adopted in accordance with the examination procedure referred to in Article 98(2).
6. Komisija priima įgyvendinimo aktus, kuriuose nustatoma išsami procedūrų tvarka ir procesinės garantijos, kad būtų galima priimti sprendimus pagal šio straipsnio 1 dalį. Tie įgyvendinimo aktai priimami laikantis 98 straipsnio 2 dalyje nurodytos nagrinėjimo procedūros.
CHAPTER XIII
XIII SKYRIUS
FINAL PROVISIONS
BAIGIAMOSIOS NUOSTATOS
Article 102
102 straipsnis
Amendment to Regulation (EC) No 300/2008
Reglamento (EB) Nr. 300/2008 pakeitimas
In Article 4(3) of Regulation (EC) No 300/2008, the following subparagraph is added:
Reglamento (EB) Nr. 300/2008 4 straipsnio 3 dalis papildoma šia pastraipa:
‘When adopting detailed measures related to technical specifications and procedures for approval and use of security equipment concerning Artificial Intelligence systems within the meaning of Regulation (EU) 2024/1689 of the European Parliament and of the Council (*1), the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.
„Priimant išsamias priemones, susijusias su saugumo įrangos patvirtinimo ir naudojimo techninėmis specifikacijomis ir procedūromis, kiek tai susiję su dirbtinio intelekto sistemomis, kaip tai suprantama Europos Parlamento ir Tarybos reglamente (ES) 2024/1689 (*1), atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.
Article 103
103 straipsnis
Amendment to Regulation (EU) No 167/2013
Reglamento (ES) Nr. 167/2013 pakeitimas
In Article 17(5) of Regulation (EU) No 167/2013, the following subparagraph is added:
Reglamento (ES) Nr. 167/2013 17 straipsnio 5 dalis papildoma šia pastraipa:
‘When adopting delegated acts pursuant to the first subparagraph concerning artificial intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689 of the European Parliament and of the Council (*2), the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.
„Priimant deleguotuosius aktus pagal pirmą pastraipą dėl dirbtinio intelekto sistemų, kurios yra saugos komponentai, kaip tai suprantama Europos Parlamento ir Tarybos reglamente (ES) 2024/1689 (*2), atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.
Article 104
104 straipsnis
Amendment to Regulation (EU) No 168/2013
Reglamento (ES) Nr. 168/2013 pakeitimas
In Article 22(5) of Regulation (EU) No 168/2013, the following subparagraph is added:
Reglamento (ES) Nr. 168/2013 22 straipsnio 5 dalis papildoma šia pastraipa:
‘When adopting delegated acts pursuant to the first subparagraph concerning Artificial Intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689 of the European Parliament and of the Council (*3), the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.
„Priimant deleguotuosius aktus pagal pirmą pastraipą dėl dirbtinio intelekto sistemų, kurios yra saugos komponentai, kaip tai suprantama Europos Parlamento ir Tarybos reglamente (ES) 2024/1689 (*3), atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.
Article 105
105 straipsnis
Amendment to Directive 2014/90/EU
Direktyvos 2014/90/ES pakeitimas
In Article 8 of Directive 2014/90/EU, the following paragraph is added:
Direktyvos 2014/90/ES 8 straipsnis papildomas šia dalimi:
‘5. For Artificial Intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689 of the European Parliament and of the Council (*4), when carrying out its activities pursuant to paragraph 1 and when adopting technical specifications and testing standards in accordance with paragraphs 2 and 3, the Commission shall take into account the requirements set out in Chapter III, Section 2, of that Regulation.
„5. Kiek tai susiję su dirbtinio intelekto sistemomis, kurios yra saugos komponentai, kaip tai suprantama Europos Parlamento ir Tarybos reglamente (ES) 2024/1689 (*4), vykdydama veiklą pagal 1 dalį ir priimdama technines specifikacijas ir bandymo standartus pagal 2 ir 3 dalis Komisija atsižvelgia į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.
Article 106
106 straipsnis
Amendment to Directive (EU) 2016/797
Direktyvos (ES) 2016/797 pakeitimas
In Article 5 of Directive (EU) 2016/797, the following paragraph is added:
Direktyvos (ES) 2016/797 5 straipsnis papildomas šia dalimi:
‘12. When adopting delegated acts pursuant to paragraph 1 and implementing acts pursuant to paragraph 11 concerning Artificial Intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689 of the European Parliament and of the Council (*5), the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.
„12. Priimant deleguotuosius aktus pagal 1 dalį ir įgyvendinimo aktus pagal 11 dalį dėl dirbtinio intelekto sistemų, kurios yra saugos komponentai, kaip tai suprantama Europos Parlamento ir Tarybos reglamente (ES) 2024/1689 (*5), atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.
Article 107
107 straipsnis
Amendment to Regulation (EU) 2018/858
Reglamento (ES) 2018/858 pakeitimas
In Article 5 of Regulation (EU) 2018/858 the following paragraph is added:
Reglamento (ES) 2018/858 5 straipsnis papildomas šia dalimi:
‘4. When adopting delegated acts pursuant to paragraph 3 concerning Artificial Intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689 of the European Parliament and of the Council (*6), the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.
„4. Priimant deleguotuosius aktus pagal 3 dalį dėl dirbtinio intelekto sistemų, kurios yra saugos komponentai, kaip tai suprantama Europos Parlamento ir Tarybos reglamente (ES) 2024/1689 (*6), atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.
Article 108
108 straipsnis
Amendments to Regulation (EU) 2018/1139
Reglamento (ES) 2018/1139 pakeitimai
Regulation (EU) 2018/1139 is amended as follows:
Reglamentas (ES) 2018/1139 iš dalies keičiamas taip:
(1)
in Article 17, the following paragraph is added:
1)
17 straipsnis papildomas šia dalimi:
‘3. Without prejudice to paragraph 2, when adopting implementing acts pursuant to paragraph 1 concerning Artificial Intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689 of the European Parliament and of the Council (*7), the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.
„3. Nedarant poveikio 2 daliai, priimant įgyvendinimo aktus pagal 1 dalį dėl dirbtinio intelekto sistemų, kurios yra saugos komponentai, kaip tai suprantama Europos Parlamento ir Tarybos reglamente (ES) 2024/1689 (*7), atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.
(*7) Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (OJ L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).’;"
(*7) 2024 m. birželio 13 d. Europos Parlamento ir Tarybos reglamentas (ES) 2024/1689, kuriuo nustatomos suderintos dirbtinio intelekto taisyklės ir iš dalies keičiami reglamentai (EB) Nr. 300/2008, (ES) Nr. 167/2013, (ES) Nr. 168/2013, (ES) 2018/858, (ES) 2018/1139 ir (ES) 2019/2144 ir direktyvos 2014/90/ES, (ES) 2016/797 ir (ES) 2020/1828) (Dirbtinio intelekto aktas) (OL L, 2024/1689, 2024 7 12, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).“;"
(2)
in Article 19, the following paragraph is added:
2)
19 straipsnis papildomas šia dalimi:
‘4. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial Intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689, the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.’
„4. Priimant deleguotuosius aktus pagal 1 ir 2 dalis dėl dirbtinio intelekto sistemų, kurios yra saugos komponentai, kaip tai suprantama Reglamente (ES) 2024/1689, atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.“
;
;
(3)
in Article 43, the following paragraph is added:
3)
43 straipsnis papildomas šia dalimi:
‘4. When adopting implementing acts pursuant to paragraph 1 concerning Artificial Intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689, the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.’
„4. Priimant įgyvendinimo aktus pagal 1 dalį dėl dirbtinio intelekto sistemų, kurios yra saugos komponentai, kaip tai suprantama Reglamente (ES) 2024/1689, atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.“
;
;
(4)
in Article 47, the following paragraph is added:
4)
47 straipsnis papildomas šia dalimi:
‘3. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial Intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689, the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.’
„3. Priimant deleguotuosius aktus pagal 1 ir 2 dalis dėl dirbtinio intelekto sistemų, kurios yra saugos komponentai, kaip tai suprantama Reglamente (ES) 2024/1689, atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.“
;
;
(5)
in Article 57, the following subparagraph is added:
5)
57 straipsnis papildomas šia pastraipa:
‘When adopting those implementing acts concerning Artificial Intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689, the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.’
„Priimant tuos įgyvendinimo aktus dėl dirbtinio intelekto sistemų, kurios yra saugos komponentai, kaip tai suprantama Reglamente (ES) 2024/1689, atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.“
;
;
(6)
in Article 58, the following paragraph is added:
6)
58 straipsnis papildomas šia dalimi:
‘3. When adopting delegated acts pursuant to paragraphs 1 and 2 concerning Artificial Intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689, the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.’.
„3. Priimant deleguotuosius aktus pagal 1 ir 2 dalis dėl dirbtinio intelekto sistemų, kurios yra saugos komponentai, kaip tai suprantama Reglamente (ES) 2024/1689, atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.“
Article 109
109 straipsnis
Amendment to Regulation (EU) 2019/2144
Reglamento (ES) 2019/2144 pakeitimas
In Article 11 of Regulation (EU) 2019/2144, the following paragraph is added:
Reglamento (ES) 2019/2144 11 straipsnis papildomas šia dalimi:
‘3. When adopting the implementing acts pursuant to paragraph 2, concerning artificial intelligence systems which are safety components within the meaning of Regulation (EU) 2024/1689 of the European Parliament and of the Council (*8), the requirements set out in Chapter III, Section 2, of that Regulation shall be taken into account.
„3. Priimant įgyvendinimo aktus pagal 2 dalį dėl dirbtinio intelekto sistemų, kurios yra saugos komponentai, kaip tai suprantama Europos Parlamento ir Tarybos reglamente (ES) 2024/1689 (*8), atsižvelgiama į to reglamento III skyriaus 2 skirsnyje nustatytus reikalavimus.
Article 110
110 straipsnis
Amendment to Directive (EU) 2020/1828
Direktyvos (ES) 2020/1828 pakeitimas
In Annex I to Directive (EU) 2020/1828 of the European Parliament and of the Council (58), the following point is added:
Europos Parlamento ir Tarybos direktyvos (ES) 2020/1828 (58) I priedas papildomas šiuo punktu:
‘(68)
Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (OJ L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).’.
„68.
2024 m. birželio 13 d. Europos Parlamento ir Tarybos reglamentas (ES) 2024/1689, kuriuo nustatomos suderintos dirbtinio intelekto taisyklės ir iš dalies keičiami reglamentai (EB) Nr. 300/2008, (ES) Nr. 167/2013, (ES) Nr. 168/2013, (ES) 2018/858, (ES) 2018/1139 ir (ES) 2019/2144 ir direktyvos 2014/90/ES, (ES) 2016/797 ir (ES) 2020/1828) (Dirbtinio intelekto aktas) (OL L, 2024/1689, 2024 7 12, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).“
Article 111
111 straipsnis
AI systems already placed on the market or put into service and general-purpose AI models already placed on the marked
Rinkai jau pateiktos ar pradėtos naudoti DI sistemos ir rinkai jau pateikti bendrosios paskirties DI modeliai
1. Without prejudice to the application of Article 5 as referred to in Article 113(3), point (a), AI systems which are components of the large-scale IT systems established by the legal acts listed in Annex X that have been placed on the market or put into service before 2 August 2027 shall be brought into compliance with this Regulation by 31 December 2030.
1. Nedarant poveikio 5 straipsnio taikymui, kaip nurodyta 113 straipsnio 3 dalies a punkte, DI sistemos, kurios yra didelės apimties IT sistemų, sukurtų X priede nurodytais teisės aktais ir pateiktų rinkai arba pradėtų naudoti anksčiau nei 2027 m. rugpjūčio 2 d., komponentai, ne vėliau kaip 2030 m. gruodžio 31 d. turi atitikti šį reglamentą.
The requirements laid down in this Regulation shall be taken into account in the evaluation of each large-scale IT system established by the legal acts listed in Annex X to be undertaken as provided for in those legal acts and where those legal acts are replaced or amended.
Atliekant kiekvienos X priede nurodytais teisės aktais sukurtos didelės apimties IT sistemos vertinimą, kaip numatyta tuose teisės aktuose ir kai tie teisės aktai pakeičiami arba iš dalies keičiami, atsižvelgiama į šiame reglamente nustatytus reikalavimus.
2. Without prejudice to the application of Article 5 as referred to in Article 113(3), point (a), this Regulation shall apply to operators of high-risk AI systems, other than the systems referred to in paragraph 1 of this Article, that have been placed on the market or put into service before 2 August 2026, only if, as from that date, those systems are subject to significant changes in their designs. In any case, the providers and deployers of high-risk AI systems intended to be used by public authorities shall take the necessary steps to comply with the requirements and obligations of this Regulation by 2 August 2030.
2. Nedarant poveikio 5 straipsnio taikymui, kaip nurodyta 113 straipsnio 3 dalies a punkte, didelės rizikos DI sistemų, kurios nėra šio straipsnio 1 dalyje nurodytos sistemos ir kurios buvo pateiktos rinkai arba pradėtos naudoti anksčiau nei 2026 m. rugpjūčio 2 d., operatoriams šis reglamentas taikomas tik tuo atveju, jei nuo tos dienos tų sistemų konstrukcijos reikšmingai pasikeitė. Bet kuriuo atveju didelės rizikos DI sistemų, kurias ketina naudoti valdžios institucijos, tiekėjai ir diegėjai imasi būtinų veiksmų, kad laikytųsi šio reglamento reikalavimų ir pareigų, ne vėliau kaip 2030 m. rugpjūčio 2 d.
3. Providers of general-purpose AI models that have been placed on the market before 2 August 2025 shall take the necessary steps in order to comply with the obligations laid down in this Regulation by 2 August 2027.
3. Bendrosios paskirties DI modelių, kurie buvo pateikti rinkai anksčiau nei 2025 m. rugpjūčio 2 d., tiekėjai imasi būtinų veiksmų, kad įvykdytų šiame reglamente nustatytas pareigas ne vėliau kaip 2027 m. rugpjūčio 2 d.
Article 112
112 straipsnis
Evaluation and review
Vertinimas ir peržiūra
1. The Commission shall assess the need for amendment of the list set out in Annex III and of the list of prohibited AI practices laid down in Article 5, once a year following the entry into force of this Regulation, and until the end of the period of the delegation of power laid down in Article 97. The Commission shall submit the findings of that assessment to the European Parliament and the Council.
1. Komisija kartą per metus po šio reglamento įsigaliojimo ir iki 97 straipsnyje nustatyto įgaliojimų delegavimo laikotarpio pabaigos įvertina poreikį iš dalies pakeisti III priede pateiktą sąrašą ir 5 straipsnyje nustatytą draudžiamos DI praktikos sąrašą. To vertinimo rezultatus Komisija pateikia Europos Parlamentui ir Tarybai.
2. By 2 August 2028 and every four years thereafter, the Commission shall evaluate and report to the European Parliament and to the Council on the following:
2. Ne vėliau kaip 2028 m. rugpjūčio 2 d., o vėliau – kas ketverius metus Komisija atlieka vertinimą ir Europos Parlamentui ir Tarybai pateikia ataskaitą dėl:
(a)
the need for amendments extending existing area headings or adding new area headings in Annex III;
a)
pakeitimų siekiant išplėsti esamas sričių antraštes arba į III priedą įtraukti naujas sričių antraštes poreikio;
(b)
amendments to the list of AI systems requiring additional transparency measures in Article 50;
b)
50 straipsnyje pateikto DI sistemų, dėl kurių reikia papildomų skaidrumo priemonių, sąrašo pakeitimų;
(c)
amendments enhancing the effectiveness of the supervision and governance system.
c)
pakeitimų, kuriais didinamas priežiūros ir valdymo sistemos veiksmingumas.
3. By 2 August 2029 and every four years thereafter, the Commission shall submit a report on the evaluation and review of this Regulation to the European Parliament and to the Council. The report shall include an assessment with regard to the structure of enforcement and the possible need for a Union agency to resolve any identified shortcomings. On the basis of the findings, that report shall, where appropriate, be accompanied by a proposal for amendment of this Regulation. The reports shall be made public.
3. Ne vėliau kaip 2029 m. rugpjūčio 2 d., o vėliau – kas ketverius metus Komisija teikia Europos Parlamentui ir Tarybai šio reglamento vertinimo ir peržiūros ataskaitą. Ataskaitoje pateikiamas vykdymo užtikrinimo struktūros ir galimo poreikio Sąjungos agentūrai pašalinti nustatytus trūkumus vertinimas. Remiantis išvadomis, su ta ataskaita, kai tikslinga, pateikiamas pasiūlymas dėl šio reglamento dalinio pakeitimo. Ataskaitos skelbiamos viešai.
4. The reports referred to in paragraph 2 shall pay specific attention to the following:
4. 2 dalyje nurodytose ataskaitose ypatingas dėmesys skiriamas šiems dalykams:
(a)
the status of the financial, technical and human resources of the national competent authorities in order to effectively perform the tasks assigned to them under this Regulation;
a)
nacionalinių kompetentingų institucijų finansinių, techninių ir žmogiškųjų išteklių būklei, kad jos galėtų veiksmingai vykdyti joms pagal šį reglamentą pavestas užduotis;
(b)
the state of penalties, in particular administrative fines as referred to in Article 99(1), applied by Member States for infringements of this Regulation;
b)
sankcijų, visų pirma 99 straipsnio 1 dalyje nurodytų administracinių baudų, kurias valstybės narės taiko už šio reglamento pažeidimus, padėčiai;
(c)
adopted harmonised standards and common specifications developed to support this Regulation;
c)
priimtiems šiam reglamentui įgyvendinti parengtiems darniesiems standartams ir bendrosioms specifikacijoms;
(d)
the number of undertakings that enter the market after the entry into application of this Regulation, and how many of them are SMEs.
d)
įmonių, kurios patenka į rinką po šio reglamento taikymo pradžios datos, skaičiui ir tam, kiek iš jų yra MVĮ.
5. By 2 August 2028, the Commission shall evaluate the functioning of the AI Office, whether the AI Office has been given sufficient powers and competences to fulfil its tasks, and whether it would be relevant and needed for the proper implementation and enforcement of this Regulation to upgrade the AI Office and its enforcement competences and to increase its resources. The Commission shall submit a report on its evaluation to the European Parliament and to the Council.
5. Ne vėliau kaip 2028 m. rugpjūčio 2 d. Komisija įvertina DI tarnybos veikimą, ar jai suteikti pakankami įgaliojimai ir kompetencija, kad ji galėtų vykdyti savo užduotis, ir ar siekiant tinkamai įgyvendinti šį reglamentą ir užtikrinti jo vykdymą būtų tikslinga ir reikalinga plėsti DI tarnybą ir jos vykdymo užtikrinimo kompetenciją ir padidinti jos išteklius. Komisija vertinimo ataskaitą teikia Europos Parlamentui ir Tarybai.
6. By 2 August 2028 and every four years thereafter, the Commission shall submit a report on the review of the progress on the development of standardisation deliverables on the energy-efficient development of general-purpose AI models, and asses the need for further measures or actions, including binding measures or actions. The report shall be submitted to the European Parliament and to the Council, and it shall be made public.
6. Ne vėliau kaip 2028 m. rugpjūčio 2 d. ir vėliau kas ketverius metus Komisija pateikia ataskaitą dėl pažangos, padarytos rengiant standartizacijos leidinius, susijusius su efektyviu energijos vartojimu grindžiamu bendrosios paskirties AI modelių kūrimu, peržiūros ir įvertina, ar reikia papildomų priemonių ar veiksmų, įskaitant privalomas priemones ar veiksmus. Ataskaita pateikiama Europos Parlamentui ir Tarybai ir skelbiama viešai.
7. By 2 August 2028 and every three years thereafter, the Commission shall evaluate the impact and effectiveness of voluntary codes of conduct to foster the application of the requirements set out in Chapter III, Section 2 for AI systems other than high-risk AI systems and possibly other additional requirements for AI systems other than high-risk AI systems, including as regards environmental sustainability.
7. Ne vėliau kaip 2028 m. rugpjūčio 2 d., o vėliau – kas trejus metus Komisija įvertina savanoriškų elgesio kodeksų poveikį ir veiksmingumą skatinant III skyriaus 2 skirsnyje nustatytų reikalavimų taikymą DI sistemoms, išskyrus didelės rizikos DI sistemas, ir galbūt kitų papildomų reikalavimų taikymą DI sistemoms, išskyrus didelės rizikos DI sistemas, be kita ko, kiek tai susiję su aplinkosauginiu tvarumu.
8. For the purposes of paragraphs 1 to 7, the Board, the Member States and national competent authorities shall provide the Commission with information upon its request and without undue delay.
8. 1–7 dalių tikslais Valdyba, valstybės narės ir nacionalinės kompetentingos institucijos teikia Komisijai informaciją jos prašymu ir nepagrįstai nedelsdamos.
9. In carrying out the evaluations and reviews referred to in paragraphs 1 to 7, the Commission shall take into account the positions and findings of the Board, of the European Parliament, of the Council, and of other relevant bodies or sources.
9. Atlikdama 1–7 dalyse nurodytus vertinimus ir peržiūras, Komisija atsižvelgia į Valdybos, Europos Parlamento, Tarybos, taip pat kitų susijusių įstaigų ar šaltinių nuomones ir išvadas.
10. The Commission shall, if necessary, submit appropriate proposals to amend this Regulation, in particular taking into account developments in technology, the effect of AI systems on health and safety, and on fundamental rights, and in light of the state of progress in the information society.
10. Prireikus Komisija pateikia tinkamus pasiūlymus iš dalies pakeisti šį reglamentą, visų pirma atsižvelgdama į technologinius pokyčius, DI sistemų poveikį sveikatai, saugai ir pagrindinėms teisėms ir į informacinės visuomenės pažangą.
11. To guide the evaluations and reviews referred to in paragraphs 1 to 7 of this Article, the AI Office shall undertake to develop an objective and participative methodology for the evaluation of risk levels based on the criteria outlined in the relevant Articles and the inclusion of new systems in:
11. Kad būtų galima vadovautis gairėmis atliekant šio straipsnio 1–7 dalyse nurodytus vertinimus ir peržiūras, DI tarnyba įsipareigoja parengti objektyvią ir dalyvaujamąją rizikos lygių vertinimo metodiką, grindžiamą atitinkamuose straipsniuose išdėstytais kriterijais ir naujų sistemų įtraukimu į:
(a)
the list set out in Annex III, including the extension of existing area headings or the addition of new area headings in that Annex;
a)
III priede nustatytą sąrašą, įskaitant esamų sričių antraščių išplėtimą arba naujų sričių antraščių įtraukimą į tą priedą,
(b)
the list of prohibited practices set out in Article 5; and
b)
5 straipsnyje nustatytą draudžiamos praktikos sąrašą ir
(c)
the list of AI systems requiring additional transparency measures pursuant to Article 50.
c)
DI sistemų, dėl kurių reikia papildomų skaidrumo priemonių, sąrašą pagal 50 straipsnį.
12. Any amendment to this Regulation pursuant to paragraph 10, or relevant delegated or implementing acts, which concerns sectoral Union harmonisation legislation listed in Section B of Annex I shall take into account the regulatory specificities of each sector, and the existing governance, conformity assessment and enforcement mechanisms and authorities established therein.
12. Bet kokiu šio reglamento pakeitimu pagal 10 dalį arba atitinkamais deleguotaisiais ar įgyvendinimo aktais, susijusiais su I priedo B skirsnyje išvardytais sektorių Sąjungos derinamaisiais teisės aktais, atsižvelgiama į kiekvieno sektoriaus reglamentavimo ypatumus ir esamus valdymo, atitikties vertinimo ir vykdymo užtikrinimo mechanizmus ir tose srityse įsteigtas institucijas.
13. By 2 August 2031, the Commission shall carry out an assessment of the enforcement of this Regulation and shall report on it to the European Parliament, the Council and the European Economic and Social Committee, taking into account the first years of application of this Regulation. On the basis of the findings, that report shall, where appropriate, be accompanied by a proposal for amendment of this Regulation with regard to the structure of enforcement and the need for a Union agency to resolve any identified shortcomings.
13. Ne vėliau kaip 2031 m. rugpjūčio 2 d. Komisija atlieka šio reglamento vykdymo užtikrinimo vertinimą ir pateikia Europos Parlamentui, Tarybai ir Europos ekonomikos ir socialinių reikalų komitetui ataskaitą šiuo klausimu, atsižvelgdama į pirmuosius šio reglamento taikymo metus. Remiantis išvadomis, kai tikslinga, prie tos ataskaitos pridedamas pasiūlymas iš dalies pakeisti šį reglamentą, kiek tai susiję su vykdymo užtikrinimo struktūra ir poreikiu, kad Sąjungos agentūra pašalintų nustatytus trūkumus.
Article 113
113 straipsnis
Entry into force and application
Įsigaliojimas ir taikymas
This Regulation shall enter into force on the twentieth day following that of its publication in the Official Journal of the European Union.
Šis reglamentas įsigalioja dvidešimtą dieną po jo paskelbimo Europos Sąjungos oficialiajame leidinyje.
It shall apply from 2 August 2026.
Jis taikomas nuo 2026 m. rugpjūčio 2 d.
However:
Tačiau:
(a)
Chapters I and II shall apply from 2 February 2025;
a)
I ir II skyriai taikomi nuo 2025 m. vasario 2 d.;
(b)
Chapter III Section 4, Chapter V, Chapter VII and Chapter XII and Article 78 shall apply from 2 August 2025, with the exception of Article 101;
b)
III skyriaus 4 skirsnis, V skyrius, VII skyrius ir XII skyrius bei 78 straipsnis taikomi nuo 2025 m. rugpjūčio 2 d., išskyrus 101 straipsnį;
(c)
Article 6(1) and the corresponding obligations in this Regulation shall apply from 2 August 2027.
c)
6 straipsnio 1 dalis ir atitinkamos šiame reglamente nustatytos pareigos taikomos nuo 2027 m. rugpjūčio 2 d.
This Regulation shall be binding in its entirety and directly applicable in all Member States.
Šis reglamentas privalomas visas ir tiesiogiai taikomas visose valstybėse narėse.
Done at Brussels, 13 June 2024.
Priimta Briuselyje 2024 m. birželio 13 d.
For the European Parliament
Europos Parlamento vardu
The President
Pirmininkė
R. METSOLA
R. METSOLA
For the Council
Tarybos vardu
The President
Pirmininkas
M. MICHEL
M. MICHEL
(1) OJ C 517, 22.12.2021, p. 56.
(1) OL C 517, 2021 12 22, p. 56.
(2) OJ C 115, 11.3.2022, p. 5.
(2) OL C 115, 2022 3 11, p. 5.
(3) OJ C 97, 28.2.2022, p. 60.
(3) OL C 97, 2022 2 28, p. 60.
(4) Position of the European Parliament of 13 March 2024 (not yet published in the Official Journal) and decision of the Council of 21 May 2024.
(4) 2024 m. kovo 13 d. Europos Parlamento pozicija (dar nepaskelbta Oficialiajame leidinyje) ir 2024 m. gegužės 21 d. Tarybos sprendimas.
(5) European Council, Special meeting of the European Council (1 and 2 October 2020) — Conclusions, EUCO 13/20, 2020, p. 6.
(5) Europos Vadovų Taryba, Specialusis Europos Vadovų Tarybos susitikimas (2020 m. spalio 1 ir 2 d.). Išvados, EUCO 13/20, 2020 m., p. 6.
(6) European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies, 2020/2012(INL).
(6) 2020 m. spalio 20 d. Europos Parlamento rezoliucija su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų sistemos, 2020/2012(INL).
(7) Regulation (EC) No 765/2008 of the European Parliament and of the Council of 9 July 2008 setting out the requirements for accreditation and repealing Regulation (EEC) No 339/93 (OJ L 218, 13.8.2008, p. 30).
(7) 2008 m. liepos 9 d. Europos Parlamento ir Tarybos reglamentas (EB) Nr. 765/2008, nustatantis su gaminių prekyba susijusius akreditavimo reikalavimus ir panaikinantis Reglamentą (EEB) Nr. 339/93 (OL L 218, 2008 8 13, p. 30).
(8) Decision No 768/2008/EC of the European Parliament and of the Council of 9 July 2008 on a common framework for the marketing of products, and repealing Council Decision 93/465/EEC (OJ L 218, 13.8.2008, p. 82).
(8) 2008 m. liepos 9 d. Europos Parlamento ir Tarybos sprendimas Nr. 768/2008/EB dėl bendrosios gaminių pardavimo sistemos ir panaikinantis Tarybos sprendimą 93/465/EEB (OL L 218, 2008 8 13, p. 82).
(9) Regulation (EU) 2019/1020 of the European Parliament and of the Council of 20 June 2019 on market surveillance and compliance of products and amending Directive 2004/42/EC and Regulations (EC) No 765/2008 and (EU) No 305/2011 (OJ L 169, 25.6.2019, p. 1).
(9) 2019 m. birželio 20 d. Europos Parlamento ir Tarybos reglamentas (ES) 2019/1020 dėl rinkos priežiūros ir gaminių atitikties, kuriuo iš dalies keičiama Direktyva 2004/42/EB ir reglamentai (EB) Nr. 765/2008 ir (ES) Nr. 305/2011 (OL L 169, 2019 6 25, p. 1).
(10) Council Directive 85/374/EEC of 25 July 1985 on the approximation of the laws, regulations and administrative provisions of the Member States concerning liability for defective products (OJ L 210, 7.8.1985, p. 29).
(10) 1985 m. liepos 25 d. Tarybos direktyva 85/374/EEB dėl valstybių narių įstatymų ir kitų teisės aktų, reglamentuojančių atsakomybę už gaminius su trūkumais, derinimo (OL L 210, 1985 8 7, p. 29).
(11) Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation) (OJ L 119, 4.5.2016, p. 1).
(11) 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos reglamentas (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB (Bendrasis duomenų apsaugos reglamentas) (OL L 119, 2016 5 4, p. 1).
(12) Regulation (EU) 2018/1725 of the European Parliament and of the Council of 23 October 2018 on the protection of natural persons with regard to the processing of personal data by the Union institutions, bodies, offices and agencies and on the free movement of such data, and repealing Regulation (EC) No 45/2001 and Decision No 1247/2002/EC (OJ L 295, 21.11.2018, p. 39).
(12) 2018 m. spalio 23 d. Europos Parlamento ir Tarybos reglamentas (ES) 2018/1725 dėl fizinių asmenų apsaugos Sąjungos institucijoms, organams, tarnyboms ir agentūroms tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo, kuriuo panaikinamas Reglamentas (EB) Nr. 45/2001 ir Sprendimas Nr. 1247/2002/EB (OL L 295, 2018 11 21, p. 39).
(13) Directive (EU) 2016/680 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data by competent authorities for the purposes of the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, and on the free movement of such data, and repealing Council Framework Decision 2008/977/JHA (OJ L 119, 4.5.2016, p. 89).
(13) 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos direktyva (ES) 2016/680 dėl fizinių asmenų apsaugos kompetentingoms institucijoms tvarkant asmens duomenis nusikalstamų veikų prevencijos, tyrimo, atskleidimo ar baudžiamojo persekiojimo už jas arba bausmių vykdymo tikslais ir dėl laisvo tokių duomenų judėjimo, ir kuria panaikinamas Tarybos pamatinis sprendimas 2008/977/TVR (OL L 119, 2016 5 4, p. 89).
(14) Directive 2002/58/EC of the European Parliament and of the Council of 12 July 2002 concerning the processing of personal data and the protection of privacy in the electronic communications sector (Directive on privacy and electronic communications) (OJ L 201, 31.7.2002, p. 37).
(14) 2002 m. liepos 12 d. Europos Parlamento ir Tarybos direktyva 2002/58/EB dėl asmens duomenų tvarkymo ir privatumo apsaugos elektroninių ryšių sektoriuje (Direktyva dėl privatumo ir elektroninių ryšių) (OL L 201, 2002 7 31, p. 37).
(15) Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act) (OJ L 277, 27.10.2022, p. 1).
(15) 2022 m. spalio 19 d. Europos Parlamento ir Tarybos reglamentas (ES) 2022/2065 dėl bendrosios skaitmeninių paslaugų rinkos, kuriuo iš dalies keičiama Direktyva 2000/31/EB (Skaitmeninių paslaugų aktas) (OL L 277, 2022 10 27, p. 1).
(16) Directive (EU) 2019/882 of the European Parliament and of the Council of 17 April 2019 on the accessibility requirements for products and services (OJ L 151, 7.6.2019, p. 70).
(16) 2019 m. balandžio 17 d. Europos Parlamento ir Tarybos direktyva (ES) 2019/882 dėl gaminių ir paslaugų prieinamumo reikalavimų (OL L 151, 2019 6 7, p. 70).
(17) Directive 2005/29/EC of the European Parliament and of the Council of 11 May 2005 concerning unfair business-to-consumer commercial practices in the internal market and amending Council Directive 84/450/EEC, Directives 97/7/EC, 98/27/EC and 2002/65/EC of the European Parliament and of the Council and Regulation (EC) No 2006/2004 of the European Parliament and of the Council (‘Unfair Commercial Practices Directive’) (OJ L 149, 11.6.2005, p. 22).
(17) 2005 m. gegužės 11 d. Europos Parlamento ir Tarybos direktyva 2005/29/EB dėl nesąžiningos įmonių komercinės veiklos vartotojų atžvilgiu vidaus rinkoje ir iš dalies keičianti Tarybos direktyvą 84/450/EEB, Europos Parlamento ir Tarybos direktyvas 97/7/EB, 98/27/EB bei 2002/65/EB ir Europos Parlamento ir Tarybos reglamentą (EB) Nr. 2006/2004 („Nesąžiningos komercinės veiklos direktyva“) (OL L 149, 2005 6 11, p. 22).
(18) Council Framework Decision 2002/584/JHA of 13 June 2002 on the European arrest warrant and the surrender procedures between Member States (OJ L 190, 18.7.2002, p. 1).
(18) 2002 m. birželio 13 d. Tarybos pagrindų sprendimas 2002/584/TVR dėl Europos arešto orderio ir perdavimo tarp valstybių narių tvarkos (OL L 190, 2002 7 18, p. 1).
(19) Directive (EU) 2022/2557 of the European Parliament and of the Council of 14 December 2022 on the resilience of critical entities and repealing Council Directive 2008/114/EC (OJ L 333, 27.12.2022, p. 164).
(19) 2022 m. gruodžio 14 d. Europos Parlamento ir Tarybos direktyva (ES) 2022/2557 dėl ypatingos svarbos subjektų atsparumo, kuria panaikinama Tarybos direktyva 2008/114/EB (OL L 333, 2022 12 27, p. 164).
(20) OJ C 247, 29.6.2022, p. 1.
(20) OL C 247, 2022 6 29, p. 1.
(21) Regulation (EU) 2017/745 of the European Parliament and of the Council of 5 April 2017 on medical devices, amending Directive 2001/83/EC, Regulation (EC) No 178/2002 and Regulation (EC) No 1223/2009 and repealing Council Directives 90/385/EEC and 93/42/EEC (OJ L 117, 5.5.2017, p. 1).
(21) 2017 m. balandžio 5 d. Europos Parlamento ir Tarybos reglamentas (ES) 2017/745 dėl medicinos priemonių, kuriuo iš dalies keičiama Direktyva 2001/83/EB, Reglamentas (EB) Nr. 178/2002 ir Reglamentas (EB) Nr. 1223/2009, ir kuriuo panaikinamos Tarybos direktyvos 90/385/EEB ir 93/42/EEB (OL L 117, 2017 5 5, p. 1).
(22) Regulation (EU) 2017/746 of the European Parliament and of the Council of 5 April 2017 on in vitro diagnostic medical devices and repealing Directive 98/79/EC and Commission Decision 2010/227/EU (OJ L 117, 5.5.2017, p. 176).
(22) 2017 m. balandžio 5 d. Europos Parlamento ir Tarybos reglamentas (ES) 2017/746 dėl in vitro diagnostikos medicinos priemonių, kuriuo panaikinama Direktyva 98/79/EB ir Komisijos sprendimas 2010/227/ES (OL L 117, 2017 5 5, p. 176).
(23) Directive 2006/42/EC of the European Parliament and of the Council of 17 May 2006 on machinery, and amending Directive 95/16/EC (OJ L 157, 9.6.2006, p. 24).
(23) 2006 m. gegužės 17 d. Europos Parlamento ir Tarybos direktyva 2006/42/EB dėl mašinų, iš dalies keičianti Direktyvą 95/16/EB (OL L 157, 2006 6 9, p. 24).
(24) Regulation (EC) No 300/2008 of the European Parliament and of the Council of 11 March 2008 on common rules in the field of civil aviation security and repealing Regulation (EC) No 2320/2002 (OJ L 97, 9.4.2008, p. 72).
(24) 2008 m. kovo 11 d. Europos Parlamento ir Tarybos reglamentas (EB) Nr. 300/2008 dėl civilinės aviacijos saugumo bendrųjų taisyklių ir panaikinantis Reglamentą (EB) Nr. 2320/2002 (OL L 97, 2008 4 9, p. 72).
(25) Regulation (EU) No 167/2013 of the European Parliament and of the Council of 5 February 2013 on the approval and market surveillance of agricultural and forestry vehicles (OJ L 60, 2.3.2013, p. 1).
(25) 2013 m. vasario 5 d. Europos Parlamento ir Tarybos reglamentas (ES) Nr. 167/2013 dėl žemės ir miškų ūkio transporto priemonių patvirtinimo ir rinkos priežiūros (OL L 60, 2013 3 2, p. 1).
(26) Regulation (EU) No 168/2013 of the European Parliament and of the Council of 15 January 2013 on the approval and market surveillance of two- or three-wheel vehicles and quadricycles (OJ L 60, 2.3.2013, p. 52).
(26) 2013 m. sausio 15 d. Europos Parlamento ir Tarybos reglamentas (ES) Nr. 168/2013 dėl dviračių ir triračių transporto priemonių bei keturračių patvirtinimo ir rinkos priežiūros (OL L 60, 2013 3 2, p. 52).
(27) Directive 2014/90/EU of the European Parliament and of the Council of 23 July 2014 on marine equipment and repealing Council Directive 96/98/EC (OJ L 257, 28.8.2014, p. 146).
(27) 2014 m. liepos 23 d. Europos Parlamento ir Tarybos direktyva 2014/90/ES dėl laivų įrenginių, kuria panaikinama Tarybos direktyva 96/98/EB (OL L 257, 2014 8 28, p. 146).
(28) Directive (EU) 2016/797 of the European Parliament and of the Council of 11 May 2016 on the interoperability of the rail system within the European Union (OJ L 138, 26.5.2016, p. 44).
(28) 2016 m. gegužės 11 d. Europos Parlamento ir Tarybos direktyva (ES) 2016/797 dėl geležinkelių sistemos sąveikos Europos Sąjungoje (OL L 138, 2016 5 26, p. 44).
(29) Regulation (EU) 2018/858 of the European Parliament and of the Council of 30 May 2018 on the approval and market surveillance of motor vehicles and their trailers, and of systems, components and separate technical units intended for such vehicles, amending Regulations (EC) No 715/2007 and (EC) No 595/2009 and repealing Directive 2007/46/EC (OJ L 151, 14.6.2018, p. 1).
(29) 2018 m. gegužės 30 d. Europos Parlamento ir Tarybos reglamentas (ES) 2018/858 dėl motorinių transporto priemonių ir jų priekabų bei tokioms transporto priemonėms skirtų sistemų, komponentų ir atskirų techninių mazgų patvirtinimo ir rinkos priežiūros, kuriuo iš dalies keičiami reglamentai (EB) Nr. 715/2007 ir (EB) Nr. 595/2009 bei panaikinama Direktyva 2007/46/EB (OL L 151, 2018 6 14, p. 1).
(30) Regulation (EU) 2018/1139 of the European Parliament and of the Council of 4 July 2018 on common rules in the field of civil aviation and establishing a European Union Aviation Safety Agency, and amending Regulations (EC) No 2111/2005, (EC) No 1008/2008, (EU) No 996/2010, (EU) No 376/2014 and Directives 2014/30/EU and 2014/53/EU of the European Parliament and of the Council, and repealing Regulations (EC) No 552/2004 and (EC) No 216/2008 of the European Parliament and of the Council and Council Regulation (EEC) No 3922/91 (OJ L 212, 22.8.2018, p. 1).
(30) 2018 m. liepos 4 d. Europos Parlamento ir Tarybos reglamentas (ES) 2018/1139 dėl bendrųjų civilinės aviacijos taisyklių, ir kuriuo įsteigiama Europos Sąjungos aviacijos saugos agentūra, iš dalies keičiami Europos Parlamento ir Tarybos reglamentai (EB) Nr. 2111/2005, (EB) Nr. 1008/2008, (ES) Nr. 996/2010, (ES) Nr. 376/2014 ir direktyvos 2014/30/ES ir 2014/53/ES bei panaikinami Europos Parlamento ir Tarybos reglamentai (EB) Nr. 552/2004 ir (EB) Nr. 216/2008 bei Tarybos reglamentas (EEB) Nr. 3922/91 (OL L 212, 2018 8 22, p. 1).
(31) Regulation (EU) 2019/2144 of the European Parliament and of the Council of 27 November 2019 on type-approval requirements for motor vehicles and their trailers, and systems, components and separate technical units intended for such vehicles, as regards their general safety and the protection of vehicle occupants and vulnerable road users, amending Regulation (EU) 2018/858 of the European Parliament and of the Council and repealing Regulations (EC) No 78/2009, (EC) No 79/2009 and (EC) No 661/2009 of the European Parliament and of the Council and Commission Regulations (EC) No 631/2009, (EU) No 406/2010, (EU) No 672/2010, (EU) No 1003/2010, (EU) No 1005/2010, (EU) No 1008/2010, (EU) No 1009/2010, (EU) No 19/2011, (EU) No 109/2011, (EU) No 458/2011, (EU) No 65/2012, (EU) No 130/2012, (EU) No 347/2012, (EU) No 351/2012, (EU) No 1230/2012 and (EU) 2015/166 (OJ L 325, 16.12.2019, p. 1).
(31) 2019 m. lapkričio 27 d. Europos Parlamento ir Tarybos reglamentas (ES) 2019/2144 dėl variklinių transporto priemonių, jų priekabų ir joms skirtų sistemų, sudėtinių dalių bei atskirų techninių mazgų tipo patvirtinimo reikalavimų, susijusių su jų bendrąja sauga ir transporto priemonėse esančių asmenų bei pažeidžiamų eismo dalyvių apsauga, kuriuo iš dalies keičiamas Europos Parlamento ir Tarybos reglamentas (ES) 2018/858 ir panaikinami Europos Parlamento ir Tarybos reglamentai (EB) Nr. 78/2009, (EB) Nr. 79/2009 ir (EB) Nr. 661/2009 ir Komisijos reglamentai (EB) Nr. 631/2009, (ES) Nr. 406/2010, (ES) Nr. 672/2010, (ES) Nr. 1003/2010, (ES) Nr. 1005/2010, (ES) Nr. 1008/2010, (ES) Nr. 1009/2010, (ES) Nr. 19/2011, (ES) Nr. 109/2011, (ES) Nr. 458/2011, (ES) Nr. 65/2012, (ES) Nr. 130/2012, (ES) Nr. 347/2012, (ES) Nr. 351/2012, (ES) Nr. 1230/2012 ir (ES) 2015/166 (OL L 325, 2019 12 16, p. 1).
(32) Regulation (EC) No 810/2009 of the European Parliament and of the Council of 13 July 2009 establishing a Community Code on Visas (Visa Code) (OJ L 243, 15.9.2009, p. 1).
(32) 2009 m. liepos 13 d. Europos Parlamento ir Tarybos reglamentas (EB) Nr. 810/2009, nustatantis Bendrijos vizų kodeksą (Vizų kodeksas) (OL L 243, 2009 9 15, p. 1).
(33) Directive 2013/32/EU of the European Parliament and of the Council of 26 June 2013 on common procedures for granting and withdrawing international protection (OJ L 180, 29.6.2013, p. 60).
(33) 2013 m. birželio 26 d. Europos Parlamento ir Tarybos direktyva 2013/32/ES dėl tarptautinės apsaugos suteikimo ir panaikinimo bendros tvarkos (OL L 180, 2013 6 29, p. 60).
(34) Regulation (EU) 2024/900 of the European parliament and of the Council of 13 March 2024 on the transparency and targeting of political advertising (OJ L, 2024/900, 20.3.2024, ELI: http://data.europa.eu/eli/reg/2024/900/oj).
(34) 2024 m. kovo 13 d. Europos Parlamento ir Tarybos reglamentas (ES) 2024/900 dėl politinės reklamos skaidrumo ir atrankiojo adresavimo (OL L, 2024/900, 2024 3 20, ELI: http://data.europa.eu/eli/reg/2024/900/oj).
(35) Directive 2014/31/EU of the European Parliament and of the Council of 26 February 2014 on the harmonisation of the laws of the Member States relating to the making available on the market of non-automatic weighing instruments (OJ L 96, 29.3.2014, p. 107).
(35) 2014 m. vasario 26 d. Europos Parlamento ir Tarybos direktyva 2014/31/ES dėl valstybių narių įstatymų, susijusių su neautomatinių svarstyklių tiekimu rinkai, suderinimo (OL L 96, 2014 3 29, p. 107).
(36) Directive 2014/32/EU of the European Parliament and of the Council of 26 February 2014 on the harmonisation of the laws of the Member States relating to the making available on the market of measuring instruments (OJ L 96, 29.3.2014, p. 149).
(36) 2014 m. vasario 26 d. Europos Parlamento ir Tarybos direktyva 2014/32/ES dėl valstybių narių įstatymų, susijusių su matavimo priemonių tiekimu rinkai, suderinimo (OL L 96, 2014 3 29, p. 149).
(37) Regulation (EU) 2019/881 of the European Parliament and of the Council of 17 April 2019 on ENISA (the European Union Agency for Cybersecurity) and on information and communications technology cybersecurity certification and repealing Regulation (EU) No 526/2013 (Cybersecurity Act) (OJ L 151, 7.6.2019, p. 15).
(37) 2019 m. balandžio 17 d. Europos Parlamento ir Tarybos reglamentas (ES) 2019/881 dėl ENISA (Europos Sąjungos kibernetinio saugumo agentūros) ir informacinių ir ryšių technologijų kibernetinio saugumo sertifikavimo, kuriuo panaikinamas Reglamentas (ES) Nr. 526/2013 (Kibernetinio saugumo aktas) (OL L 151, 2019 6 7, p. 15).
(38) Directive (EU) 2016/2102 of the European Parliament and of the Council of 26 October 2016 on the accessibility of the websites and mobile applications of public sector bodies (OJ L 327, 2.12.2016, p. 1).
(38) 2016 m. spalio 26 d. Europos Parlamento ir Tarybos direktyva (ES) 2016/2102 dėl viešojo sektoriaus institucijų interneto svetainių ir mobiliųjų programų prieinamumo (OL L 327, 2016 12 2, p. 1).
(39) Directive 2002/14/EC of the European Parliament and of the Council of 11 March 2002 establishing a general framework for informing and consulting employees in the European Community (OJ L 80, 23.3.2002, p. 29).
(39) 2002 m. kovo 11 d. Europos Parlamento ir Tarybos direktyva 2002/14/EB dėl bendros darbuotojų informavimo ir konsultavimosi su jais sistemos sukūrimo Europos bendrijoje. (OL L 80, 2002 3 23, p. 29).
(40) Directive (EU) 2019/790 of the European Parliament and of the Council of 17 April 2019 on copyright and related rights in the Digital Single Market and amending Directives 96/9/EC and 2001/29/EC (OJ L 130, 17.5.2019, p. 92).
(40) 2019 m. balandžio 17 d. Europos Parlamento ir Tarybos direktyva (ES) 2019/790 dėl autorių teisių ir gretutinių teisių bendrojoje skaitmeninėje rinkoje, kuria iš dalies keičiamos direktyvos 96/9/EB ir 2001/29/EB (OL L 130, 2019 5 17, p. 92).
(41) Regulation (EU) No 1025/2012 of the European Parliament and of the Council of 25 October 2012 on European standardisation, amending Council Directives 89/686/EEC and 93/15/EEC and Directives 94/9/EC, 94/25/EC, 95/16/EC, 97/23/EC, 98/34/EC, 2004/22/EC, 2007/23/EC, 2009/23/EC and 2009/105/EC of the European Parliament and of the Council and repealing Council Decision 87/95/EEC and Decision No 1673/2006/EC of the European Parliament and of the Council (OJ L 316, 14.11.2012, p. 12).
(41) 2012 m. spalio 25 d. Europos Parlamento ir Tarybos reglamentas (ES) Nr. 1025/2012 dėl Europos standartizacijos, kuriuo iš dalies keičiamos Tarybos direktyvos 89/686/EEB ir 93/15/EEB ir Europos Parlamento ir Tarybos direktyvos 94/9/EB, 94/25/EB, 95/16/EB, 97/23/EB, 98/34/EB, 2004/22/EB, 2007/23/EB, 2009/23/EB ir 2009/105/EB ir panaikinamas Tarybos sprendimas 87/95/EEB ir Europos Parlamento ir Tarybos sprendimas Nr. 1673/2006/EB (OL L 316, 2012 11 14, p. 12).
(42) Regulation (EU) 2022/868 of the European Parliament and of the Council of 30 May 2022 on European data governance and amending Regulation (EU) 2018/1724 (Data Governance Act) (OJ L 152, 3.6.2022, p. 1).
(42) 2022 m. gegužės 30 d. Europos Parlamento ir Tarybos reglamentas (ES) 2022/868 dėl Europos duomenų valdymo, kuriuo iš dalies keičiamas Reglamentas (ES) 2018/1724 (Duomenų valdymo aktas) (OL L 152, 2022 6 3, p. 1).
(43) Regulation (EU) 2023/2854 of the European Parliament and of the Council of 13 December 2023 on harmonised rules on fair access to and use of data and amending Regulation (EU) 2017/2394 and Directive (EU) 2020/1828 (Data Act) (OJ L, 2023/2854, 22.12.2023, ELI: http://data.europa.eu/eli/reg/2023/2854/oj).
(43) 2023 m. gruodžio 13 d. Europos Parlamento ir Tarybos reglamentas (ES) 2023/2854 dėl suderintų sąžiningos prieigos prie duomenų ir jų naudojimo taisyklių, kuriuo iš dalies keičiamas Reglamentas (ES) 2017/2394 ir Direktyva (ES) 2020/1828 (Duomenų aktas) (OL L, 2023/2854, 2023 12 22, ELI: http://data.europa.eu/eli/reg/2023/2854/oj).
(44) Commission Recommendation of 6 May 2003 concerning the definition of micro, small and medium-sized enterprises (OJ L 124, 20.5.2003, p. 36).
(44) 2003 m. gegužės 6 d. Komisijos rekomendacija dėl labai mažų, mažųjų ir vidutinio dydžio įmonių apibrėžties (OL L 124, 2003 5 20, p. 36).
(45) Commission Decision of 24.1.2024 establishing the European Artificial Intelligence Office C(2024) 390.
(45) 2024 m. sausio 24 d. Komisijos sprendimas C(2024) 390, kuriuo įsteigiama Europos dirbtinio intelekto tarnyba.
(46) Regulation (EU) No 575/2013 of the European Parliament and of the Council of 26 June 2013 on prudential requirements for credit institutions and investment firms and amending Regulation (EU) No 648/2012 (OJ L 176, 27.6.2013, p. 1).
(46) 2013 m. birželio 26 d. Europos Parlamento ir Tarybos reglamentas (ES) Nr. 575/2013 dėl riziką ribojančių reikalavimų kredito įstaigoms, kuriuo iš dalies keičiamas Reglamentas (ES) Nr. 648/2012 (OL L 176, 2013 6 27, p. 1).
(47) Directive 2008/48/EC of the European Parliament and of the Council of 23 April 2008 on credit agreements for consumers and repealing Council Directive 87/102/EEC (OJ L 133, 22.5.2008, p. 66).
(47) 2008 m. balandžio 23 d. Europos Parlamento ir Tarybos direktyva 2008/48/EB dėl vartojimo kredito sutarčių ir panaikinanti Tarybos direktyvą 87/102/EEB (OL L 133, 2008 5 22, p. 66).
(48) Directive 2009/138/EC of the European Parliament and of the Council of 25 November 2009 on the taking-up and pursuit of the business of Insurance and Reinsurance (Solvency II) (OJ L 335, 17.12.2009, p. 1).
(48) 2009 m. lapkričio 25 d. Europos Parlamento ir Tarybos direktyva 2009/138/EB dėl draudimo ir perdraudimo veiklos pradėjimo ir jos vykdymo (Mokumas II) (OL L 335, 2009 12 17, p. 1).
(49) Directive 2013/36/EU of the European Parliament and of the Council of 26 June 2013 on access to the activity of credit institutions and the prudential supervision of credit institutions and investment firms, amending Directive 2002/87/EC and repealing Directives 2006/48/EC and 2006/49/EC (OJ L 176, 27.6.2013, p. 338).
(49) 2013 m. birželio 26 d. Europos Parlamento ir Tarybos direktyva 2013/36/ES dėl galimybės verstis kredito įstaigų veikla ir dėl riziką ribojančios kredito įstaigų priežiūros, kuria iš dalies keičiama Direktyva 2002/87/EB ir panaikinamos direktyvos 2006/48/EB bei 2006/49/EB (OL L 176, 2013 6 27, p. 338).
(50) Directive 2014/17/EU of the European Parliament and of the Council of 4 February 2014 on credit agreements for consumers relating to residential immovable property and amending Directives 2008/48/EC and 2013/36/EU and Regulation (EU) No 1093/2010 (OJ L 60, 28.2.2014, p. 34).
(50) 2014 m. vasario 4 d. Europos Parlamento ir Tarybos direktyva 2014/17/ES dėl vartojimo kredito sutarčių dėl gyvenamosios paskirties nekilnojamojo turto, kuria iš dalies keičiamos direktyvos 2008/48/EB ir 2013/36/ES bei Reglamentas (ES) Nr. 1093/2010 (OL L 60, 2014 2 28, p. 34).
(51) Directive (EU) 2016/97 of the European Parliament and of the Council of 20 January 2016 on insurance distribution (OJ L 26, 2.2.2016, p. 19).
(51) 2016 m. sausio 20 d. Europos Parlamento ir Tarybos direktyva (ES) 2016/97 dėl draudimo produktų platinimo (OL L 26, 2016 2 2, p. 19).
(52) Council Regulation (EU) No 1024/2013 of 15 October 2013 conferring specific tasks on the European Central Bank concerning policies relating to the prudential supervision of credit institutions (OJ L 287, 29.10.2013, p. 63).
(52) 2013 m. spalio 15 d. Tarybos reglamentas (ES) Nr. 1024/2013, kuriuo Europos Centriniam Bankui pavedami specialūs uždaviniai, susiję su rizikos ribojimu pagrįstos kredito įstaigų priežiūros politika (OL L 287, 2013 10 29, p. 63).
(53) Regulation (EU) 2023/988 of the European Parliament and of the Council of 10 May 2023 on general product safety, amending Regulation (EU) No 1025/2012 of the European Parliament and of the Council and Directive (EU) 2020/1828 of the European Parliament and the Council, and repealing Directive 2001/95/EC of the European Parliament and of the Council and Council Directive 87/357/EEC (OJ L 135, 23.5.2023, p. 1).
(53) 2023 m. gegužės 10 d. Europos Parlamento ir Tarybos reglamentas (ES) 2023/988 dėl bendros gaminių saugos, kuriuo iš dalies keičiami Europos Parlamento ir Tarybos reglamentas (ES) Nr. 1025/2012 bei Europos Parlamento ir Tarybos direktyva (ES) 2020/1828 ir panaikinamos Europos Parlamento ir Tarybos direktyva 2001/95/EB bei Tarybos direktyva 87/357/EEB (OL L 135, 2023 5 23, p. 1).
(54) Directive (EU) 2019/1937 of the European Parliament and of the Council of 23 October 2019 on the protection of persons who report breaches of Union law (OJ L 305, 26.11.2019, p. 17).
(54) 2019 m. spalio 23 d. Europos Parlamento ir Tarybos direktyva (ES) 2019/1937 dėl asmenų, pranešančių apie Sąjungos teisės pažeidimus, apsaugos (OL L 305, 2019 11 26, p. 17).
(55) OJ L 123, 12.5.2016, p. 1.
(55) OL L 123, 2016 5 12, p. 1.
(56) Regulation (EU) No 182/2011 of the European Parliament and of the Council of 16 February 2011 laying down the rules and general principles concerning mechanisms for control by Member States of the Commission’s exercise of implementing powers (OJ L 55, 28.2.2011, p. 13).
(56) 2011 m. vasario 16 d. Europos Parlamento ir Tarybos reglamentas (ES) Nr. 182/2011, kuriuo nustatomos valstybių narių vykdomos Komisijos naudojimosi įgyvendinimo įgaliojimais kontrolės mechanizmų taisyklės ir bendrieji principai (OL L 55, 2011 2 28, p. 13).
(57) Directive (EU) 2016/943 of the European Parliament and of the Council of 8 June 2016 on the protection of undisclosed know-how and business information (trade secrets) against their unlawful acquisition, use and disclosure (OJ L 157, 15.6.2016, p. 1).
(57) 2016 m. birželio 8 d. Europos Parlamento ir Tarybos direktyva (ES) 2016/943 dėl neatskleistos praktinės patirties ir verslo informacijos (komercinių paslapčių) apsaugos nuo neteisėto jų gavimo, naudojimo ir atskleidimo (OL L 157, 2016 6 15, p. 1).
(58) Directive (EU) 2020/1828 of the European Parliament and of the Council of 25 November 2020 on representative actions for the protection of the collective interests of consumers and repealing Directive 2009/22/EC (OJ L 409, 4.12.2020, p. 1).
(58) 2020 m. lapkričio 25 d. Europos Parlamento ir Tarybos direktyva (ES) 2020/1828 dėl atstovaujamųjų ieškinių siekiant apsaugoti vartotojų kolektyvinius interesus, kuria panaikinama Direktyva 2009/22/EB (OL L 409, 2020 12 4, p. 1).
ANNEX I
I PRIEDAS
List of Union harmonisation legislation
Sąjungos derinamųjų teisės aktų sąrašas
Section A. List of Union harmonisation legislation based on the New Legislative Framework
A skirsnis. Sąjungos derinamųjų teisės aktų sąrašas, pagrįstas naująja teisės aktų sistema
1.
Directive 2006/42/EC of the European Parliament and of the Council of 17 May 2006 on machinery, and amending Directive 95/16/EC (OJ L 157, 9.6.2006, p. 24);
1.
2006 m. gegužės 17 d. Europos Parlamento ir Tarybos direktyva 2006/42/EB dėl mašinų, iš dalies keičianti Direktyvą 95/16/EB (OL L 157, 2006 6 9, p. 24).
2.
Directive 2009/48/EC of the European Parliament and of the Council of 18 June 2009 on the safety of toys (OJ L 170, 30.6.2009, p. 1);
2.
2009 m. birželio 18 d. Europos Parlamento ir Tarybos direktyva 2009/48/EB dėl žaislų saugos (OL L 170, 2009 6 30, p. 1).
3.
Directive 2013/53/EU of the European Parliament and of the Council of 20 November 2013 on recreational craft and personal watercraft and repealing Directive 94/25/EC (OJ L 354, 28.12.2013, p. 90);
3.
2013 m. lapkričio 20 d. Europos Parlamento ir Tarybos direktyva 2013/53/ES dėl pramoginių ir asmeninių laivų, kuria panaikinama Direktyva 94/25/EB (OL L 354, 2013 12 28, p. 90).
4.
Directive 2014/33/EU of the European Parliament and of the Council of 26 February 2014 on the harmonisation of the laws of the Member States relating to lifts and safety components for lifts (OJ L 96, 29.3.2014, p. 251);
4.
2014 m. vasario 26 d. Europos Parlamento ir Tarybos direktyva 2014/33/ES dėl valstybių narių įstatymų, susijusių su liftais ir liftų saugos įtaisais, suderinimo (OL L 96, 2014 3 29, p. 251).
5.
Directive 2014/34/EU of the European Parliament and of the Council of 26 February 2014 on the harmonisation of the laws of the Member States relating to equipment and protective systems intended for use in potentially explosive atmospheres (OJ L 96, 29.3.2014, p. 309);
5.
2014 m. vasario 26 d. Europos Parlamento ir Tarybos direktyva 2014/34/ES dėl valstybių narių įstatymų, susijusių su potencialiai sprogioje aplinkoje naudojama įranga ir apsaugos sistemomis, suderinimo (OL L 96, 2014 3 29, p. 309).
6.
Directive 2014/53/EU of the European Parliament and of the Council of 16 April 2014 on the harmonisation of the laws of the Member States relating to the making available on the market of radio equipment and repealing Directive 1999/5/EC (OJ L 153, 22.5.2014, p. 62);
6.
2014 m. balandžio 16 d. Europos Parlamento ir Tarybos direktyva 2014/53/ES dėl valstybių narių įstatymų, susijusių su radijo įrenginių tiekimu rinkai, suderinimo, kuria panaikinama Direktyva 1999/5/EB (OL L 153, 2014 5 22, p. 62).
7.
Directive 2014/68/EU of the European Parliament and of the Council of 15 May 2014 on the harmonisation of the laws of the Member States relating to the making available on the market of pressure equipment (OJ L 189, 27.6.2014, p. 164);
7.
2014 m. gegužės 15 d. Europos Parlamento ir Tarybos direktyva 2014/68/ES dėl valstybių narių įstatymų, susijusių su slėginės įrangos tiekimu rinkai, suderinimo (OL L 189, 2014 6 27, p. 164).
8.
Regulation (EU) 2016/424 of the European Parliament and of the Council of 9 March 2016 on cableway installations and repealing Directive 2000/9/EC (OJ L 81, 31.3.2016, p. 1);
8.
2016 m. kovo 9 d. Europos Parlamento ir Tarybos reglamentas (ES) 2016/424 dėl lynų kelio įrenginių, kuriuo panaikinama Direktyva 2000/9/EB (OL L 81, 2016 3 31, p. 1).
9.
Regulation (EU) 2016/425 of the European Parliament and of the Council of 9 March 2016 on personal protective equipment and repealing Council Directive 89/686/EEC (OJ L 81, 31.3.2016, p. 51);
9.
2016 m. kovo 9 d. Europos Parlamento ir Tarybos reglamentas (ES) 2016/425 dėl asmeninių apsaugos priemonių, kuriuo panaikinama Tarybos direktyva 89/686/EEB (OL L 81, 2016 3 31, p. 51).
10.
Regulation (EU) 2016/426 of the European Parliament and of the Council of 9 March 2016 on appliances burning gaseous fuels and repealing Directive 2009/142/EC (OJ L 81, 31.3.2016, p. 99);
10.
2016 m. kovo 9 d. Europos Parlamento ir Tarybos reglamentas (ES) 2016/426 dėl dujinį kurą deginančių prietaisų, kuriuo panaikinama Direktyva 2009/142/EB (OL L 81, 2016 3 31, p. 99).
11.
Regulation (EU) 2017/745 of the European Parliament and of the Council of 5 April 2017 on medical devices, amending Directive 2001/83/EC, Regulation (EC) No 178/2002 and Regulation (EC) No 1223/2009 and repealing Council Directives 90/385/EEC and 93/42/EEC (OJ L 117, 5.5.2017, p. 1);
11.
2017 m. balandžio 5 d. Europos Parlamento ir Tarybos reglamentas (ES) 2017/745 dėl medicinos priemonių, kuriuo iš dalies keičiama Direktyva 2001/83/EB, Reglamentas (EB) Nr. 178/2002 ir Reglamentas (EB) Nr. 1223/2009, ir kuriuo panaikinamos Tarybos direktyvos 90/385/EEB ir 93/42/EEB (OL L 117, 2017 5 5, p. 1).
12.
Regulation (EU) 2017/746 of the European Parliament and of the Council of 5 April 2017 on in vitro diagnostic medical devices and repealing Directive 98/79/EC and Commission Decision 2010/227/EU (OJ L 117, 5.5.2017, p. 176).
12.
2017 m. balandžio 5 d. Europos Parlamento ir Tarybos reglamentas (ES) 2017/746 dėl in vitro diagnostikos medicinos priemonių, kuriuo panaikinama Direktyva 98/79/EB ir Komisijos sprendimas 2010/227/ES (OL L 117, 2017 5 5, p. 176).
Section B. List of other Union harmonisation legislation
B skirsnis. Kitų Sąjungos derinamųjų teisės aktų sąrašas
13.
Regulation (EC) No 300/2008 of the European Parliament and of the Council of 11 March 2008 on common rules in the field of civil aviation security and repealing Regulation (EC) No 2320/2002 (OJ L 97, 9.4.2008, p. 72);
13.
2008 m. kovo 11 d. Europos Parlamento ir Tarybos reglamentas (EB) Nr. 300/2008 dėl civilinės aviacijos saugumo bendrųjų taisyklių ir panaikinantis Reglamentą (EB) Nr. 2320/2002 (OL L 97, 2008 4 9, p. 72).
14.
Regulation (EU) No 168/2013 of the European Parliament and of the Council of 15 January 2013 on the approval and market surveillance of two- or three-wheel vehicles and quadricycles (OJ L 60, 2.3.2013, p. 52);
14.
2013 m. sausio 15 d. Europos Parlamento ir Tarybos reglamentas (ES) Nr. 168/2013 dėl dviračių ir triračių transporto priemonių bei keturračių patvirtinimo ir rinkos priežiūros (OL L 60, 2013 3 2, p. 52).
15.
Regulation (EU) No 167/2013 of the European Parliament and of the Council of 5 February 2013 on the approval and market surveillance of agricultural and forestry vehicles (OJ L 60, 2.3.2013, p. 1);
15.
2013 m. vasario 5 d. Europos Parlamento ir Tarybos reglamentas (ES) Nr. 167/2013 dėl žemės ir miškų ūkio transporto priemonių patvirtinimo ir rinkos priežiūros (OL L 60, 2013 3 2, p. 1).
16.
Directive 2014/90/EU of the European Parliament and of the Council of 23 July 2014 on marine equipment and repealing Council Directive 96/98/EC (OJ L 257, 28.8.2014, p. 146);
16.
2014 m. liepos 23 d. Europos Parlamento ir Tarybos direktyva 2014/90/ES dėl laivų įrenginių, kuria panaikinama Tarybos direktyva 96/98/EB (OL L 257, 2014 8 28, p. 146).
17.
Directive (EU) 2016/797 of the European Parliament and of the Council of 11 May 2016 on the interoperability of the rail system within the European Union (OJ L 138, 26.5.2016, p. 44);
17.
2016 m. gegužės 11 d. Europos Parlamento ir Tarybos direktyva (ES) 2016/797 dėl geležinkelių sistemos sąveikos Europos Sąjungoje (OL L 138, 2016 5 26, p. 44).
18.
Regulation (EU) 2018/858 of the European Parliament and of the Council of 30 May 2018 on the approval and market surveillance of motor vehicles and their trailers, and of systems, components and separate technical units intended for such vehicles, amending Regulations (EC) No 715/2007 and (EC) No 595/2009 and repealing Directive 2007/46/EC (OJ L 151, 14.6.2018, p. 1);
18.
2018 m. gegužės 30 d. Europos Parlamento ir Tarybos reglamentas (ES) 2018/858 dėl motorinių transporto priemonių ir jų priekabų bei tokioms transporto priemonėms skirtų sistemų, komponentų ir atskirų techninių mazgų patvirtinimo ir rinkos priežiūros, kuriuo iš dalies keičiami reglamentai (EB) Nr. 715/2007 ir (EB) Nr. 595/2009 bei panaikinama Direktyva 2007/46/EB (OL L 151, 2018 6 14, p. 1).
19.
Regulation (EU) 2019/2144 of the European Parliament and of the Council of 27 November 2019 on type-approval requirements for motor vehicles and their trailers, and systems, components and separate technical units intended for such vehicles, as regards their general safety and the protection of vehicle occupants and vulnerable road users, amending Regulation (EU) 2018/858 of the European Parliament and of the Council and repealing Regulations (EC) No 78/2009, (EC) No 79/2009 and (EC) No 661/2009 of the European Parliament and of the Council and Commission Regulations (EC) No 631/2009, (EU) No 406/2010, (EU) No 672/2010, (EU) No 1003/2010, (EU) No 1005/2010, (EU) No 1008/2010, (EU) No 1009/2010, (EU) No 19/2011, (EU) No 109/2011, (EU) No 458/2011, (EU) No 65/2012, (EU) No 130/2012, (EU) No 347/2012, (EU) No 351/2012, (EU) No 1230/2012 and (EU) 2015/166 (OJ L 325, 16.12.2019, p. 1);
19.
2019 m. lapkričio 27 d. Europos Parlamento ir Tarybos reglamentas (ES) 2019/2144 dėl variklinių transporto priemonių, jų priekabų ir joms skirtų sistemų, sudėtinių dalių bei atskirų techninių mazgų tipo patvirtinimo reikalavimų, susijusių su jų bendrąja sauga ir transporto priemonėse esančių asmenų bei pažeidžiamų eismo dalyvių apsauga, kuriuo iš dalies keičiamas Europos Parlamento ir Tarybos reglamentas (ES) 2018/858 ir panaikinami Europos Parlamento ir Tarybos reglamentai (EB) Nr. 78/2009, (EB) Nr. 79/2009 ir (EB) Nr. 661/2009 ir Komisijos reglamentai (EB) Nr. 631/2009, (ES) Nr. 406/2010, (ES) Nr. 672/2010, (ES) Nr. 1003/2010, (ES) Nr. 1005/2010, (ES) Nr. 1008/2010, (ES) Nr. 1009/2010, (ES) Nr. 19/2011, (ES) Nr. 109/2011, (ES) Nr. 458/2011, (ES) Nr. 65/2012, (ES) Nr. 130/2012, (ES) Nr. 347/2012, (ES) Nr. 351/2012, (ES) Nr. 1230/2012 ir (ES) 2015/166 (OL L 325, 2019 12 16, p. 1).
20.
Regulation (EU) 2018/1139 of the European Parliament and of the Council of 4 July 2018 on common rules in the field of civil aviation and establishing a European Union Aviation Safety Agency, and amending Regulations (EC) No 2111/2005, (EC) No 1008/2008, (EU) No 996/2010, (EU) No 376/2014 and Directives 2014/30/EU and 2014/53/EU of the European Parliament and of the Council, and repealing Regulations (EC) No 552/2004 and (EC) No 216/2008 of the European Parliament and of the Council and Council Regulation (EEC) No 3922/91 (OJ L 212, 22.8.2018, p. 1), in so far as the design, production and placing on the market of aircrafts referred to in Article 2(1), points (a) and (b) thereof, where it concerns unmanned aircraft and their engines, propellers, parts and equipment to control them remotely, are concerned.
20.
2018 m. liepos 4 d. Europos Parlamento ir Tarybos reglamentas (ES) 2018/1139 dėl bendrųjų civilinės aviacijos taisyklių, ir kuriuo įsteigiama Europos Sąjungos aviacijos saugos agentūra, iš dalies keičiami Europos Parlamento ir Tarybos reglamentai (EB) Nr. 2111/2005, (EB) Nr. 1008/2008, (ES) Nr. 996/2010, (ES) Nr. 376/2014 ir direktyvos 2014/30/ES ir 2014/53/ES bei panaikinami Europos Parlamento ir Tarybos reglamentai (EB) Nr. 552/2004 ir (EB) Nr. 216/2008 bei Tarybos reglamentas (EEB) Nr. 3922/91 (OL L 212, 2018 8 22, p. 1), kiek tai susiję su jo 2 straipsnio 1 dalies a ir b punktuose nurodytų orlaivių projektavimu, gamyba ir pateikimu rinkai, bepiločių orlaivių, jų variklių, oro sraigtų, dalių, ir nuotolinio orlaivių valdymo įrangos atveju.
ANNEX II
II PRIEDAS
List of criminal offences referred to in Article 5(1), first subparagraph, point (h)(iii)
5 straipsnio 1 dalies pirmos pastraipos h punkto iii papunktyje nurodytų nusikalstamų veikų sąrašas
Criminal offences referred to in Article 5(1), first subparagraph, point (h)(iii):
5 straipsnio 1 dalies pirmos pastraipos h punkto iii papunktyje nurodytos nusikalstamos veikos:
terrorism,
terorizmas,
trafficking in human beings,
prekyba žmonėmis,
sexual exploitation of children, and child pornography,
seksualinis vaikų išnaudojimas ir vaikų pornografija,
illicit trafficking in narcotic drugs or psychotropic substances,
neteisėta prekyba narkotinėmis ar psichotropinėmis medžiagomis,
illicit trafficking in weapons, munitions or explosives,
neteisėta prekyba ginklais, šaudmenimis ar sprogmenimis,
murder, grievous bodily injury,
tyčinis nužudymas, sunkus sužalojimas,
illicit trade in human organs or tissue,
neteisėta prekyba žmogaus organais ar audiniais,
illicit trafficking in nuclear or radioactive materials,
neteisėta prekyba branduolinėmis ar radioaktyviosiomis medžiagomis,
kidnapping, illegal restraint or hostage-taking,
žmonių grobimas, neteisėtas laisvės atėmimas ar įkaitų ėmimas,
crimes within the jurisdiction of the International Criminal Court,
Tarptautinio baudžiamojo teismo jurisdikcijai priklausantys nusikaltimai,
unlawful seizure of aircraft or ships,
neteisėtas orlaivių ar laivų užgrobimas,
rape,
išžaginimas,
environmental crime,
nusikaltimas aplinkai,
organised or armed robbery,
organizuotas ar ginkluotas apiplėšimas,
sabotage,
sabotažas,
participation in a criminal organisation involved in one or more of the offences listed above.
dalyvavimas nusikalstamo susivienijimo veikloje, susijusioje su viena ar keliomis pirmiau išvardytomis nusikalstamomis veikomis.
ANNEX III
III PRIEDAS
High-risk AI systems referred to in Article 6(2)
6 straipsnio 2 dalyje nurodytos didelės rizikos DI sistemos
High-risk AI systems pursuant to Article 6(2) are the AI systems listed in any of the following areas:
Didelės rizikos DI sistemos pagal 6 straipsnio 2 dalį yra bet kurioje iš toliau nurodytų sričių išvardytos DI sistemos.
1.
Biometrics, in so far as their use is permitted under relevant Union or national law:
1.
Biometrija, jei ją leidžiama naudoti pagal atitinkamus Sąjungos ar nacionalinės teisės aktus:
(a)
remote biometric identification systems.
a)
nuotolinio biometrinio tapatybės nustatymo sistemos.
This shall not include AI systems intended to be used for biometric verification the sole purpose of which is to confirm that a specific natural person is the person he or she claims to be;
Į tai neįtraukiamos DI sistemos, skirtos naudoti biometriniam sutikrinimui, kurių vienintelis tikslas – patvirtinti, kad konkretus fizinis asmuo yra tas asmuo, kuriuo jis prisistato;
(b)
AI systems intended to be used for biometric categorisation, according to sensitive or protected attributes or characteristics based on the inference of those attributes or characteristics;
b)
DI sistemos, skirtos naudoti biometriniam kategorizavimui pagal neskelbtinus ar saugomus požymius ar ypatumus, remiantis nuspėjamais tais požymiais ar ypatumais;
(c)
AI systems intended to be used for emotion recognition.
c)
DI sistemos, skirtos naudoti emocijų atpažinimui.
2.
Critical infrastructure: AI systems intended to be used as safety components in the management and operation of critical digital infrastructure, road traffic, or in the supply of water, gas, heating or electricity.
2.
Ypatingos svarbos infrastruktūra: DI sistemos, skirtos naudoti kaip saugos komponentai užtikrinant ypatingos svarbos skaitmeninės infrastruktūros, kelių eismo ar vandens, dujų, šilumos ar elektros energijos tiekimo valdymą ir veikimą.
3.
Education and vocational training:
3.
Švietimas ir profesinis mokymas:
(a)
AI systems intended to be used to determine access or admission or to assign natural persons to educational and vocational training institutions at all levels;
a)
DI sistemos, skirtos naudoti siekiant nustatyti fizinių asmenų teisę būti svarstomiems dėl priėmimo į švietimo ir profesinio mokymo įstaigas visais lygmenimis ar juos į tas įstaigas priimti arba paskirti;
(b)
AI systems intended to be used to evaluate learning outcomes, including when those outcomes are used to steer the learning process of natural persons in educational and vocational training institutions at all levels;
b)
DI sistemos, skirtos naudoti mokymosi rezultatams vertinti, įskaitant atvejus, kai tie rezultatai naudojami siekiant valdyti fizinių asmenų mokymosi procesą švietimo ir profesinio mokymo įstaigose visais lygmenimis;
(c)
AI systems intended to be used for the purpose of assessing the appropriate level of education that an individual will receive or will be able to access, in the context of or within educational and vocational training institutions at all levels;
c)
DI sistemos, skirtos naudoti siekiant įvertinti tinkamą švietimo, kurį asmuo gaus arba galės gauti visų lygių švietimo ir profesinio mokymo įstaigose, lygį;
(d)
AI systems intended to be used for monitoring and detecting prohibited behaviour of students during tests in the context of or within educational and vocational training institutions at all levels.
d)
DI sistemos, skirtos naudoti siekiant stebėti ir atpažinti draudžiamą mokinių arba studentų elgesį per testus visų lygių švietimo ir profesinio mokymo įstaigose.
4.
Employment, workers’ management and access to self-employment:
4.
Užimtumas, darbuotojų valdymas ir galimybė dirbti savarankiškai:
(a)
AI systems intended to be used for the recruitment or selection of natural persons, in particular to place targeted job advertisements, to analyse and filter job applications, and to evaluate candidates;
a)
DI sistemos, skirtos naudoti fizinių asmenų įdarbinimui arba atrankai, visų pirma siekiant teikti tikslinius darbo skelbimus, analizuoti ir filtruoti darbo prašymus ir vertinti kandidatus;
(b)
AI systems intended to be used to make decisions affecting terms of work-related relationships, the promotion or termination of work-related contractual relationships, to allocate tasks based on individual behaviour or personal traits or characteristics or to monitor and evaluate the performance and behaviour of persons in such relationships.
b)
DI sistemos, skirtos naudoti priimant sprendimus, darančius poveikį darbo santykių sąlygoms, paaukštinimui arba darbo santykių nutraukimui, siekiant paskirstyti užduotis remiantis individualiu elgesiu arba asmenybės bruožais ar savybėmis arba stebėti bei įvertinti tokiuose santykiuose dalyvaujančių asmenų rezultatus ir elgesį.
5.
Access to and enjoyment of essential private services and essential public services and benefits:
5.
Galimybė gauti pagrindines privačiąsias paslaugas ir pagrindines viešąsias paslaugas ir išmokas ir naudojimasis jomis:
(a)
AI systems intended to be used by public authorities or on behalf of public authorities to evaluate the eligibility of natural persons for essential public assistance benefits and services, including healthcare services, as well as to grant, reduce, revoke, or reclaim such benefits and services;
a)
DI sistemos, skirtos naudoti valdžios institucijose arba jų vardu siekiant įvertinti fizinių asmenų tinkamumą gauti esminės viešosios paramos išmokas ir paslaugas, įskaitant sveikatos priežiūros paslaugas, taip pat siekiant suteikti, sumažinti, panaikinti arba susigrąžinti tokias išmokas;
(b)
AI systems intended to be used to evaluate the creditworthiness of natural persons or establish their credit score, with the exception of AI systems used for the purpose of detecting financial fraud;
b)
DI sistemos, skirtos naudoti siekiant įvertinti fizinių asmenų kreditingumą arba nustatyti jų kredito reitingą, išskyrus DI sistemas, naudojamas finansinio sukčiavimo atvejų aptikimo tikslu;
(c)
AI systems intended to be used for risk assessment and pricing in relation to natural persons in the case of life and health insurance;
c)
DI sistemos, skirtos naudoti siekiant įvertinti su fiziniais asmenimis susijusią riziką ir kainodarą gyvybės bei sveikatos draudimo atveju;
(d)
AI systems intended to evaluate and classify emergency calls by natural persons or to be used to dispatch, or to establish priority in the dispatching of, emergency first response services, including by police, firefighters and medical aid, as well as of emergency healthcare patient triage systems.
d)
DI sistemos, skirtos naudoti siekiant įvertinti ir klasifikuoti fizinių asmenų pagalbos skambučius ar teikiant arba nustatant prioritetines teiktinas skubias pirmosios pagalbos paslaugas, įskaitant policijos, ugniagesių ir medicinos pagalbos tarnybų paslaugas, taip pat skubios sveikatos priežiūros pacientų medicininio skirstymo sistemas.
6.
Law enforcement, in so far as their use is permitted under relevant Union or national law:
6.
Teisėsauga, jei jas leidžiama naudoti pagal atitinkamus Sąjungos ar nacionalinės teisės aktus:
(a)
AI systems intended to be used by or on behalf of law enforcement authorities, or by Union institutions, bodies, offices or agencies in support of law enforcement authorities or on their behalf to assess the risk of a natural person becoming the victim of criminal offences;
a)
DI sistemos, skirtos naudoti teisėsaugos institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti teisėsaugos institucijoms įvertinti riziką, kad fizinis asmuo taps nusikalstamų veikų auka, arba tai darant jų vardu;
(b)
AI systems intended to be used by or on behalf of law enforcement authorities or by Union institutions, bodies, offices or agencies in support of law enforcement authorities as polygraphs or similar tools;
b)
DI sistemos, skirtos naudoti teisėsaugos institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti teisėsaugos institucijoms, kaip poligrafai ar panašios priemonės;
(c)
AI systems intended to be used by or on behalf of law enforcement authorities, or by Union institutions, bodies, offices or agencies, in support of law enforcement authorities to evaluate the reliability of evidence in the course of the investigation or prosecution of criminal offences;
c)
DI sistemos, skirtos naudoti teisėsaugos institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti teisėsaugos institucijoms įvertinti įrodymų patikimumą tiriant nusikalstamas veikas arba vykdant baudžiamąjį persekiojimą už jas;
(d)
AI systems intended to be used by law enforcement authorities or on their behalf or by Union institutions, bodies, offices or agencies in support of law enforcement authorities for assessing the risk of a natural person offending or re-offending not solely on the basis of the profiling of natural persons as referred to in Article 3(4) of Directive (EU) 2016/680, or to assess personality traits and characteristics or past criminal behaviour of natural persons or groups;
d)
DI sistemos, skirtos naudoti teisėsaugos institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti teisėsaugos institucijoms įvertinti fizinio asmens nusikalstamumo ar pakartotinio nusikalstamumo riziką remiantis ne tik fizinių asmenų profiliavimu, kaip nurodyta Direktyvos (ES) 2016/680 3 straipsnio 4 dalyje, arba įvertinti fizinių asmenų arba grupių asmenybės bruožus ir savybes arba ankstesnį nusikalstamą elgesį;
(e)
AI systems intended to be used by or on behalf of law enforcement authorities or by Union institutions, bodies, offices or agencies in support of law enforcement authorities for the profiling of natural persons as referred to in Article 3(4) of Directive (EU) 2016/680 in the course of the detection, investigation or prosecution of criminal offences.
e)
DI sistemos, skirtos naudoti teisėsaugos institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti teisėsaugos institucijoms profiliuoti fizinius asmenis, kaip nurodyta Direktyvos (ES) 2016/680 3 straipsnio 4 dalyje, išaiškinant ar tiriant nusikalstamas veikas arba vykdant baudžiamąjį persekiojimą už jas.
7.
Migration, asylum and border control management, in so far as their use is permitted under relevant Union or national law:
7.
Migracija, prieglobstis ir sienų kontrolės valdymas, jei DI sistemas leidžiama naudoti pagal atitinkamus Sąjungos ar nacionalinės teisės aktus:
(a)
AI systems intended to be used by or on behalf of competent public authorities or by Union institutions, bodies, offices or agencies as polygraphs or similar tools;
a)
DI sistemos, skirtos naudoti kompetentingose valdžios institucijose arba Sąjungos institucijose, įstaigose, organuose ar agentūrose arba jų vardu kaip poligrafai ar panašios priemonės;
(b)
AI systems intended to be used by or on behalf of competent public authorities or by Union institutions, bodies, offices or agencies to assess a risk, including a security risk, a risk of irregular migration, or a health risk, posed by a natural person who intends to enter or who has entered into the territory of a Member State;
b)
DI sistemos, skirtos naudoti kompetentingose valdžios institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant įvertinti riziką, įskaitant saugumo riziką, neteisėtos migracijos riziką arba riziką sveikatai, kurią kelia fizinis asmuo, ketinantis atvykti į valstybės narės teritoriją arba į ją atvykęs;
(c)
AI systems intended to be used by or on behalf of competent public authorities or by Union institutions, bodies, offices or agencies to assist competent public authorities for the examination of applications for asylum, visa or residence permits and for associated complaints with regard to the eligibility of the natural persons applying for a status, including related assessments of the reliability of evidence;
c)
DI sistemos, skirtos naudoti kompetentingose valdžios institucijose ar jų vardu arba Sąjungos institucijose, įstaigose, organuose ar agentūrose, siekiant padėti kompetentingoms valdžios institucijoms išnagrinėti prašymus suteikti prieglobstį, išduoti vizą ar leidimus gyventi ir susijusius skundus dėl fizinių asmenų tinkamumo prašyti suteikti tam tikrą statusą, įskaitant susijusius įrodymų patikimumo vertinimus;
(d)
AI systems intended to be used by or on behalf of competent public authorities, or by Union institutions, bodies, offices or agencies, in the context of migration, asylum or border control management, for the purpose of detecting, recognising or identifying natural persons, with the exception of the verification of travel documents.
d)
DI sistemos, skirtos naudoti kompetentingose valdžios institucijose arba Sąjungos institucijose, įstaigose, organuose ar agentūrose arba jų vardu migracijos, prieglobsčio ar sienų kontrolės valdymo kontekste fizinių asmenų aptikimo, atpažinimo arba identifikavimo tikslu, išskyrus kelionės dokumentų tikrinimą.
8.
Administration of justice and democratic processes:
8.
Teisingumo vykdymas ir demokratiniai procesai:
(a)
AI systems intended to be used by a judicial authority or on their behalf to assist a judicial authority in researching and interpreting facts and the law and in applying the law to a concrete set of facts, or to be used in a similar way in alternative dispute resolution;
a)
DI sistemos, skirtos naudoti teisminėse institucijose arba jų vardu, siekiant padėti teisminei institucijai tirti ir aiškinti faktus bei įstatymus ir taikyti įstatymus konkretiems faktų rinkiniams, arba skirtas naudoti panašiu būdu alternatyvaus ginčų sprendimo procese;
(b)
AI systems intended to be used for influencing the outcome of an election or referendum or the voting behaviour of natural persons in the exercise of their vote in elections or referenda. This does not include AI systems to the output of which natural persons are not directly exposed, such as tools used to organise, optimise or structure political campaigns from an administrative or logistical point of view.
b)
DI sistemos, skirtos naudoti siekiant daryti įtaką rinkimų ar referendumų rezultatams arba fizinių asmenų balsavimo elgsenai, kai jie balsuoja rinkimuose ar referendumuose. Tai neapima DI sistemų, kurių išvediniai fiziniams asmenims neturi tiesioginio poveikio, pavyzdžiui, priemonių, naudojamų politinėms kampanijoms organizuoti, optimizuoti ar struktūrizuoti administraciniu ar logistiniu požiūriu.
ANNEX IV
IV PRIEDAS
Technical documentation referred to in Article 11(1)
11 straipsnio 1 dalyje nurodyti techniniai dokumentai
The technical documentation referred to in Article 11(1) shall contain at least the following information, as applicable to the relevant AI system:
11 straipsnio 1 dalyje nurodytuose techniniuose dokumentuose pateikiama bent ši informacija, kuri taikoma atitinkamai DI sistemai:
1.
A general description of the AI system including:
1)
bendras DI sistemos aprašymas, įskaitant:
(a)
its intended purpose, the name of the provider and the version of the system reflecting its relation to previous versions;
a)
numatytąją paskirtį, tiekėjo pavadinimą bei sistemos versiją, atspindinčią jos ryšį su ankstesnėmis versijomis;
(b)
how the AI system interacts with, or can be used to interact with, hardware or software, including with other AI systems, that are not part of the AI system itself, where applicable;
b)
kai taikytina, tai, kaip DI sistema sąveikauja su aparatine arba programine įranga, be kita ko, su kitomis DI sistemomis, kurios nėra pačios DI sistemos sudedamoji dalis, arba kaip ji gali būti naudojama, kad sąveikautų su tokia įranga;
(c)
the versions of relevant software or firmware, and any requirements related to version updates;
c)
atitinkamos programinės įrangos arba aparatinės programinės įrangos versijas ir su versijos atnaujinimais susijusius bet kokius reikalavimus;
(d)
the description of all the forms in which the AI system is placed on the market or put into service, such as software packages embedded into hardware, downloads, or APIs;
d)
visų DI sistemos pateikimo rinkai arba pradėjimo naudoti formų, pvz., į aparatinę įrangą instaliuotų programinės įrangos paketų, parsisiuntimų ar API, aprašymą;
(e)
the description of the hardware on which the AI system is intended to run;
e)
aparatinės įrangos, kurią naudojant numatoma naudoti DI sistemą, aprašymą;
(f)
where the AI system is a component of products, photographs or illustrations showing external features, the marking and internal layout of those products;
f)
jeigu DI sistema yra gaminių komponentas, nuotraukas arba iliustracijas, kuriose matomi tų gaminių išorės požymiai, ženklinimas ir vidaus sandara;
(g)
a basic description of the user-interface provided to the deployer;
g)
diegėjui pateiktos naudotojo sąsajos pagrindinį aprašymą;
(h)
instructions for use for the deployer, and a basic description of the user-interface provided to the deployer, where applicable;
h)
diegėjui skirtos naudojimo instrukcijos ir, kai taikytina, diegėjui pateiktos naudotojo sąsajos pagrindinį aprašymą;
2.
A detailed description of the elements of the AI system and of the process for its development, including:
2)
išsamus DI sistemos ir jos kūrimo proceso elementų aprašymas, įskaitant:
(a)
the methods and steps performed for the development of the AI system, including, where relevant, recourse to pre-trained systems or tools provided by third parties and how those were used, integrated or modified by the provider;
a)
metodus ir etapus, susijusius su DI sistemos kūrimu, įskaitant, kai aktualu, iš anksto apmokytų sistemų arba įrankių, kuriuos suteikė trečiosios šalys, naudojimą ir tai, kaip tiekėjas juos panaudojo, integravo arba pakeitė;
(b)
the design specifications of the system, namely the general logic of the AI system and of the algorithms; the key design choices including the rationale and assumptions made, including with regard to persons or groups of persons in respect of who, the system is intended to be used; the main classification choices; what the system is designed to optimise for, and the relevance of the different parameters; the description of the expected output and output quality of the system; the decisions about any possible trade-off made regarding the technical solutions adopted to comply with the requirements set out in Chapter III, Section 2;
b)
sistemos modelio specifikacijas, būtent bendrą DI sistemos ir algoritmų logiką; pagrindinius projektavimo sprendimus, įskaitant loginį pagrindą ir prielaidas, be kita ko, dėl asmenų ar asmenų grupių, kurių atžvilgiu sistema skirta naudoti; pagrindinius klasifikacijos sprendimus; tai, ką sistema siekiama optimizuoti, ir įvairių parametrų svarbą; numatomo sistemos išvedinio ir išvedinio kokybės aprašymą; sprendimus dėl bet kokių galimų kompromisų, susijusių su techniniais sprendimais, kurie buvo įgyvendinti siekiant laikytis III skyriaus 2 skirsnyje nustatytų reikalavimų;
(c)
the description of the system architecture explaining how software components build on or feed into each other and integrate into the overall processing; the computational resources used to develop, train, test and validate the AI system;
c)
sistemos architektūros aprašymą, kuriame paaiškinama, kaip programinės įrangos komponentai remiasi vienas kitu arba kaip papildo vienas kitą ir kaip jie integruoti į visą apdorojimo procesą; kompiuterinio apdorojimo išteklius, kurie buvo naudojami DI sistemai kurti, mokyti, bandyti ir validuoti;
(d)
where relevant, the data requirements in terms of datasheets describing the training methodologies and techniques and the training data sets used, including a general description of these data sets, information about their provenance, scope and main characteristics; how the data was obtained and selected; labelling procedures (e.g. for supervised learning), data cleaning methodologies (e.g. outliers detection);
d)
kai aktualu, duomenų reikalavimus, nustatytus duomenų lapuose, kuriuose aprašomos mokymo metodikos ir būdai, ir naudojamus mokymo duomenų rinkinius, įskaitant bendrą šių duomenų rinkinių aprašymą, informaciją apie jų kilmę, taikymo sritį ir pagrindinius ypatumus; tai, kaip duomenys buvo gauti ir atrinkti; ženklinimo procedūras (pvz., prižiūrimojo mokymosi), duomenų valymo metodikas (pvz., išskirčių nustatymas);
(e)
assessment of the human oversight measures needed in accordance with Article 14, including an assessment of the technical measures needed to facilitate the interpretation of the outputs of AI systems by the deployers, in accordance with Article 13(3), point (d);
e)
žmogaus atliekamos priežiūros priemonių, reikalingų pagal 14 straipsnį, vertinimą, įskaitant techninių priemonių, kurios reikalingos siekiant padėti diegėjams interpretuoti DI sistemų išvedinius pagal 13 straipsnio 3 dalies d punktą, vertinimą;
(f)
where applicable, a detailed description of pre-determined changes to the AI system and its performance, together with all the relevant information related to the technical solutions adopted to ensure continuous compliance of the AI system with the relevant requirements set out in Chapter III, Section 2;
f)
kai taikytina, išsamų iš anksto nustatytų DI sistemos ir jos veikimo efektyvumo pakeitimų aprašymą, įskaitant visą atitinkamą informaciją, susijusią su techniniais sprendimais, įgyvendintais siekiant užtikrinti nuolatinę DI sistemos atitiktį atitinkamiems III skyriaus 2 skirsnyje išdėstytiems reikalavimams;
(g)
the validation and testing procedures used, including information about the validation and testing data used and their main characteristics; metrics used to measure accuracy, robustness and compliance with other relevant requirements set out in Chapter III, Section 2, as well as potentially discriminatory impacts; test logs and all test reports dated and signed by the responsible persons, including with regard to pre-determined changes as referred to under point (f);
g)
naudotas validavimo ir bandymo procedūras, įskaitant informaciją apie naudotus validavimo ir bandymo duomenis ir jų pagrindines charakteristikas; metriką, kuri buvo naudota tikslumui, patvarumui ir atitikčiai kitiems susijusiems reikalavimams, nustatytiems III skyriaus 2 skirsnyje, taip pat galimam diskriminaciniam poveikiui įvertinti; bandymų žurnalus ir visas bandymų ataskaitas, kuriuose nurodoma data ir kuriuos pasirašo atsakingi asmenys, taip pat atsižvelgiant į f punkte nurodytus iš anksto nustatytus pakeitimus;
(h)
cybersecurity measures put in place;
h)
taikomas kibernetinio saugumo priemones;
3.
Detailed information about the monitoring, functioning and control of the AI system, in particular with regard to: its capabilities and limitations in performance, including the degrees of accuracy for specific persons or groups of persons on which the system is intended to be used and the overall expected level of accuracy in relation to its intended purpose; the foreseeable unintended outcomes and sources of risks to health and safety, fundamental rights and discrimination in view of the intended purpose of the AI system; the human oversight measures needed in accordance with Article 14, including the technical measures put in place to facilitate the interpretation of the outputs of AI systems by the deployers; specifications on input data, as appropriate;
3)
išsami informacija apie DI sistemos stebėseną, veikimą ir kontrolę, visų pirma atsižvelgiant į: jos veikimo efektyvumo pajėgumus ir ribotumus, įskaitant tikslumo laipsnius konkrečių asmenų arba asmenų grupių, kurių atžvilgiu numatoma naudoti sistemą, atveju ir bendrą tikėtiną tikslumo lygį, atsižvelgiant į numatytąją paskirtį; įmanomas numatyti nepageidaujamas pasekmes ir rizikos sveikatai ir saugai, pagrindinėms teisėms ir susijusius su diskriminacija šaltinius, atsižvelgiant į DI sistemos numatytąją paskirtį; žmogaus atliekamos priežiūros priemones, reikalingas pagal 14 straipsnį, įskaitant įdiegtas technines priemones, siekiant padėti diegėjams interpretuoti DI sistemų išvedinius; kai tinkama, įvesties duomenų specifikacijas;
4.
A description of the appropriateness of the performance metrics for the specific AI system;
4)
konkrečios DI sistemos veikimo efektyvumo metrikos tinkamumo aprašymas;
5.
A detailed description of the risk management system in accordance with Article 9;
5)
išsamus rizikos valdymo sistemos aprašymas pagal 9 straipsnį;
6.
A description of relevant changes made by the provider to the system through its lifecycle;
6)
atitinkamų sistemos pakeitimų, padarytų tiekėjo per jos gyvavimo ciklą, aprašymas;
7.
A list of the harmonised standards applied in full or in part the references of which have been published in the Official Journal of the European Union; where no such harmonised standards have been applied, a detailed description of the solutions adopted to meet the requirements set out in Chapter III, Section 2, including a list of other relevant standards and technical specifications applied;
7)
darniųjų standartų, taikomų visa apimtimi ar iš dalies, kurių nuorodos buvo paskelbtos Europos Sąjungos oficialiajame leidinyje, sąrašas; jeigu tokie darnieji standartai nebuvo taikomi, išsamus sprendimų, įgyvendintų siekiant laikytis III skyriaus 2 skirsnyje nurodytų reikalavimų, aprašymas, įskaitant kitų taikomų susijusių standartų ir techninių specifikacijų sąrašą;
8.
A copy of the EU declaration of conformity referred to in Article 47;
8)
47 straipsnyje nurodytą ES atitikties deklaracijos kopija;
9.
A detailed description of the system in place to evaluate the AI system performance in the post-market phase in accordance with Article 72, including the post-market monitoring plan referred to in Article 72(3).
9)
išsamus sistemos, taikomos vertinant DI sistemos veikimo efektyvumą stebėsenos po pateikimo rinkai etape pagal 72 straipsnį, aprašymas, įskaitant 72 straipsnio 3 dalyje nurodytą stebėsenos po pateikimo rinkai planą.
ANNEX V
V PRIEDAS
EU declaration of conformity
ES atitikties deklaracija
The EU declaration of conformity referred to in Article 47, shall contain all of the following information:
47 straipsnyje nurodytoje ES atitikties deklaracijoje pateikiama visa toliau nurodyta informacija:
1.
AI system name and type and any additional unambiguous reference allowing the identification and traceability of the AI system;
1)
DI sistemos pavadinimas, tipas ir bet kuri papildoma vienareikšmiška nuoroda, sudaranti sąlygas identifikuoti DI sistemą ir užtikrinti jos atsekamumą;
2.
The name and address of the provider or, where applicable, of their authorised representative;
2)
tiekėjo arba, kai taikytina, jo įgaliotojo atstovo pavadinimas (vardas ir pavardė) ir adresas;
3.
A statement that the EU declaration of conformity referred to in Article 47 is issued under the sole responsibility of the provider;
3)
pareiškimas, kad 47 straipsnyje nurodytą ES atitikties deklaracija parengta tik tiekėjo atsakomybe;
4.
A statement that the AI system is in conformity with this Regulation and, if applicable, with any other relevant Union law that provides for the issuing of the EU declaration of conformity referred to in Article 47;
4)
pareiškimas, kad DI sistema atitinka šį reglamentą ir, jei taikytina, kitus atitinkamus Sąjungos teisės aktus, pagal kuriuos numatyta išduoti 47 straipsnyje nurodytą ES atitikties deklaraciją;
5.
Where an AI system involves the processing of personal data, a statement that that AI system complies with Regulations (EU) 2016/679 and (EU) 2018/1725 and Directive (EU) 2016/680;
5)
tais atvejais, kai naudojant DI sistemą tvarkomi asmens duomenys, – pareiškimas, kad DI sistema atitinka reglamentus (ES) 2016/679 ir (ES) 2018/1725 bei Direktyvą (ES) 2016/680;
6.
References to any relevant harmonised standards used or any other common specification in relation to which conformity is declared;
6)
nuoroda į bet kuriuos naudojamus susijusius darniuosius standartus arba bet kurią kitą bendrąją specifikaciją, atitiktis kuriems yra deklaruojama;
7.
Where applicable, the name and identification number of the notified body, a description of the conformity assessment procedure performed, and identification of the certificate issued;
7)
kai taikytina, notifikuotosios įstaigos pavadinimas ir identifikacinis numeris, atliktos atitikties vertinimo procedūros aprašymas ir išduoto sertifikato identifikaciniai duomenys;
8.
The place and date of issue of the declaration, the name and function of the person who signed it, as well as an indication for, or on behalf of whom, that person signed, a signature.
8)
deklaracijos parengimo vieta ir data, ją pasirašiusio asmens vardas, pavardė ir pareigos, taip pat duomenys apie tai, kieno vardu jis pasirašė, ir parašas.
ANNEX VI
VI PRIEDAS
Conformity assessment procedure based on internal control
Vidaus kontrole pagrįsta atitikties vertinimo procedūra
1.
1.
The conformity assessment procedure based on internal control is the conformity assessment procedure based on points 2, 3 and 4.
Vidaus kontrole pagrįsta atitikties vertinimo procedūra – tai 2, 3 ir 4 punktais pagrįsta atitikties vertinimo procedūra.
2.
2.
The provider verifies that the established quality management system is in compliance with the requirements of Article 17.
Tiekėjas patikrina, ar nustatyta kokybės valdymo sistema atitinka 17 straipsnio reikalavimus.
3.
3.
The provider examines the information contained in the technical documentation in order to assess the compliance of the AI system with the relevant essential requirements set out in Chapter III, Section 2.
Tiekėjas nagrinėja techniniuose dokumentuose pateiktą informaciją, kad įvertintų DI sistemos atitiktį atitinkamiems III skyriaus 2 skirsnyje išvardytiems esminiams reikalavimams.
4.
4.
The provider also verifies that the design and development process of the AI system and its post-market monitoring as referred to in Article 72 is consistent with the technical documentation.
Tiekėjas taip pat patikrina, ar 72 straipsnyje nurodytas DI sistemos projektavimo ir kūrimo procesas ir DI sistemos stebėsena po pateikimo rinkai atitinka techninius dokumentus.
ANNEX VII
VII PRIEDAS
Conformity based on an assessment of the quality management system and an assessment of the technical documentation
Atitiktis, grindžiama kokybės valdymo sistemos vertinimu ir techninių dokumentų vertinimu
1. Introduction
1. Įvadas
Conformity based on an assessment of the quality management system and an assessment of the technical documentation is the conformity assessment procedure based on points 2 to 5.
Atitiktis, grindžiama kokybės valdymo sistemos vertinimu ir techninių dokumentų vertinimu, yra atitikties vertinimo procedūra pagal 2–5 punktus.
2. Overview
2. Apžvalga
The approved quality management system for the design, development and testing of AI systems pursuant to Article 17 shall be examined in accordance with point 3 and shall be subject to surveillance as specified in point 5. The technical documentation of the AI system shall be examined in accordance with point 4.
Patvirtinta kokybės valdymo sistema, skirta DI sistemoms projektuoti, kurti ir bandyti pagal 17 straipsnį, nagrinėjama pagal 3 punktą ir jai taikoma 5 punkte nurodyta priežiūra. DI sistemos techniniai dokumentai nagrinėjami pagal 4 punktą.
3. Quality management system
3. Kokybės valdymo sistema
3.1.
The application of the provider shall include:
3.1.
Tiekėjo paraiškoje nurodomas (pateikiamas):
(a)
the name and address of the provider and, if the application is lodged by an authorised representative, also their name and address;
a)
tiekėjo pavadinimas (vardas ir pavardė) ir adresas, o jei paraišką pateikia įgaliotasis atstovas – ir to atstovo pavadinimas (vardas ir pavardė) ir adresas;
(b)
the list of AI systems covered under the same quality management system;
b)
DI sistemų, kurioms taikoma ta pati kokybės valdymo sistema, sąrašas;
(c)
the technical documentation for each AI system covered under the same quality management system;
c)
kiekvienos DI sistemos, kuriai taikoma ta pati kokybės valdymo sistema, techniniai dokumentai;
(d)
the documentation concerning the quality management system which shall cover all the aspects listed under Article 17;
d)
dokumentai, susiję su kokybės valdymo sistema, kurie apima visus 17 straipsnyje išvardytus aspektus;
(e)
a description of the procedures in place to ensure that the quality management system remains adequate and effective;
e)
taikomų procedūrų siekiant užtikrinti, kad kokybės valdymo sistema išliktų tinkama ir veiksminga, aprašymas;
(f)
a written declaration that the same application has not been lodged with any other notified body.
f)
rašytinis pareiškimas, kad tokia pati paraiška nebuvo pateikta jokiai kitai notifikuotajai įstaigai.
3.2.
The quality management system shall be assessed by the notified body, which shall determine whether it satisfies the requirements referred to in Article 17.
3.2.
Kokybės valdymo sistemą įvertina notifikuotoji įstaiga siekdama nustatyti, ar sistema atitinka 17 straipsnyje nurodytus reikalavimus.
The decision shall be notified to the provider or its authorised representative.
Apie sprendimą pranešama tiekėjui arba jo įgaliotajam atstovui.
The notification shall contain the conclusions of the assessment of the quality management system and the reasoned assessment decision.
Pranešime pateikiamos kokybės valdymo sistemos vertinimo išvados ir motyvuotas sprendimas dėl įvertinimo.
3.3.
The quality management system as approved shall continue to be implemented and maintained by the provider so that it remains adequate and efficient.
3.3.
Tiekėjas toliau įgyvendina ir prižiūri patvirtintą kokybės valdymo sistemą, kad ji išliktų tinkama ir veiksminga.
3.4.
Any intended change to the approved quality management system or the list of AI systems covered by the latter shall be brought to the attention of the notified body by the provider.
3.4.
Apie bet kokį numatytą patvirtintos kokybės valdymo sistemos arba DI sistemų, kurioms taikoma minėta kokybės valdymo sistema, sąrašo pakeitimą tiekėjas praneša notifikuotajai įstaigai.
The proposed changes shall be examined by the notified body, which shall decide whether the modified quality management system continues to satisfy the requirements referred to in point 3.2 or whether a reassessment is necessary.
Notifikuotoji įstaiga išnagrinėja siūlomus pakeitimus ir nusprendžia, ar pakeista kokybės valdymo sistema ir toliau atitinka 3.2 punkte nurodytus reikalavimus, ar kokybės valdymo sistemą reikia įvertinti iš naujo.
The notified body shall notify the provider of its decision. The notification shall contain the conclusions of the examination of the changes and the reasoned assessment decision.
Notifikuotoji įstaiga savo sprendimą praneša tiekėjui. Pranešime pateikiamos pakeitimų nagrinėjimo išvados ir motyvuotas sprendimas dėl įvertinimo.
4. Control of the technical documentation.
4. Techninių dokumentų kontrolė.
4.1.
In addition to the application referred to in point 3, an application with a notified body of their choice shall be lodged by the provider for the assessment of the technical documentation relating to the AI system which the provider intends to place on the market or put into service and which is covered by the quality management system referred to under point 3.
4.1.
Be 3 punkte nurodytos paraiškos, tiekėjas teikia pasirinktai notifikuotajai įstaigai paraišką, kad būtų įvertinti techniniai dokumentai, susiję su DI sistema, kurią tiekėjas ketina pateikti rinkai arba pradėti naudoti ir kuriai taikoma 3 punkte nurodyta kokybės valdymo sistema.
4.2.
The application shall include:
4.2.
Paraiškoje nurodoma:
(a)
the name and address of the provider;
a)
tiekėjo pavadinimas (vardas ir pavardė) ir adresas;
(b)
a written declaration that the same application has not been lodged with any other notified body;
b)
rašytinis pareiškimas, kad tokia pati paraiška nebuvo pateikta jokiai kitai notifikuotajai įstaigai;
(c)
the technical documentation referred to in Annex IV.
c)
techniniai dokumentai, nurodyti IV priede.
4.3.
The technical documentation shall be examined by the notified body. Where relevant, and limited to what is necessary to fulfil its tasks, the notified body shall be granted full access to the training, validation, and testing data sets used, including, where appropriate and subject to security safeguards, through API or other relevant technical means and tools enabling remote access.
4.3.
Techninius dokumentus nagrinėja notifikuotoji įstaiga. Kai aktualu ir neviršijama to, kas būtina notifikuotosios įstaigos užduotims atlikti, jai suteikiama visapusiška prieiga prie naudojamų mokymo, validavimo ir bandymo duomenų rinkinių, įskaitant, kai tinkama ir taikant apsaugos priemones, API arba kitas atitinkamas technines priemones ir įrankius, kurie sudaro sąlygas nuotolinei prieigai.
4.4.
In examining the technical documentation, the notified body may require that the provider supply further evidence or carry out further tests so as to enable a proper assessment of the conformity of the AI system with the requirements set out in Chapter III, Section 2. Where the notified body is not satisfied with the tests carried out by the provider, the notified body shall itself directly carry out adequate tests, as appropriate.
4.4.
Nagrinėdama techninius dokumentus notifikuotoji įstaiga gali prašyti, kad tiekėjas pateiktų papildomų įrodymų arba atliktų tolesnius bandymus ir taip sudarytų sąlygas tinkamai įvertinti DI sistemos atitiktį III skyriaus 2 skirsnyje nustatytiems reikalavimams. Visais atvejais, kai notifikuotosios įstaigos netenkina tiekėjo atlikti bandymai, notifikuotoji įstaiga, kai tinkama, pati tiesiogiai atlieka tinkamus bandymus.
4.5.
Where necessary to assess the conformity of the high-risk AI system with the requirements set out in Chapter III, Section 2, after all other reasonable means to verify conformity have been exhausted and have proven to be insufficient, and upon a reasoned request, the notified body shall also be granted access to the training and trained models of the AI system, including its relevant parameters. Such access shall be subject to existing Union law on the protection of intellectual property and trade secrets.
4.5.
Kai būtina įvertinti didelės rizikos DI sistemos atitiktį III skyriaus 2 skirsnyje nustatytiems reikalavimams, išnaudojus visus kitus pagrįstus atitikties tikrinimo būdus ir paaiškėjus, kad jų nepakanka, ir gavus pagrįstą prašymą, notifikuotajai įstaigai taip pat suteikiama prieiga prie DI sistemos mokymo ir išmokytų modelių, įskaitant atitinkamus sistemos parametrus. Tokiai prieigai taikoma galiojanti Sąjungos teisė dėl intelektinės nuosavybės ir komercinių paslapčių apsaugos.
4.6.
The decision of the notified body shall be notified to the provider or its authorised representative. The notification shall contain the conclusions of the assessment of the technical documentation and the reasoned assessment decision.
4.6.
Apie notifikuotosios įstaigos sprendimą pranešama tiekėjui arba jo įgaliotajam atstovui. Pranešime pateikiamos techninių dokumentų vertinimo išvados ir motyvuotas sprendimas dėl įvertinimo.
Where the AI system is in conformity with the requirements set out in Chapter III, Section 2, the notified body shall issue a Union technical documentation assessment certificate. The certificate shall indicate the name and address of the provider, the conclusions of the examination, the conditions (if any) for its validity and the data necessary for the identification of the AI system.
Jeigu DI sistema atitinka III skyriaus 2 skirsnyje nustatytus reikalavimus, notifikuotoji įstaiga išduoda Sąjungos techninių dokumentų įvertinimo sertifikatą. Sertifikate nurodomas tiekėjo pavadinimas (vardas ir pavardė) ir adresas, nagrinėjimo išvados, jo galiojimo sąlygos (jei yra) ir DI sistemos identifikavimui būtini duomenys.
The certificate and its annexes shall contain all relevant information to allow the conformity of the AI system to be evaluated, and to allow for control of the AI system while in use, where applicable.
Sertifikate ir jo prieduose pateikiama visa atitinkama informacija, kad būtų sudarytos sąlygos DI sistemos atitikčiai įvertinti ir, kai taikytina, DI sistemai kontroliuoti tuo metu, kai ji naudojama.
Where the AI system is not in conformity with the requirements set out in Chapter III, Section 2, the notified body shall refuse to issue a Union technical documentation assessment certificate and shall inform the applicant accordingly, giving detailed reasons for its refusal.
Jeigu DI sistema neatitinka III skyriaus 2 skirsnyje nustatytų reikalavimų, notifikuotoji įstaiga atsisako išduoti Sąjungos techninių dokumentų įvertinimo sertifikatą ir atitinkamai informuoja pareiškėją, nurodydama išsamias atsisakymo priežastis.
Where the AI system does not meet the requirement relating to the data used to train it, re-training of the AI system will be needed prior to the application for a new conformity assessment. In this case, the reasoned assessment decision of the notified body refusing to issue the Union technical documentation assessment certificate shall contain specific considerations on the quality data used to train the AI system, in particular on the reasons for non-compliance.
Jeigu DI sistema neatitinka reikalavimo, susijusio su jos mokymui naudotais duomenimis, prieš pateikiant paraišką dėl naujo DI sistemos atitikties vertinimo, sistema turės būti pakartotinai mokoma. Šiuo atveju notifikuotosios įstaigos pagrįstame sprendime dėl vertinimo, kuriuo atsisakoma išduoti Sąjungos techninių dokumentų įvertinimo sertifikatą, nurodomos konkrečios aplinkybės, susijusios su duomenų, naudotų mokant DI sistemą, kokybe, visų pirma su neatitikties priežastimis.
4.7.
Any change to the AI system that could affect the compliance of the AI system with the requirements or its intended purpose shall be assessed by the notified body which issued the Union technical documentation assessment certificate. The provider shall inform such notified body of its intention to introduce any of the abovementioned changes, or if it otherwise becomes aware of the occurrence of such changes. The intended changes shall be assessed by the notified body, which shall decide whether those changes require a new conformity assessment in accordance with Article 43(4) or whether they could be addressed by means of a supplement to the Union technical documentation assessment certificate. In the latter case, the notified body shall assess the changes, notify the provider of its decision and, where the changes are approved, issue to the provider a supplement to the Union technical documentation assessment certificate.
4.7.
Bet kurį DI sistemos pakeitimą, kuris galėtų turėti įtakos DI sistemos atitikčiai reikalavimams arba jos numatytajai paskirčiai, įvertina Sąjungos techninių dokumentų įvertinimo sertifikatą išdavusi notifikuotoji įstaiga. Tiekėjas informuoja tokią notifikuotąją įstaigą apie savo ketinimą atlikti bet kurį iš pirmiau minėtų pakeitimų arba jeigu jis kitais būdais sužino apie tokius pakeitimus. Notifikuotoji įstaiga įvertina numatomus pakeitimus ir nusprendžia, ar dėl tų pakeitimų reikia atlikti naują atitikties vertinimą pagal 43 straipsnio 4 dalį, ar dėl jų galima išduoti Sąjungos techninių dokumentų įvertinimo sertifikato papildymą. Pastaruoju atveju notifikuotoji įstaiga įvertina pakeitimus, praneša tiekėjui apie savo sprendimą ir, jei pakeitimai patvirtinami, pateikia jam Sąjungos techninių dokumentų įvertinimo sertifikato papildymą.
5. Surveillance of the approved quality management system.
5. Patvirtintos kokybės valdymo sistemos priežiūra.
5.1.
The purpose of the surveillance carried out by the notified body referred to in Point 3 is to make sure that the provider duly complies with the terms and conditions of the approved quality management system.
5.1.
Notifikuotosios įstaigos atliekamos priežiūros pagal 3 punktą tikslas – užtikrinti, kad tiekėjas tinkamai laikytųsi patvirtintos kokybės valdymo sistemos sąlygų.
5.2.
For assessment purposes, the provider shall allow the notified body to access the premises where the design, development, testing of the AI systems is taking place. The provider shall further share with the notified body all necessary information.
5.2.
Vertinimo tikslais tiekėjas leidžia notifikuotajai įstaigai patekti į patalpas, kuriose kuriamos, plėtojamos ir bandomos DI sistemos. Tiekėjas su notifikuotąja įstaiga toliau dalijasi visa būtina informacija.
5.3.
The notified body shall carry out periodic audits to make sure that the provider maintains and applies the quality management system and shall provide the provider with an audit report. In the context of those audits, the notified body may carry out additional tests of the AI systems for which a Union technical documentation assessment certificate was issued.
5.3.
Siekdama užtikrinti, kad tiekėjas nuolat taikytų kokybės valdymo sistemą, notifikuotoji įstaiga periodiškai vykdo auditą ir tiekėjui pateikia audito ataskaitas. Šių auditų kontekste notifikuotoji įstaiga gali atlikti papildomus DI sistemos, dėl kurios buvo išduotas Sąjungos techninių dokumentų įvertinimo sertifikatas, bandymus.
ANNEX VIII
VIII PRIEDAS
Information to be submitted upon the registration of high-risk AI systems in accordance with Article 49
Informacija, kurią reikia pateikti užregistravus didelės rizikos DI sistemas pagal 49 straipsnį
Section A — Information to be submitted by providers of high-risk AI systems in accordance with Article 49(1)
A skirsnis. Informacija, kurią didelės rizikos DI sistemų tiekėjai turi pateikti pagal 49 straipsnio 1 dalį
The following information shall be provided and thereafter kept up to date with regard to high-risk AI systems to be registered in accordance with Article 49(1):
Toliau nurodyta informacija dėl didelės rizikos DI sistemų, kurias reikia užregistruoti pagal 49 straipsnio 1 dalį, turi būti pateikiama ir paskui nuolat atnaujinama:
1.
The name, address and contact details of the provider;
1)
tiekėjo pavadinimas (vardas ir pavardė), adresas ir kontaktiniai duomenys;
2.
Where submission of information is carried out by another person on behalf of the provider, the name, address and contact details of that person;
2)
kai informaciją pateikia kitas asmuo tiekėjo vardu – to asmens (vardas ir pavardė), adresas ir kontaktiniai duomenys;
3.
The name, address and contact details of the authorised representative, where applicable;
3)
kai taikytina, įgaliotojo atstovo pavadinimas (vardas ir pavardė), adresas ir kontaktiniai duomenys;
4.
The AI system trade name and any additional unambiguous reference allowing the identification and traceability of the AI system;
4)
DI sistemos prekybinis pavadinimas ir bet kuri papildoma vienareikšmiška nuoroda, sudaranti sąlygas identifikuoti DI sistemą ir užtikrinti jos atsekamumą;
5.
A description of the intended purpose of the AI system and of the components and functions supported through this AI system;
5)
DI sistemos numatytosios paskirties ir naudojant šią DI sistemą palaikomų komponentų bei funkcijų aprašymas;
6.
A basic and concise description of the information used by the system (data, inputs) and its operating logic;
6)
būtiniausias glaustas sistemos naudojamos informacijos (duomenų, įvedinių) ir jos veikimo logikos aprašymas;
7.
The status of the AI system (on the market, or in service; no longer placed on the market/in service, recalled);
7)
DI sistemos statusas (pateikta rinkai arba naudojama; nebeteikiama rinkai / nebenaudojama, atšaukta);
8.
The type, number and expiry date of the certificate issued by the notified body and the name or identification number of that notified body, where applicable;
8)
notifikuotosios įstaigos išduoto sertifikato rūšis, numeris ir galiojimo pabaigos data ir, kai taikytina, tos notifikuotosios įstaigos pavadinimas arba identifikacinis numeris;
9.
A scanned copy of the certificate referred to in point 8, where applicable;
9)
kai taikytina, 8 punkte nurodyto sertifikato skenuota kopija;
10.
Any Member States in which the AI system has been placed on the market, put into service or made available in the Union;
10)
valstybės narės, kuriose DI sistema buvo pateikta rinkai, pradėta naudoti arba yra patiekta Sąjungoje;
11.
A copy of the EU declaration of conformity referred to in Article 47;
11)
47 straipsnyje nurodytos ES atitikties deklaracijos kopija;
12.
Electronic instructions for use; this information shall not be provided for high-risk AI systems in the areas of law enforcement or migration, asylum and border control management referred to in Annex III, points 1, 6 and 7;
12)
elektroninės naudojimo instrukcijos. Ši informacija neteikiama dėl didelės rizikos DI sistemų, naudojamų teisėsaugos ar migracijos, prieglobsčio ir sienų kontrolės valdymo, kaip nurodyta III priedo 1, 6 ir 7 punktuose, srityse;
13.
A URL for additional information (optional).
13)
URL, kaip papildoma informacija (neprivaloma).
Section B — Information to be submitted by providers of high-risk AI systems in accordance with Article 49(2)
B skirsnis. Informacija dėl didelės rizikos DI sistemų, kurią tiekėjai turi pateikti pagal 49 straipsnį
The following information shall be provided and thereafter kept up to date with regard to AI systems to be registered in accordance with Article 49(2):
Toliau nurodyta informacija dėl DI sistemų, kurias reikia užregistruoti pagal 49 straipsnio 2 dalį, turi būti pateikiama ir paskui nuolat atnaujinama:
1.
The name, address and contact details of the provider;
1)
tiekėjo pavadinimas (vardas ir pavardė), adresas ir kontaktiniai duomenys;
2.
Where submission of information is carried out by another person on behalf of the provider, the name, address and contact details of that person;
2)
kai informaciją pateikia kitas asmuo tiekėjo vardu – to asmens pavadinimas (vardas ir pavardė), adresas ir kontaktiniai duomenys,
3.
The name, address and contact details of the authorised representative, where applicable;
3)
kai taikytina, įgaliotojo atstovo pavadinimas (vardas ir pavardė), adresas ir kontaktiniai duomenys;
4.
The AI system trade name and any additional unambiguous reference allowing the identification and traceability of the AI system;
4)
DI sistemos prekybinis pavadinimas ir bet kuri papildoma vienareikšmiška nuoroda, sudaranti sąlygas identifikuoti DI sistemą ir užtikrinti jos atsekamumą;
5.
A description of the intended purpose of the AI system;
5)
DI sistemos numatytosios paskirties aprašymas;
6.
The condition or conditions under Article 6(3)based on which the AI system is considered to be not-high-risk;
6)
6 straipsnio 3 dalyje nustatyta sąlyga ar sąlygos, kuriomis remiantis DI sistema laikoma ne didelės rizikos sistema;
7.
A short summary of the grounds on which the AI system is considered to be not-high-risk in application of the procedure under Article 6(3);
7)
trumpa pagrindų, kuriais remiantis DI sistema laikoma ne didelės rizikos sistema taikant procedūrą pagal 6 straipsnio 3 dalį, santrauka;
8.
The status of the AI system (on the market, or in service; no longer placed on the market/in service, recalled);
8)
DI sistemos statusas (pateikta rinkai arba naudojama; nebeteikiama rinkai / nebenaudojama, atšaukta);
9.
Any Member States in which the AI system has been placed on the market, put into service or made available in the Union.
9)
valstybės narės, kuriose DI sistema yra pateikta rinkai, pradedama arba yra pradėta naudoti arba tiekiama arba yra patiekta Sąjungoje.
Section C — Information to be submitted by deployers of high-risk AI systems in accordance with Article 49(3)
C skirsnis. Informacija dėl didelės rizikos DI sistemų, kurią diegėjai turi pateikti pagal 49 straipsnio 3 dalį
The following information shall be provided and thereafter kept up to date with regard to high-risk AI systems to be registered in accordance with Article 49(3):
Toliau nurodyta informacija dėl didelės rizikos DI sistemų, kurias reikia užregistruoti pagal 49 straipsnio 3 dalį, turi būti pateikiama ir paskui nuolat atnaujinama:
1.
The name, address and contact details of the deployer;
1)
diegėjo pavadinimas (vardas ir pavardė), adresas ir kontaktiniai duomenys;
2.
The name, address and contact details of the person submitting information on behalf of the deployer;
2)
diegėjo vardu informaciją teikiančio asmens (vardas ir pavardė), adresas ir kontaktiniai duomenys;
3.
The URL of the entry of the AI system in the EU database by its provider;
3)
DI sistemos ES duomenų bazėje URL, kurį pateikia jos tiekėjas;
4.
A summary of the findings of the fundamental rights impact assessment conducted in accordance with Article 27;
4)
poveikio pagrindinėms teisėms vertinimo, atlikto pagal 27 straipsnį, išvadų santrauka;
5.
A summary of the data protection impact assessment carried out in accordance with Article 35 of Regulation (EU) 2016/679 or Article 27 of Directive (EU) 2016/680 as specified in Article 26(8) of this Regulation, where applicable.
5)
jei taikytina, poveikio duomenų apsaugai vertinimo, atlikto pagal Reglamento (ES) 2016/679 35 straipsnį arba Direktyvos (ES) 2016/680 27 straipsnį, kaip nurodyta šio reglamento 26 straipsnio 8 dalyje, santrauka.
ANNEX IX
IX PRIEDAS
Information to be submitted upon the registration of high-risk AI systems listed in Annex III in relation to testing in real world conditions in accordance with Article 60
Informacija, kurią reikia pateikti registruojant III priede išvardytas didelės rizikos DI sistemas, kiek tai susiję su bandymu realiomis sąlygomis pagal 60 straipsnį
The following information shall be provided and thereafter kept up to date with regard to testing in real world conditions to be registered in accordance with Article 60:
Turi būti pateikiama ir po to nuolat atnaujinama toliau nurodyta informacija, susijusi su bandymu realiomis sąlygomis, kuris turi būti užregistruotas pagal 60 straipsnį:
1.
A Union-wide unique single identification number of the testing in real world conditions;
1)
visoje Sąjungoje taikomas vienintelis unikalusis bandymo realiomis sąlygomis identifikacinis numeris;
2.
The name and contact details of the provider or prospective provider and of the deployers involved in the testing in real world conditions;
2)
tiekėjo arba galimo tiekėjo ir diegėjų, dalyvaujančių bandyme realiomis sąlygomis, pavadinimas (vardas ir pavardė) ir kontaktiniai duomenys;
3.
A brief description of the AI system, its intended purpose, and other information necessary for the identification of the system;
3)
trumpas DI sistemos bei jos numatytosios paskirties aprašymas ir kita informacija, būtina sistemai identifikuoti;
4.
A summary of the main characteristics of the plan for testing in real world conditions;
4)
bandymo realiomis sąlygomis plano pagrindinių charakteristikų santrauka;
5.
Information on the suspension or termination of the testing in real world conditions.
5)
informacija apie bandymo realiomis sąlygomis sustabdymą arba nutraukimą.
ANNEX X
X PRIEDAS
Union legislative acts on large-scale IT systems in the area of Freedom, Security and Justice
Sąjungos teisėkūros procedūra priimami aktai dėl didelės apimties IT sistemų laisvės, saugumo ir teisingumo srityse
1. Schengen Information System
1. Šengeno informacinė sistema
(a)
Regulation (EU) 2018/1860 of the European Parliament and of the Council of 28 November 2018 on the use of the Schengen Information System for the return of illegally staying third-country nationals (OJ L 312, 7.12.2018, p. 1).
a)
2018 m. lapkričio 28 d. Europos Parlamento ir Tarybos reglamentas (ES) 2018/1860 dėl Šengeno informacinės sistemos naudojimo neteisėtai esančių trečiųjų šalių piliečių grąžinimui (OL L 312, 2018 12 7, p. 1);
(b)
Regulation (EU) 2018/1861 of the European Parliament and of the Council of 28 November 2018 on the establishment, operation and use of the Schengen Information System (SIS) in the field of border checks, and amending the Convention implementing the Schengen Agreement, and amending and repealing Regulation (EC) No 1987/2006 (OJ L 312, 7.12.2018, p. 14).
b)
2018 m. lapkričio 28 d. Europos Parlamento ir Tarybos reglamentas (ES) 2018/1861 dėl Šengeno informacinės sistemos (SIS) sukūrimo, eksploatavimo ir naudojimo patikrinimams kertant sieną, kuriuo iš dalies keičiama Konvencija dėl Šengeno susitarimo įgyvendinimo ir iš dalies keičiamas bei panaikinamas Reglamentas (EB) Nr. 1987/2006 (OL L 312, 2018 12 7, p. 14);
(c)
Regulation (EU) 2018/1862 of the European Parliament and of the Council of 28 November 2018 on the establishment, operation and use of the Schengen Information System (SIS) in the field of police cooperation and judicial cooperation in criminal matters, amending and repealing Council Decision 2007/533/JHA, and repealing Regulation (EC) No 1986/2006 of the European Parliament and of the Council and Commission Decision 2010/261/EU (OJ L 312, 7.12.2018, p. 56).
c)
2018 m. lapkričio 28 d. Europos Parlamento ir Tarybos reglamentas (ES) 2018/1862 dėl Šengeno informacinės sistemos (SIS) sukūrimo, eksploatavimo ir naudojimo policijos bendradarbiavimui ir teisminiam bendradarbiavimui baudžiamosiose bylose, kuriuo iš dalies keičiamas ir panaikinamas Tarybos sprendimas 2007/533/TVR ir panaikinamas Europos Parlamento ir Tarybos reglamentas (EB) Nr. 1986/2006 ir Komisijos sprendimas 2010/261/ES (OL L 312, 2018 12 7, p. 56).
2. Visa Information System
2. Vizų informacinė sistema
(a)
Regulation (EU) 2021/1133 of the European Parliament and of the Council of 7 July 2021 amending Regulations (EU) No 603/2013, (EU) 2016/794, (EU) 2018/1862, (EU) 2019/816 and (EU) 2019/818 as regards the establishment of the conditions for accessing other EU information systems for the purposes of the Visa Information System (OJ L 248, 13.7.2021, p. 1).
a)
2021 m. liepos 7 d. Europos Parlamento ir Tarybos reglamentas (ES) 2021/1133, kuriuo iš dalies keičiami reglamentai (ES) Nr. 603/2013, (ES) 2016/794, (ES) 2018/1862, (ES) 2019/816 ir (ES) 2019/818, kiek tai susiję su prieigos prie kitų ES informacinių sistemų Vizų informacinės sistemos tikslais sąlygų nustatymu (OL L 248, 2021 7 13, p. 1);
(b)
Regulation (EU) 2021/1134 of the European Parliament and of the Council of 7 July 2021 amending Regulations (EC) No 767/2008, (EC) No 810/2009, (EU) 2016/399, (EU) 2017/2226, (EU) 2018/1240, (EU) 2018/1860, (EU) 2018/1861, (EU) 2019/817 and (EU) 2019/1896 of the European Parliament and of the Council and repealing Council Decisions 2004/512/EC and 2008/633/JHA, for the purpose of reforming the Visa Information System (OJ L 248, 13.7.2021, p. 11).
b)
2021 m. liepos 7 d. Europos Parlamento ir Tarybos reglamentas (ES) 2021/1134, kuriuo iš dalies keičiami Europos Parlamento ir Tarybos reglamentai (EB) Nr. 767/2008, (EB) Nr. 810/2009, (ES) 2016/399, (ES) 2017/2226, (ES) 2018/1240, (ES) 2018/1860, (ES) 2018/1861, (ES) 2019/817 ir (ES) 2019/1896 ir panaikinami Tarybos sprendimai 2004/512/EB ir 2008/633/TVR siekiant reformuoti Vizų informacinę sistemą (OL L 248, 2021 7 13, p. 11).
3. Eurodac
3. Sistema EURODAC
Regulation (EU) 2024/1358 of the European Parliament and of the Council of 14 May 2024 on the establishment of ‘Eurodac’ for the comparison of biometric data in order to effectively apply Regulations (EU) 2024/1315 and (EU) 2024/1350 of the European Parliament and of the Council and Council Directive 2001/55/EC and to identify illegally staying third-country nationals and stateless persons and on requests for the comparison with Eurodac data by Member States’ law enforcement authorities and Europol for law enforcement purposes, amending Regulations (EU) 2018/1240 and (EU) 2019/818 of the European Parliament and of the Council and repealing Regulation (EU) No 603/2013 of the European Parliament and of the Council (OJ L, 2024/1358, 22.5.2024, ELI: http://data.europa.eu/eli/reg/2024/1358/oj).
2024 m. gegužės 14 d. Europos Parlamento ir Tarybos reglamento (ES) 2024/1358 dėl biometrinių duomenų lyginimo sistemos EURODAC sukūrimo siekiant veiksmingai taikyti Europos Parlamento ir Tarybos reglamentus (ES) 2024/1315 bei (ES) 2024/1350 ir Tarybos direktyvą 2001/55/EB ir nustatyti neteisėtai esančius trečiųjų šalių piliečius ar asmenis be pilietybės ir dėl valstybių narių teisėsaugos institucijų bei Europolo teisėsaugos tikslais teikiamų prašymų palyginti duomenis su sistemos EURODAC duomenimis, kuriuo iš dalies keičiami Europos Parlamento ir Tarybos reglamentai (ES) 2018/1240 ir (ES) 2019/818 ir panaikinamas Europos Parlamento ir Tarybos reglamentas (ES) Nr. 603/2013 (OL L, 2024/1358, 2024 5 22, ELI: http://data.europa.eu/eli/reg/2024/1358/oj).
4. Entry/Exit System
4. Atvykimo ir išvykimo sistema
Regulation (EU) 2017/2226 of the European Parliament and of the Council of 30 November 2017 establishing an Entry/Exit System (EES) to register entry and exit data and refusal of entry data of third-country nationals crossing the external borders of the Member States and determining the conditions for access to the EES for law enforcement purposes, and amending the Convention implementing the Schengen Agreement and Regulations (EC) No 767/2008 and (EU) No 1077/2011 (OJ L 327, 9.12.2017, p. 20).
2017 m. lapkričio 30 d. Europos Parlamento ir Tarybos reglamentas (ES) 2017/2226, kuriuo sukuriama atvykimo ir išvykimo sistema (AIS), kurioje registruojami trečiųjų šalių piliečių, kertančių valstybių narių išorės sienas, atvykimo ir išvykimo bei atsisakymo leisti jiems atvykti duomenys, nustatomos prieigos prie AIS teisėsaugos tikslais sąlygos ir iš dalies keičiama Konvencija dėl Šengeno susitarimo įgyvendinimo ir reglamentai (EB) Nr. 767/2008 ir (ES) Nr. 1077/2011 (OL L 327, 2017 12 9, p. 20).
5. European Travel Information and Authorisation System
5. Europos kelionių informacijos ir leidimų sistema
(a)
Regulation (EU) 2018/1240 of the European Parliament and of the Council of 12 September 2018 establishing a European Travel Information and Authorisation System (ETIAS) and amending Regulations (EU) No 1077/2011, (EU) No 515/2014, (EU) 2016/399, (EU) 2016/1624 and (EU) 2017/2226 (OJ L 236, 19.9.2018, p. 1).
a)
2018 m. rugsėjo 12 d. Europos Parlamento ir Tarybos reglamentas (ES) 2018/1240, kuriuo sukuriama Europos kelionių informacijos ir leidimų sistema (ETIAS) ir iš dalies keičiami reglamentai (ES) Nr. 1077/2011, (ES) Nr. 515/2014, (ES) 2016/399, (ES) 2016/1624 ir (ES) 2017/2226 (OL L 236, 2018 9 19, p. 1);
(b)
Regulation (EU) 2018/1241 of the European Parliament and of the Council of 12 September 2018 amending Regulation (EU) 2016/794 for the purpose of establishing a European Travel Information and Authorisation System (ETIAS) (OJ L 236, 19.9.2018, p. 72).
b)
2018 m. rugsėjo 12 d. Europos Parlamento ir Tarybos reglamentas (ES) 2018/1241, kuriuo iš dalies keičiamas Reglamentas (ES) 2016/794 siekiant sukurti Europos kelionių informacijos ir leidimų sistemą (ETIAS) (OL L 236, 2018 9 19, p. 72).
6. European Criminal Records Information System on third-country nationals and stateless persons
6. Europos nuosprendžių registrų informacinė sistema trečiųjų šalių piliečiams ir asmenims be pilietybės
Regulation (EU) 2019/816 of the European Parliament and of the Council of 17 April 2019 establishing a centralised system for the identification of Member States holding conviction information on third-country nationals and stateless persons (ECRIS-TCN) to supplement the European Criminal Records Information System and amending Regulation (EU) 2018/1726 (OJ L 135, 22.5.2019, p. 1).
2019 m. balandžio 17 d. Europos Parlamento ir Tarybos reglamentas (ES) 2019/816, kuriuo Europos nuosprendžių registrų informacinei sistemai papildyti sukuriama centralizuota valstybių narių, turinčių informacijos apie priimtus trečiųjų šalių piliečių ir asmenų be pilietybės apkaltinamuosius nuosprendžius, nustatymo sistema (ECRIS-TCN) ir kuriuo iš dalies keičiamas Reglamentas (ES) 2018/1726 (OL L 135, 2019 5 22, p. 1).
7. Interoperability
7. Sąveikumas
(a)
Regulation (EU) 2019/817 of the European Parliament and of the Council of 20 May 2019 on establishing a framework for interoperability between EU information systems in the field of borders and visa and amending Regulations (EC) No 767/2008, (EU) 2016/399, (EU) 2017/2226, (EU) 2018/1240, (EU) 2018/1726 and (EU) 2018/1861 of the European Parliament and of the Council and Council Decisions 2004/512/EC and 2008/633/JHA (OJ L 135, 22.5.2019, p. 27).
a)
2019 m. gegužės 20 d. Europos Parlamento ir Tarybos reglamentas (ES) 2019/817 dėl ES informacinių sistemų sienų ir vizų srityje sąveikumo sistemos sukūrimo, kuriuo iš dalies keičiami Europos Parlamento ir Tarybos reglamentai (EB) Nr. 767/2008, (ES) 2016/399, (ES) 2017/2226, (ES) 2018/1240, (ES) 2018/1726 ir (ES) 2018/1861 ir Tarybos sprendimai 2004/512/EB ir 2008/633/TVR (OL L 135, 2019 5 22, p. 27);
(b)
Regulation (EU) 2019/818 of the European Parliament and of the Council of 20 May 2019 on establishing a framework for interoperability between EU information systems in the field of police and judicial cooperation, asylum and migration and amending Regulations (EU) 2018/1726, (EU) 2018/1862 and (EU) 2019/816 (OJ L 135, 22.5.2019, p. 85).
b)
2019 m. gegužės 20 d. Europos Parlamento ir Tarybos reglamentas (ES) 2019/818 dėl ES informacinių sistemų policijos ir teisminio bendradarbiavimo, prieglobsčio ir migracijos srityje sąveikumo sistemos sukūrimo, kuriuo iš dalies keičiami reglamentai (ES) 2018/1726, (ES) 2018/1862 ir (ES) 2019/816 (OL L 135, 2019 5 22, p. 85).
ANNEX XI
XI PRIEDAS
Technical documentation referred to in Article 53(1), point (a) — technical documentation for providers of general-purpose AI models
53 straipsnio 1 dalies a punkte nurodyti techniniai dokumentai: bendrosios paskirties DI modelių tiekėjams skirti techniniai dokumentai
Section 1
1 skirsnis
Information to be provided by all providers of general-purpose AI models
Informacija, kurią turi pateikti visi bendrosios paskirties DI modelių tiekėjai
The technical documentation referred to in Article 53(1), point (a) shall contain at least the following information as appropriate to the size and risk profile of the model:
53 straipsnio 1 dalies a punkte nurodytuose techniniuose dokumentuose pateikiama bent ši informacija atitinkamai pagal modelio dydį ir rizikos profilį:
1.
A general description of the general-purpose AI model including:
1)
bendras bendrosios paskirties DI sistemos aprašymas, be kita ko:
(a)
the tasks that the model is intended to perform and the type and nature of AI systems in which it can be integrated;
a)
užduotys, kurias turėtų atlikti modelis, ir DI sistemų, į kurias jis gali būti integruojamas, tipas ir pobūdis;
(b)
the acceptable use policies applicable;
b)
taikytinos priimtinos naudojimo taisyklės;
(c)
the date of release and methods of distribution;
c)
išleidimo data ir platinimo būdai;
(d)
the architecture and number of parameters;
d)
architektūra ir parametrų skaičius;
(e)
the modality (e.g. text, image) and format of inputs and outputs;
e)
įvedinių ir išvedinių būdai (pvz., tekstas, vaizdas) ir formatas;
(f)
the licence.
f)
licencija;
2.
A detailed description of the elements of the model referred to in point 1, and relevant information of the process for the development, including the following elements:
2)
išsamus 1 punkte nurodyto modelio elementų aprašymas ir atitinkama informacija apie kūrimo procesą, be kita ko, šie elementai:
(a)
the technical means (e.g. instructions of use, infrastructure, tools) required for the general-purpose AI model to be integrated in AI systems;
a)
techninės priemonės (pvz., naudojimo instrukcijos, infrastruktūra, priemonės), reikalingos bendrosios paskirties DI modeliui integruoti į DI sistemas;
(b)
the design specifications of the model and training process, including training methodologies and techniques, the key design choices including the rationale and assumptions made; what the model is designed to optimise for and the relevance of the different parameters, as applicable;
b)
modelio projektavimo ir mokymo proceso rengimo specifikacijos, įskaitant mokymo metodiką ir būdus, pagrindinius projektavimo sprendimus, įskaitant loginį pagrindą ir prielaidas; jei taikytina, tai, ką modeliu siekiama optimizuoti, ir įvairių parametrų svarba;
(c)
information on the data used for training, testing and validation, where applicable, including the type and provenance of data and curation methodologies (e.g. cleaning, filtering, etc.), the number of data points, their scope and main characteristics; how the data was obtained and selected as well as all other measures to detect the unsuitability of data sources and methods to detect identifiable biases, where applicable;
c)
kai taikytina, informacija apie mokymui, bandymui ir validavimui naudotus duomenis, įskaitant duomenų tipą bei kilmę ir priežiūros metodikas (pvz., valymą, filtravimą ir t. t.), duomenų taškų skaičių, jų apimtį ir pagrindinius ypatumus; kai taikytina, tai, kaip buvo gauti ir atrinkti duomenys, taip pat visos kitos priemonės, skirtos aptikti duomenų šaltinių ir metodų netinkamumą nustatytinam šališkumui aptikti;
(d)
the computational resources used to train the model (e.g. number of floating point operations), training time, and other relevant details related to the training;
d)
kompiuterinio apdorojimo ištekliai, naudojami modeliui mokyti (pvz., slankiojo kablelio operacijų skaičius, mokymo laikas ir kita su mokymu susijusi informacija;
(e)
known or estimated energy consumption of the model.
e)
žinomas arba apskaičiuotas modelio energijos suvartojimas.
With regard to point (e), where the energy consumption of the model is unknown, the energy consumption may be based on information about computational resources used.
Atsižvelgiant į e punktą, kai modelio suvartojamos energijos kiekis nežinomas, energijos suvartojimas gali būti grindžiamas informacija apie naudojamus kompiuterinio apdorojimo išteklius.
Section 2
2 skirsnis
Additional information to be provided by providers of general-purpose AI models with systemic risk
Papildoma informacija, kurią turi pateikti sisteminės rizikos bendrosios paskirties DI modelių tiekėjai
1.
A detailed description of the evaluation strategies, including evaluation results, on the basis of available public evaluation protocols and tools or otherwise of other evaluation methodologies. Evaluation strategies shall include evaluation criteria, metrics and the methodology on the identification of limitations.
1.
Išsamus vertinimo strategijų aprašymas, įskaitant vertinimo rezultatus, remiantis viešai prieinamais vertinimo protokolais ir priemonėmis arba kitomis vertinimo metodikomis. Vertinimo strategijos apima vertinimo kriterijus, metrikas ir ribotumų nustatymo metodiką.
2.
Where applicable, a detailed description of the measures put in place for the purpose of conducting internal and/or external adversarial testing (e.g. red teaming), model adaptations, including alignment and fine-tuning.
2.
Kai taikytina, išsamus priemonių, kurių imamasi siekiant atlikti vidaus ir (arba) išorės atsparumo kenksmingiems veiksmams bandymus (pvz., etišką įsilaužimą), modelių adaptavimo, įskaitant suderinimą ir pritaikymą, aprašymas.
3.
Where applicable, a detailed description of the system architecture explaining how software components build or feed into each other and integrate into the overall processing.
3.
Kai taikytina, išsamus sistemos architektūros aprašymas, kuriame paaiškinama, kaip programinės įrangos komponentai remiasi vienas kitu arba kaip papildo vienas kitą ir kaip jie integruoti į visą apdorojimo procesą.
ANNEX XII
XII PRIEDAS
Transparency information referred to in Article 53(1), point (b) — technical documentation for providers of general-purpose AI models to downstream providers that integrate the model into their AI system
53 straipsnio 1 dalies b punkte nurodyta skaidrumo informacija: techniniai dokumentai, skirti bendrosios paskirties DI modelių tiekėjams, tolesnės grandies tiekėjams, kurie integruoja modelį į savo DI sistemą
The information referred to in Article 53(1), point (b) shall contain at least the following:
53 straipsnio 1 dalies b punkte nurodyta informacija yra bent ši informacija:
1.
A general description of the general-purpose AI model including:
1)
bendras bendrosios paskirties DI sistemos aprašymas, be kita ko:
(a)
the tasks that the model is intended to perform and the type and nature of AI systems into which it can be integrated;
a)
užduotys, kurias turėtų atlikti modelis, ir DI sistemų, į kurias jis gali būti integruojamas, tipas ir pobūdis;
(b)
the acceptable use policies applicable;
b)
taikytinos priimtinos naudojimo taisyklės;
(c)
the date of release and methods of distribution;
c)
išleidimo data ir platinimo būdai;
(d)
how the model interacts, or can be used to interact, with hardware or software that is not part of the model itself, where applicable;
d)
kai taikytina, tai, kaip modelis sąveikauja su aparatine arba programine įranga, kuri nėra paties modelio sudedamoji dalis, arba kaip jis gali būti naudojamas, kad sąveikautų su tokia įranga;
(e)
the versions of relevant software related to the use of the general-purpose AI model, where applicable;
e)
kai taikytina, atitinkamos programinės įrangos, susijusios su bendrosios paskirties DI modelio naudojimu, versijos;
(f)
the architecture and number of parameters;
f)
architektūra ir parametrų skaičius;
(g)
the modality (e.g. text, image) and format of inputs and outputs;
g)
įvedinių ir išvedinių būdai (pvz., tekstas, vaizdas) ir formatas;
(h)
the licence for the model.
h)
modelio licencija.
2.
A description of the elements of the model and of the process for its development, including:
2)
modelio ir jo kūrimo proceso elementų aprašymas, be kita ko:
(a)
the technical means (e.g. instructions for use, infrastructure, tools) required for the general-purpose AI model to be integrated into AI systems;
a)
techninės priemonės (pvz., naudojimo instrukcijos, infrastruktūra, priemonės), reikalingos bendrosios paskirties DI modeliui integruoti į DI sistemas;
(b)
the modality (e.g. text, image, etc.) and format of the inputs and outputs and their maximum size (e.g. context window length, etc.);
b)
įvedinių ir išvedinių būdai (pvz., tekstas, vaizdas ir kt.) ir formatas bei didžiausias jų dydis (pvz., konteksto lango dydis ir t. t.);
(c)
information on the data used for training, testing and validation, where applicable, including the type and provenance of data and curation methodologies.
c)
kai taikytina, informacija apie mokymo, bandymo ir validavimo tikslais naudotus duomenis, įskaitant duomenų tipą ir kilmę bei priežiūros metodikas.
ANNEX XIII
XIII PRIEDAS
Criteria for the designation of general-purpose AI models with systemic risk referred to in Article 51
51 straipsnyje nurodytų sisteminės rizikos bendrosios paskirties DI modelių priskyrimo nurodymo kriterijai
For the purpose of determining that a general-purpose AI model has capabilities or an impact equivalent to those set out in Article 51(1), point (a), the Commission shall take into account the following criteria:
Siekdama nustatyti, ar bendrosios paskirties DI modelio pajėgumai arba poveikis yra lygiaverčiai 51 straipsnio 1 dalies a punkte nustatytiems pajėgumams arba poveikiui, Komisija atsižvelgia į šiuos kriterijus:
(a)
the number of parameters of the model;
a)
modelio parametrų skaičių;
(b)
the quality or size of the data set, for example measured through tokens;
b)
duomenų rinkinio kokybę ar dydį, pavyzdžiui, matuojamą žetonais;
(c)
the amount of computation used for training the model, measured in floating point operations or indicated by a combination of other variables such as estimated cost of training, estimated time required for the training, or estimated energy consumption for the training;
c)
modelio mokymui naudotą bendrą skaičiuojamąją galią, matuojamą slankiojo kablelio operacijomis, arba nurodomą kitų kintamųjų deriniu, pvz., numatoma mokymo kaina, mokymui reikalingu numatomu laiku arba numatomu energijos suvartojimu mokymui;
(d)
the input and output modalities of the model, such as text to text (large language models), text to image, multi-modality, and the state of the art thresholds for determining high-impact capabilities for each modality, and the specific type of inputs and outputs (e.g. biological sequences);
d)
modelio įvedinių ir išvedinių būdus, pvz., iš teksto į tekstą (didieji kalbos modeliai), iš teksto į vaizdą, daugiabūviškumą ir pažangiausias ribines vertes, pagal kurias nustatomi kiekvieno būdo pajėgumai daryti didelį poveikį, ir konkretų įvedinių ir išvedinių tipą (pvz., biologines sekas);
(e)
the benchmarks and evaluations of capabilities of the model, including considering the number of tasks without additional training, adaptability to learn new, distinct tasks, its level of autonomy and scalability, the tools it has access to;
e)
modelio pajėgumų lyginamuosius parametrus ir vertinimus, be kita ko, atsižvelgiant į užduočių, atliekamų be papildomo mokymo, skaičių, gebėjimą išmokti atlikti naujas, skirtingas užduotis, jo savarankiškumo ir išplečiamumo lygį, priemones, kuriomis jis gali naudotis;
(f)
whether it has a high impact on the internal market due to its reach, which shall be presumed when it has been made available to at least 10 000 registered business users established in the Union;
f)
tai, ar jis daro didelį poveikį vidaus rinkai dėl jo aprėpties, kuri preziumuojama, kai modelis pateikiamas bent 10 000 Sąjungoje įsisteigusių registruotų verslo klientų;
(g)
the number of registered end-users.
g)
registruotų galutinių naudotojų skaičių.
ELI: http://data.europa.eu/eli/reg/2024/1689/oj
ELI: http://data.europa.eu/eli/reg/2024/1689/oj
ISSN 1977-0677 (electronic edition)
ISSN 1977-0723 (electronic edition)