Notice: This is a Juremy.com rendered version. Only European Union documents published in the Official Journal of the European Union are deemed authentic. Juremy accepts no responsibility or liability whatsoever with regard to the content of this document.
Base data © European Union, 1998-2024. Postprocessed and marked-up data © 2019-2024 Juremy.com, all rights reserved.
Render version: 0.1, render date: 2024-07-24
Publicatieblad
van de Europese Unie
NL
Jurnalul Ofícial
al Uniunii Europene
RO
L-serie
Seria L
2024/1689
12.7.2024
2024/1689
12.7.2024
VERORDENING (EU) 2024/1689 VAN HET EUROPEES PARLEMENT EN DE RAAD
REGULAMENTUL (UE) 2024/1689 AL PARLAMENTULUI EUROPEAN ȘI AL CONSILIULUI
van 13 juni 2024
din 13 iunie 2024
tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie en tot wijziging van de Verordeningen (EG) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 en (EU) 2019/2144, en de Richtlijnen 2014/90/EU, (EU) 2016/797 en (EU) 2020/1828 (verordening artificiële intelligentie)
de stabilire a unor norme armonizate privind inteligența artificială și de modificare a Regulamentelor (CE) nr. 300/2008, (UE) nr. 167/2013, (UE) nr. 168/2013, (UE) 2018/858, (UE) 2018/1139 și (UE) 2019/2144 și a Directivelor 2014/90/UE, (UE) 2016/797 și (UE) 2020/1828 (Regulamentul privind inteligența artificială)
(Voor de EER relevante tekst)
(Text cu relevanță pentru SEE)
HET EUROPEES PARLEMENT EN DE RAAD VAN DE EUROPESE UNIE,
PARLAMENTUL EUROPEAN ȘI CONSILIUL UNIUNII EUROPENE,
Gezien het Verdrag betreffende de werking van de Europese Unie, en met name de artikelen 16 en 114,
având în vedere Tratatul privind funcționarea Uniunii Europene, în special articolele 16 și 114,
Gezien het voorstel van de Europese Commissie,
având în vedere propunerea Comisiei Europene,
Na toezending van het ontwerp van wetgevingshandeling aan de nationale parlementen,
după transmiterea proiectului de act legislativ către parlamentele naționale,
Gezien het advies van het Europees Economisch en Sociaal Comité (1),
având în vedere avizul Comitetului Economic și Social European (1),
Gezien het advies van de Europese Centrale Bank (2),
având în vedere avizul Băncii Centrale Europene (2),
Gezien het advies van het Comité van de Regio’s (3),
având în vedere avizul Comitetului Regiunilor (3),
Handelend volgens de gewone wetgevingsprocedure (4),
hotărând în conformitate cu procedura legislativă ordinară (4),
Overwegende hetgeen volgt:
întrucât:
(1)
Deze verordening heeft ten doel de werking van de interne markt te verbeteren door een uniform rechtskader vast te stellen, met name voor de ontwikkeling, het in de handel brengen, het in gebruik stellen, en het gebruik van artificiële-intelligentiesystemen (AI-systemen) in de Unie, in overeenstemming met de waarden van de Unie, de introductie van mensgerichte en betrouwbare artificiële intelligentie (AI) te bevorderen en te zorgen voor een hoge mate van bescherming van de gezondheid, de veiligheid en de grondrechten zoals vastgelegd in het Handvest van de grondrechten van de Europese Unie (het “Handvest”), met inbegrip van de democratie, de rechtsstaat en de bescherming van het milieu, te beschermen tegen de schadelijke effecten van AI-systemen in de Unie, alsook innovatie te ondersteunen. Deze verordening waarborgt het vrije verkeer van op AI gebaseerde goederen en diensten over de grenzen heen, zodat de lidstaten geen beperkingen kunnen opleggen aan de ontwikkeling, het in de handel brengen en het gebruik van AI-systemen, tenzij dat door deze verordening uitdrukkelijk wordt toegestaan.
(1)
Scopul prezentului regulament este de a îmbunătăți funcționarea pieței interne prin stabilirea unui cadru juridic uniform, în special pentru dezvoltarea, introducerea pe piață, punerea în funcțiune și utilizarea de sisteme de inteligență artificială (sisteme de IA) în Uniune, în conformitate cu valorile Uniunii, de a promova adoptarea unei inteligențe artificiale (IA) de încredere și centrate pe factorul uman, asigurând în același timp un nivel ridicat de protecție a sănătății, a siguranței, a drepturilor fundamentale consacrate în Carta drepturilor fundamentale a Uniunii Europene (denumită în continuare „carta”), inclusiv a democrației, a statului de drept și a mediului, de a proteja împotriva efectelor dăunătoare ale sistemelor de IA în Uniune, precum și de a sprijini inovarea. Prezentul regulament asigură libera circulație transfrontalieră a bunurilor și serviciilor bazate pe IA, împiedicând astfel statele membre să impună restricții privind dezvoltarea, comercializarea și utilizarea sistemelor de IA, cu excepția cazului în care acest lucru este autorizat în mod explicit de prezentul regulament.
(2)
Deze verordening moet worden toegepast in overeenstemming met de in het Handvest vastgelegde waarden van de Unie, om zo de bescherming van natuurlijke personen, ondernemingen, de democratie, de rechtsstaat en de bescherming van het milieu te faciliteren en tegelijkertijd innovatie en werkgelegenheid te stimuleren en van de Unie een voortrekker te maken bij de introductie van betrouwbare AI.
(2)
Prezentul regulament ar trebui să se aplice în conformitate cu valorile Uniunii consacrate în cartă, facilitând protecția persoanelor fizice, a întreprinderilor, a democrației, a statului de drept și a mediului, stimulând în același timp inovarea și ocuparea forței de muncă și asigurând Uniunii o poziție de lider în adoptarea unei IA de încredere.
(3)
AI-systemen kunnen gemakkelijk worden ingezet in een ruime verscheidenheid van economische sectoren en in tal van onderdelen van de samenleving, ook grensoverschrijdend, en kunnen gemakkelijk in de hele Unie circuleren. Bepaalde lidstaten hebben reeds overwogen om nationale regels vast te stellen om ervoor te zorgen dat AI betrouwbaar en veilig is en wordt ontwikkeld en gebruikt met inachtneming van de verplichtingen inzake de grondrechten. Onderling afwijkende nationale regels kunnen leiden tot versnippering van de interne markt en tot vermindering van de rechtszekerheid voor operatoren die AI-systemen ontwikkelen, importeren of gebruiken. Daarom moet in de hele Unie een consistent en hoog beschermingsniveau worden gewaarborgd zodat AI betrouwbaar is, terwijl verschillen die het vrije verkeer, de innovatie, de inzet en de ingebruikneming van AI-systemen en aanverwante producten en diensten op de interne markt belemmeren, moeten worden voorkomen door uniforme verplichtingen voor operatoren vast te stellen en op de hele interne markt een eenvormige eerbiediging van dwingende redenen van algemeen belang en van de rechten van personen te waarborgen op basis van artikel 114 van het Verdrag betreffende de werking van de Europese Unie (VWEU). Voor zover deze verordening specifieke regels bevat inzake de bescherming van natuurlijke personen met betrekking tot de verwerking van persoonsgegevens, waarbij beperkingen worden opgelegd aan het voor rechtshandhaving bedoelde gebruik van AI-systemen voor biometrische identificatie op afstand, AI-systemen voor risicobeoordelingen van natuurlijke personen en AI-systemen voor biometrische categorisering, moet deze verordening, wat die specifieke regels betreft, worden gebaseerd op artikel 16 VWEU. In het licht van deze specifieke regels en het gebruik van artikel 16 VWEU is het aangewezen het Europees Comité voor gegevensbescherming te raadplegen.
(3)
Sistemele de IA pot fi implementate cu ușurință într-o mare varietate de sectoare ale economiei și în multe părți ale societății, inclusiv la nivel transfrontalier, și pot circula cu ușurință în întreaga Uniune. Anumite state membre au explorat deja adoptarea unor norme naționale pentru a se asigura că IA este sigură și de încredere și că este dezvoltată și utilizată în conformitate cu obligațiile în materie de drepturi fundamentale. Divergențele dintre normele naționale pot duce la fragmentarea pieței interne și pot reduce gradul de securitate juridică pentru operatorii care dezvoltă, importă sau utilizează sisteme de IA. Prin urmare, ar trebui să se asigure un nivel ridicat și consecvent de protecție în întreaga Uniune pentru a se obține o IA de încredere, iar divergențele care împiedică libera circulație, inovarea, implementarea și adoptarea sistemelor de IA și a produselor și serviciilor conexe în cadrul pieței interne ar trebui să fie prevenite, prin stabilirea unor obligații uniforme pentru operatori și prin garantarea protecției uniforme a motivelor imperative de interes public major și a drepturilor persoanelor în întreaga piață internă, în temeiul articolului 114 din Tratatul privind funcționarea Uniunii Europene (TFUE). În măsura în care prezentul regulament conține norme specifice de protecție a persoanelor fizice în contextul prelucrării datelor cu caracter personal, referitoare la restricțiile de utilizare a sistemelor de IA pentru identificarea biometrică la distanță în scopul aplicării legii, la utilizarea sistemelor de IA pentru evaluarea riscurilor persoanelor fizice în scopul aplicării legii și la utilizarea sistemelor de IA de clasificare biometrică în scopul aplicării legii, este oportun ca prezentul regulament să se întemeieze, în ceea ce privește normele specifice respective, pe articolul 16 din TFUE. Având în vedere normele specifice respective și recurgerea la articolul 16 din TFUE, este oportun să se consulte Comitetul european pentru protecția datelor.
(4)
AI is een snel evoluerende verzameling van technologieën die bijdraagt aan een brede waaier van economische, milieu- en maatschappelijke voordelen in alle industrieën en sociale activiteiten. Het gebruik van AI kan ondernemingen, dankzij verbeterde voorspellingen, geoptimaliseerde verrichtingen en toewijzing van middelen en gepersonaliseerde digitale oplossingen voor natuurlijke personen en organisaties een belangrijk concurrentievoordeel opleveren en helpen om sociaal en ecologische gunstige resultaten te behalen, bijvoorbeeld in de gezondheidszorg, de landbouw, voedselveiligheid, onderwijs en opleiding, media, sport, cultuur, infrastructuurbeheer, energie, vervoer en logistiek, openbare diensten, veiligheid, justitie, efficiënt gebruik van hulpbronnen en energie, milieumonitoring, behoud en herstel van biodiversiteit en ecosystemen en klimaatmitigatie en -adaptatie.
(4)
IA este o familie de tehnologii cu evoluție rapidă, care contribuie la o gamă largă de beneficii economice, de mediu și societale în întregul spectru de industrii și activități sociale. Prin îmbunătățirea previziunilor, optimizarea operațiunilor și a alocării resurselor, precum și prin personalizarea soluțiilor digitale disponibile pentru persoane fizice și organizații, utilizarea IA poate oferi avantaje concurențiale esențiale întreprinderilor și poate sprijini obținerea de rezultate benefice din punct de vedere social și al mediului, în domenii precum îngrijirile de sănătate, agricultura, siguranța alimentară, educația și formarea, mass-media, sportul, cultura, gestionarea infrastructurii, energia, transporturile și logistica, serviciile publice, securitatea, justiția, eficiența energetică și a utilizării resurselor, monitorizarea mediului, conservarea și refacerea biodiversității și ecosistemelor, precum și atenuarea schimbărilor climatice și adaptarea la acestea.
(5)
Tegelijkertijd kan AI, afhankelijk van de omstandigheden waarin ze wordt toegepast en gebruikt, en van het niveau van technologische ontwikkeling, risico’s opleveren en schade toebrengen aan de openbare belangen en grondrechten die door de Uniewetgeving worden beschermd. Deze schade kan materieel of immaterieel zijn, en kan lichamelijke, psychische, maatschappelijke of economische schade omvatten.
(5)
În același timp, în funcție de circumstanțele legate de aplicarea și utilizarea sa specifică, precum și de nivelul său specific de dezvoltare tehnologică, IA poate genera riscuri și poate aduce prejudicii intereselor publice și drepturilor fundamentale care sunt protejate de dreptul Uniunii. Un astfel de prejudiciu ar putea fi material sau moral, inclusiv de natură fizică, psihologică, societală sau economică.
(6)
Aangezien AI van grote invloed op de samenleving kan zijn en het dus nodig is vertrouwen op te bouwen, is het essentieel dat AI en het AI-regelgevingskader worden ontwikkeld in overeenstemming met de waarden van de Unie zoals verankerd in artikel 2 van het Verdrag betreffende de Europese Unie (VEU), met de in de Verdragen vastgelegde grondrechten en fundamentele vrijheden, alsook, op grond van artikel 6 VEU, met het Handvest. Een eerste voorwaarde is dat AI een mensgerichte technologie moet zijn. Het moet dienen als instrument voor mensen, met als uiteindelijk doel het welzijn van de mens te vergroten.
(6)
Având în vedere impactul major pe care IA îl poate avea asupra societății și necesitatea de a genera încredere, este esențial ca IA și cadrul său de reglementare să fie dezvoltate în concordanță cu valorile Uniunii consacrate la articolul 2 din Tratatul privind Uniunea Europeană (TUE) și cu drepturile și libertățile fundamentale consacrate în tratate și, potrivit articolului 6 din TUE, în cartă. Ca o condiție prealabilă, IA ar trebui să fie o tehnologie centrată pe factorul uman. Aceasta ar trebui să le servească oamenilor ca un instrument, cu scopul final de a le spori bunăstarea.
(7)
Teneinde een consistent en hoog niveau van bescherming van de openbare belangen op het gebied van gezondheid, veiligheid en grondrechten te garanderen, moeten gemeenschappelijke regels voor AI-systemen met een hoog risico worden vastgesteld. Die regels moeten in overeenstemming zijn met het Handvest, niet-discriminerend zijn en stroken met de internationale handelsverbintenissen van de Unie. In de regels moet ook rekening worden gehouden met de Europese verklaring over digitale rechten en beginselen voor het digitale decennium en de ethische richtsnoeren voor betrouwbare KI van de deskundigengroep op hoog niveau inzake artificiële intelligentie (AI HLEG).
(7)
Pentru a asigura un nivel consecvent și ridicat de protecție a intereselor publice în ceea ce privește sănătatea, siguranța și drepturile fundamentale, ar trebui să fie stabilite norme comune pentru sistemele de IA cu grad ridicat de risc. Normele respective ar trebui să fie în concordanță cu carta și ar trebui să fie nediscriminatorii și în conformitate cu angajamentele comerciale internaționale ale Uniunii. De asemenea, ele ar trebui să țină seama de Declarația europeană privind drepturile și principiile digitale pentru deceniul digital și de Orientările în materie de etică pentru o IA fiabilă ale Grupului independent de experți la nivel înalt privind inteligența artificială.
(8)
Om de ontwikkeling, het gebruik en de introductie van AI op de interne markt te bevorderen is daarom een rechtskader van de Unie nodig met geharmoniseerde regels inzake AI, dat tegelijkertijd de openbare belangen in hoge mate beschermt, bijvoorbeeld op het gebied van gezondheid en veiligheid en de bescherming van de grondrechten, met inbegrip van de democratie, de rechtsstaat en de bescherming van het milieu, zoals die worden erkend en beschermd door de Uniewetgeving. Om dat doel te bereiken, moeten regels worden vastgesteld voor het in de handel brengen, het in gebruik stellen en het gebruik van bepaalde AI-systemen, zodat de goede werking van de interne markt wordt gewaarborgd en deze systemen kunnen profiteren van het beginsel van vrij verkeer van goederen en diensten. Die regels moeten duidelijk en robuust zijn voor wat betreft de bescherming van de grondrechten, en nieuwe innovatieve oplossingen ondersteunen, om zo een Europees ecosysteem mogelijk te maken van publieke en particuliere actoren die AI-systemen creëren conform de waarden van de Unie, en het potentieel van de digitale transformatie in alle regio’s van de Unie te ontsluiten. Door die regels, alsook maatregelen ter ondersteuning van innovatie met bijzondere nadruk op kleine en middelgrote ondernemingen (kmo’s), waaronder start-ups, vast te stellen, steunt deze verordening de doelstelling om de Europese mensgerichte benadering van AI te bevorderen en wereldwijd een voortrekkersrol te spelen bij de ontwikkeling van veilige, betrouwbare en ethische AI, zoals verklaard door de Europese Raad (5), en waarborgt deze verordening de bescherming van ethische beginselen, zoals specifiek gevraagd door het Europees Parlement (6).
(8)
Prin urmare, este necesar un cadru juridic al Uniunii care să stabilească norme armonizate privind IA pentru a încuraja dezvoltarea, utilizarea și adoptarea pe piața internă a IA și care să asigure, în același timp, un nivel ridicat de protecție a intereselor publice, cum ar fi sănătatea și siguranța, și protecția drepturilor fundamentale, inclusiv a democrației, a statului de drept și a mediului, astfel cum sunt recunoscute și protejate de dreptul Uniunii. Pentru atingerea acestui obiectiv, ar trebui să fie stabilite norme care să reglementeze introducerea pe piață, punerea în funcțiune și utilizarea anumitor sisteme de IA, asigurând astfel buna funcționare a pieței interne și permițând sistemelor respective să beneficieze de principiul liberei circulații a bunurilor și a serviciilor. Normele respective ar trebui să fie clare și solide în ceea ce privește protejarea drepturilor fundamentale, sprijinind noile soluții inovatoare, permițând unui ecosistem european de actori publici și privați să creeze sisteme de IA în conformitate cu valorile Uniunii și deblocând potențialul transformării digitale în toate regiunile Uniunii. Prin stabilirea normelor respective, precum și a unor măsuri de susținere a inovării cu un accent special pe întreprinderile mici și mijlocii (IMM), inclusiv pe întreprinderile nou-înființate, prezentul regulament sprijină obiectivul de promovare a abordării europene centrate pe factorul uman față de IA și de poziționare ca lider mondial în dezvoltarea unei IA sigure, de încredere și etice, astfel cum a afirmat Consiliul European (5), și asigură protecția principiilor etice, astfel cum a solicitat în mod expres Parlamentul European (6).
(9)
Er moeten geharmoniseerde regels worden vastgesteld die van toepassing zijn op het in de handel brengen, in gebruik stellen en gebruiken van AI-systemen met een hoog risico, en in overeenstemming zijn met Verordening (EG) nr. 765/2008 van het Europees Parlement en de Raad (7), Besluit nr. 768/2008/EG van het Europees Parlement en de Raad (8) en Verordening (EU) 2019/1020 van het Europees Parlement en de Raad (9) (“het nieuwe wetgevingskader”). De in deze verordening vastgelegde geharmoniseerde regels moeten in alle sectoren van toepassing zijn en mogen, in overeenstemming met het nieuwe wetgevingskader, geen afbreuk doen aan bestaand Unierecht, met name het Unierecht inzake gegevensbescherming, consumentenbescherming, grondrechten, werkgelegenheid, bescherming van werknemers en productveiligheid, waarop deze verordening een aanvulling vormt. Bijgevolg blijven alle rechten en rechtsmiddelen waarin dat Unierecht voorziet voor consumenten en andere personen voor wie AI-systemen negatieve gevolgen kunnen hebben, onder meer wat betreft de vergoeding van mogelijke schade overeenkomstig Richtlijn 85/374/EEG van de Raad (10), onverlet en volledig van toepassing. Voorts mag deze verordening, in het kader van de werkgelegenheid en de bescherming van werknemers, derhalve geen afbreuk doen aan het recht van de Unie inzake sociaal beleid, noch aan het nationale arbeidsrecht, in naleving van het Unierecht, wat betreft werkgelegenheid en arbeidsvoorwaarden, met inbegrip van gezondheid en veiligheid op het werk en de betrekkingen tussen werkgevers en werknemers. Deze verordening mag evenmin afbreuk doen aan de uitoefening van de in de lidstaten en op het niveau van de Unie erkende grondrechten, waaronder het stakingsrecht of de stakingsvrijheid dan wel het recht of de vrijheid om in het kader van de specifieke stelsels van arbeidsverhoudingen in de lidstaten andere acties te voeren, alsook het recht om over collectieve overeenkomsten te onderhandelen, deze te sluiten en naleving ervan af te dwingen, of om collectieve actie te voeren overeenkomstig het nationaal recht. Deze verordening mag geen afbreuk doen aan de bepalingen ter verbetering van de arbeidsomstandigheden bij platformwerk die zijn vastgelegd in een richtlijn van het Europees Parlement en de Raad betreffende de verbetering van de arbeidsvoorwaarden bij platformwerk. Daarnaast heeft deze verordening tot doel de doeltreffendheid van dergelijke bestaande rechten en rechtsmiddelen te versterken door specifieke eisen en verplichtingen vast te stellen, onder meer met betrekking tot de transparantie, technische documentatie en registratie van AI-systemen. Voorts moeten de verplichtingen die verschillende operatoren die betrokken zijn bij de AI-waardeketen uit hoofde van deze verordening krijgen opgelegd, van toepassing zijn onverminderd het nationale recht, in naleving van het Unierecht, met als gevolg dat het gebruik van bepaalde AI-systemen wordt beperkt indien dergelijk nationaal recht buiten het toepassingsgebied van deze verordening valt of andere legitieme doelstellingen van algemeen belang nastreeft dan die welke door deze verordening worden nagestreefd. Deze verordening mag bijvoorbeeld geen afbreuk doen aan het nationale arbeidsrecht en de wetgeving inzake de bescherming van minderjarigen, namelijk personen jonger dan 18 jaar, rekening houdend met algemene opmerking nr. 25 (2021) bij het Verdrag van de Verenigde Naties inzake de rechten van het kind over kinderrechten met betrekking tot de digitale omgeving, voor zover deze niet specifiek zijn voor AI-systemen en andere legitieme doelstellingen van algemeen belang nastreven.
(9)
Normele armonizate aplicabile introducerii pe piață, punerii în funcțiune și utilizării sistemelor de IA cu grad ridicat de risc ar trebui să fie stabilite în conformitate cu Regulamentul (CE) nr. 765/2008 al Parlamentului European și al Consiliului (7), cu Decizia nr. 768/2008/CE a Parlamentului European și a Consiliului (8) și cu Regulamentul (UE) 2019/1020 al Parlamentului European și al Consiliului (9) (denumite în continuare „noul cadru legislativ”). Normele armonizate prevăzute în prezentul regulament ar trebui să se aplice în toate sectoarele și, în conformitate cu noul cadru legislativ, ar trebui să nu aducă atingere dreptului în vigoare al Uniunii, în special în ceea ce privește protecția datelor, protecția consumatorilor, drepturile fundamentale, ocuparea forței de muncă, protecția lucrătorilor și siguranța produselor, cu care prezentul regulament este complementar. În consecință, toate drepturile și căile de atac prevăzute de dreptul Uniunii pentru consumatori și alte persoane asupra cărora sistemele de IA ar putea avea un impact negativ, inclusiv în ceea ce privește despăgubirea pentru eventuale prejudicii prevăzută în Directiva 85/374/CEE a Consiliului (10), rămân neafectate și pe deplin aplicabile. În plus, în contextul ocupării forței de muncă și al protecției lucrătorilor, prezentul regulament ar trebui așadar să nu aducă atingere dreptului Uniunii privind politica socială și dreptului național al muncii, în conformitate cu dreptul Uniunii, în ceea ce privește condițiile de angajare și de muncă, inclusiv securitatea și sănătatea în muncă și relația dintre angajatori și lucrători. De asemenea, prezentul regulament ar trebui să nu aducă atingere exercitării drepturilor fundamentale, astfel cum sunt recunoscute în statele membre și la nivelul Uniunii, inclusiv dreptului sau libertății de a intra în grevă sau de a întreprinde alte acțiuni care țin de sistemele specifice de relații de muncă din statele membre, precum și dreptului de a negocia, de a încheia și de a pune în aplicare contracte colective de muncă sau de a desfășura acțiuni colective în conformitate cu dreptul intern. Prezentul regulament ar trebui să nu aducă atingere dispozițiilor care vizează îmbunătățirea condițiilor de muncă în ceea ce privește munca prin intermediul platformelor, prevăzute într-o Directivă a Parlamentului European și a Consiliului privind îmbunătățirea condițiilor de muncă pentru lucrul prin intermediul platformelor. În plus, prezentul regulament urmărește să consolideze eficacitatea acestor drepturi și căi de atac existente prin stabilirea unor cerințe și obligații specifice, inclusiv în ceea ce privește transparența, documentația tehnică și păstrarea evidențelor sistemelor de IA. De asemenea, obligațiile impuse diferiților operatori implicați în lanțul valoric al IA în temeiul prezentului regulament ar trebui să se aplice fără a aduce atingere dreptului intern, în conformitate cu dreptul Uniunii, având ca efect limitarea utilizării anumitor sisteme de IA în cazul în care dreptul respectiv nu intră în domeniul de aplicare al prezentului regulament sau urmărește alte obiective legitime de interes public decât cele urmărite de prezentul regulament. De exemplu, dreptul intern al muncii și dreptul intern privind protecția minorilor, și anume a persoanelor cu vârsta sub 18 ani, ținând seama de Comentariul general nr. 25 (2021) la Convenția UNCRC cu privire la drepturile copiilor în legătură cu mediul digital, în măsura în care nu sunt specifice sistemelor de IA și urmăresc alte obiective legitime de interes public, ar trebui să nu fie afectate de prezentul regulament.
(10)
Het grondrecht van de bescherming van persoonsgegevens wordt met name gewaarborgd door de Verordeningen (EU) 2016/679 (11) en (EU) 2018/1725 (12) van het Europees Parlement en de Raad en Richtlijn (EU) 2016/680 van het Europees Parlement en de Raad (13). Daarnaast beschermt Richtlijn 2002/58/EG van het Europees Parlement en de Raad (14) het privéleven en de vertrouwelijkheid van communicatie, onder meer door te voorzien in voorwaarden met betrekking tot de opslag van en de toegang tot persoonsgegevens en niet-persoonsgebonden gegevens in eindapparatuur. Die rechtshandelingen van de Unie vormen de basis voor duurzame en verantwoorde dataverwerking, onder meer wanneer datasets een mix van persoonsgegevens en niet-persoonsgebonden gegevens bevatten. Deze verordening laat de toepassing van de bestaande Uniewetgeving betreffende de verwerking van persoonsgegevens, met inbegrip van de taken en bevoegdheden van de onafhankelijke toezichthoudende autoriteiten die met het toezicht op de naleving van die instrumenten belast zijn, onverlet. Deze verordening doet evenmin afbreuk aan de verplichtingen van aanbieders en gebruiksverantwoordelijken van AI-systemen in hun rol als verwerkingsverantwoordelijke of verwerker die voortvloeien uit het Unie- of nationale recht inzake de bescherming van persoonsgegevens, voor zover er in het kader van het ontwerp, de ontwikkeling of het gebruik van AI-systemen persoonsgegevens worden verwerkt. Het is ook passend te verduidelijken dat betrokkenen alle rechten en waarborgen blijven genieten die hun door dat Unierecht zijn toegekend, met inbegrip van de rechten die verband houden met uitsluitend geautomatiseerde individuele besluitvorming, waaronder profilering. De in deze verordening vastgelegde geharmoniseerde regels voor het in de handel brengen, de ingebruikstelling en het gebruik van AI-systemen moeten de doeltreffende uitvoering vergemakkelijken en de uitoefening van de rechten en andere rechtsmiddelen van betrokkenen mogelijk maken die worden gewaarborgd door het Unierecht inzake de bescherming van persoonsgegevens en andere grondrechten.
(10)
Dreptul fundamental la protecția datelor cu caracter personal este protejat în special de Regulamentele (UE) 2016/679 (11) și (UE) 2018/1725 (12) ale Parlamentului European și ale Consiliului și de Directiva (UE) 2016/680 a Parlamentului European și a Consiliului (13). Directiva 2002/58/CE a Parlamentului European și a Consiliului (14) protejează, în plus, viața privată și confidențialitatea comunicațiilor, inclusiv prin faptul că prevede condiții pentru stocarea și accesarea pe echipamente terminale a oricăror date cu și fără caracter personal. Respectivele acte legislative ale Uniunii asigură temeiul prelucrării durabile și responsabile a datelor, inclusiv atunci când seturile de date conțin un amestec de date cu caracter personal și date fără caracter personal. Prezentul regulament nu urmărește să aducă atingere aplicării dreptului în vigoare al Uniunii care reglementează prelucrarea datelor cu caracter personal, nici sarcinilor și competențelor autorităților de supraveghere independente care sunt competente să monitorizeze respectarea instrumentelor respective. Prezentul regulament nu aduce atingere nici obligațiilor furnizorilor și implementatorilor de sisteme de IA în rolul lor de operatori de date sau de persoane împuternicite de operatori, care decurg din dreptul Uniunii sau din dreptul național privind protecția datelor cu caracter personal, în măsura în care proiectarea, dezvoltarea sau utilizarea sistemelor de IA implică prelucrarea de date cu caracter personal. De asemenea, este oportun să se clarifice că persoanele vizate continuă să beneficieze de toate drepturile și garanțiile care le sunt acordate de dreptul Uniunii, printre care se numără drepturile legate de procesul decizional individual complet automatizat, inclusiv crearea de profiluri. Normele armonizate pentru introducerea pe piață, punerea în funcțiune și utilizarea sistemelor de IA instituite în temeiul prezentului regulament ar trebui să faciliteze punerea în aplicare efectivă și să permită exercitarea drepturilor persoanelor vizate și a altor căi de atac garantate în temeiul dreptului Uniunii privind protecția datelor cu caracter personal și a altor drepturi fundamentale.
(11)
Deze verordening mag geen afbreuk doen aan de bepalingen betreffende de aansprakelijkheid van aanbieders van tussenhandelsdiensten, zoals vastgelegd in Verordening 2022/2065 van het Europees Parlement en de Raad (15).
(11)
Prezentul regulament ar trebui să nu aducă atingere dispozițiilor privind răspunderea furnizorilor de servicii intermediare prevăzute în Regulamentul (UE) 2022/2065 al Parlamentului European și al Consiliului (15).
(12)
Het begrip “AI-systeem” in deze verordening moet duidelijk worden gedefinieerd en moet nauw aansluiten op het werk van internationale organisaties die zich bezighouden met AI, om rechtszekerheid te waarborgen, internationale convergentie en brede acceptatie te faciliteren, en tegelijkertijd de nodige flexibiliteit te bieden om op de snelle technologische ontwikkelingen op dit gebied te kunnen inspelen. Bovendien moet de definitie gebaseerd zijn op de belangrijkste kenmerken van AI-systemen die het onderscheiden van eenvoudigere traditionele softwaresystemen of programmeringsbenaderingen, en mag het geen betrekking hebben op systemen die gebaseerd zijn op regels die uitsluitend door natuurlijke personen zijn vastgesteld om automatisch handelingen uit te voeren. Een belangrijk kenmerk van AI-systemen is hun inferentievermogen. Dit inferentievermogen slaat op het proces waarbij output, zoals voorspellingen, content, aanbevelingen of besluiten, wordt verkregen waarmee fysieke en virtuele omgevingen kunnen worden beïnvloed, en op het vermogen van AI-systemen om modellen of algoritmen, of beide, af te leiden uit input of data. De technieken die inferentie mogelijk maken bij de opbouw van een AI-systeem, omvatten benaderingen op basis van machinaal leren waarbij aan de hand van data wordt geleerd hoe bepaalde doelstellingen kunnen worden bereikt, alsook op logica en kennis gebaseerde benaderingen waarbij iets wordt geïnfereerd uit gecodeerde kennis of uit een symbolische weergave van de op te lossen taak. Het inferentievermogen van een AI-systeem overstijgt de elementaire verwerking van data door leren, redeneren of modelleren mogelijk te maken. De term “op een machine gebaseerd” verwijst naar het feit dat AI-systemen op machines draaien. De verwijzing naar expliciete of impliciete doelstellingen onderstreept dat AI-systemen kunnen functioneren volgens expliciete, gedefinieerde doelstellingen, of volgens impliciete doelstellingen. De doelstellingen van een AI-systeem kunnen verschillen van het beoogde doel van het AI-systeem in een specifieke context. Voor de toepassing van deze verordening moeten onder omgevingen de contexten worden verstaan waarin de AI-systemen werken, terwijl de output die door het AI-systeem wordt gegenereerd een uiting is van de verschillende functies van AI-systemen en de vorm kan aannemen van voorspellingen, content, aanbevelingen of besluiten. AI-systemen worden zodanig ontworpen dat zij in verschillende mate autonoom kunnen functioneren, wat betekent dat zij een zekere mate van onafhankelijkheid van menselijke betrokkenheid bezitten en zonder menselijke tussenkomst kunnen functioneren. Het aanpassingsvermogen dat een AI-systeem na het inzetten ervan kan vertonen, heeft betrekking op zelflerende capaciteiten, waardoor het systeem tijdens het gebruik kan veranderen. AI-systemen kunnen op standalonebasis of als component van een product worden gebruikt, ongeacht of het systeem fysiek in het product is geïntegreerd (ingebed) dan wel ten dienste staat van de functionaliteit van het product zonder daarin te zijn geïntegreerd (niet-ingebed).
(12)
Noțiunea de „sistem de IA” din prezentul regulament ar trebui să fie definită în mod clar și ar trebui să fie aliniată îndeaproape la lucrările organizațiilor internaționale care își desfășoară activitatea în domeniul IA, pentru a asigura securitatea juridică și a facilita convergența internațională și acceptarea pe scară largă, oferind în același timp flexibilitatea necesară pentru a ține seama de evoluțiile tehnologice rapide din acest domeniu. În plus, definiția ar trebui să se bazeze pe caracteristicile esențiale ale sistemelor de IA, care le diferențiază de sistemele software sau abordările de programare tradiționale mai simple, și nu ar trebui să acopere sistemele care se bazează pe reguli definite exclusiv de persoane fizice pentru a executa în mod automat anumite operațiuni. O caracteristică esențială a sistemelor de IA este capabilitatea lor de a realiza deducții. Această capabilitate se referă la procesul de obținere a rezultatelor, cum ar fi previziuni, conținut, recomandări sau decizii, care pot influența mediile fizice și virtuale, precum și la capabilitatea sistemelor de IA de a deriva modele sau algoritmi, sau ambele, din date sau din datele de intrare. Printre tehnicile folosite în timpul conceperii unui sistem de IA care fac posibilă realizarea de deducții se numără abordările bazate pe învățarea automată, care presupun a învăța, pe baza datelor, cum pot fi atinse anumite obiective, și abordările bazate pe logică și pe cunoaștere, care presupun realizarea de deducții pornind de la cunoștințe codificate sau de la reprezentarea simbolică a sarcinii de rezolvat. Capacitatea unui sistem de IA de a realiza deducții depășește simpla prelucrare de date, făcând posibile învățarea, raționamentul sau modelarea. Termenul „bazat pe calculator” se referă la faptul că sistemele de IA rulează pe calculatoare. Trimiterea la obiective explicite sau implicite subliniază faptul că sistemele de IA pot funcționa în conformitate cu obiective definite explicite sau cu obiective implicite. Obiectivele sistemului de IA pot fi diferite de scopul preconizat al sistemului de IA într-un context specific. În sensul prezentului regulament, mediile ar trebui să fie înțelese ca fiind contextele în care funcționează sistemele de IA, în timp ce rezultatele generate de sistemele de IA reflectă diferitele funcții îndeplinite de acestea și includ previziuni, conținut, recomandări sau decizii. Sistemele de IA sunt concepute pentru a funcționa cu diferite niveluri de autonomie, ceea ce înseamnă că au un anumit grad de independență a acțiunilor față de implicarea umană și anumite capabilități de a funcționa fără intervenție umană. Adaptabilitatea de care un sistem de IA ar putea da dovadă după implementare se referă la capabilitățile de autoînvățare, care permit sistemului să se modifice în timpul utilizării. Sistemele de IA pot fi utilizate în mod independent sau ca o componentă a unui produs, indiferent dacă sistemul este integrat fizic în produs (încorporat) sau dacă servește funcționalității produsului fără a fi integrat în acesta (neîncorporat).
(13)
Het in deze verordening bedoelde begrip “gebruiksverantwoordelijke” moet worden uitgelegd als alle natuurlijke of rechtspersonen, met inbegrip van overheidsinstanties, agentschappen of andere organen, die een AI-systeem onder eigen verantwoordelijkheid gebruiken, behalve in gevallen waarin het AI-systeem wordt gebruikt in het kader van een persoonlijke niet-professionele activiteit. Afhankelijk van het type AI-systeem kan het gebruik van het systeem invloed hebben op andere personen dan de gebruiksverantwoordelijke.
(13)
Noțiunea de „implementator” menționată în prezentul regulament ar trebui să fie interpretată ca făcând referire la orice persoană fizică sau juridică, inclusiv la o autoritate publică, o agenție sau un alt organism, care utilizează un sistem de IA aflat sub autoritatea sa, cu excepția cazului în care sistemul de IA este utilizat în cursul unei activități personale, fără caracter profesional. În funcție de tipul de sistem de IA, utilizarea sistemului poate afecta alte persoane decât implementatorul.
(14)
Het in deze verordening gebruikte begrip “biometrische gegevens” moet worden uitgelegd in het licht van het begrip biometrische gegevens zoals gedefinieerd in artikel 4, punt 14), van Verordening (EU) 2016/679, artikel 3, punt 18), van Verordening (EU) 2018/1725 en artikel 3, punt 13), van Richtlijn (EU) 2016/680. Biometrische gegevens kunnen de authenticatie, identificatie of categorisering van natuurlijke personen en de herkenning van emoties van natuurlijke personen mogelijk maken.
(14)
Noțiunea de „date biometrice” utilizată în prezentul regulament ar trebui să fie interpretată în concordanță cu noțiunea de „date biometrice”, astfel cum este definită la articolul 4 punctul 14 din Regulamentul (UE) 2016/679, la articolul 3 punctul 18 din Regulamentul (UE) 2018/1725 și la articolul 3 punctul 13 din Directiva (UE) 2016/680. Datele biometrice pot permite autentificarea, identificarea sau clasificarea persoanelor fizice, precum și recunoașterea emoțiilor acestora.
(15)
Het in deze verordening bedoelde begrip “biometrische identificatie” moet worden gedefinieerd als de automatische herkenning van fysieke, fysiologische en gedragsgerelateerde menselijke kenmerken zoals het gezicht, oogbewegingen, lichaamsvorm, stem, prosodie, gang, houding, hartslag, bloeddruk, geur, toetsaanslagen, met als doel de identiteit van een natuurlijke persoon vast te stellen door biometrische gegevens van die natuurlijke persoon te vergelijken met opgeslagen biometrische gegevens van natuurlijke personen in een referentiedatabank, ongeacht of die natuurlijke persoon daarmee heeft ingestemd. Daarvan uitgesloten zijn AI-systemen die bedoeld zijn om te worden gebruikt voor biometrische verificatie, met inbegrip van authenticatie, die er uitsluitend op gericht zijn te bevestigen dat een specifieke natuurlijke persoon daadwerkelijk de persoon is die hij of zij beweert te zijn, en de identiteit van een natuurlijke persoon te bevestigen met als enige doel toegang te verschaffen tot een dienst, een apparaat te ontgrendelen of beveiligde toegang te verschaffen tot een locatie.
(15)
Noțiunea de „identificare biometrică” menționată în prezentul regulament ar trebui să fie definită drept recunoașterea automată a unor trăsături umane fizice, fiziologice și comportamentale, precum fața, mișcările ochilor, forma corpului, vocea, intonația, mersul, postura, frecvența cardiacă, tensiunea arterială, mirosul, particularitățile de tastare, în scopul de a stabili identitatea unei persoane comparând datele biometrice ale persoanei respective cu date biometrice ale unor persoane stocate într-o bază de date de referință, indiferent dacă persoana în cauză și-a dat sau nu consimțământul. Nu se încadrează aici sistemele de IA destinate a fi utilizate pentru verificarea biometrică, care include autentificarea, al căror unic scop este de a confirma că o anumită persoană fizică este persoana care susține că este și de a confirma identitatea unei persoane fizice cu unicul scop de a-i permite accesul la un serviciu, deblocarea unui dispozitiv sau accesul securizat într-o incintă.
(16)
Het begrip “biometrische categorisering” in deze verordening moet worden gedefinieerd als het toewijzen van natuurlijke personen aan specifieke categorieën op basis van hun biometrische gegevens. Zulke specifieke categorieën kunnen betrekking hebben op aspecten zoals geslacht, leeftijd, haarkleur, oogkleur, tatoeages, gedragsgerelateerde of persoonlijkheidskenmerken, taal, religie, het behoren tot een nationale minderheid, seksuele gerichtheid of politieke overtuiging. Daarvan uitgesloten zijn systemen voor biometrische categorisering die een louter bijkomstige functie zijn die intrinsiek verbonden is met een andere commerciële dienst, waarbij die functie om objectieve technische redenen niet los van de hoofddienst kan worden gebruikt, en de integratie van die functie of functionaliteit geen middel is om de toepassing van de regels van deze verordening te omzeilen. Filters die op onlinemarktplaatsen gebruikte gezichts- of lichaamskenmerken categoriseren, kunnen bijvoorbeeld een dergelijke nevenfunctie vormen, aangezien zij alleen kunnen worden gebruikt voor de hoofddienst die bestaat in de verkoop van een product door de consument in staat te stellen de weergave van het product op zichzelf te bekijken en de consument te helpen een aankoopbeslissing te nemen. Filters die worden gebruikt op online socialenetwerkdiensten die gezichts- of lichaamskenmerken categoriseren om gebruikers in staat te stellen foto’s of video’s toe te voegen of te wijzigen, kunnen ook als bijkomstig worden beschouwd, aangezien dergelijke filters niet kunnen worden gebruikt zonder de hoofddienst van de socialenetwerkdiensten die bestaat in het online delen van content.
(16)
Noțiunea de „clasificare biometrică” menționată în prezentul regulament ar trebui să fie definită drept încadrarea persoanelor fizice în categorii specifice pe baza datelor lor biometrice. Astfel de categorii specifice se pot referi la aspecte precum sexul, vârsta, culoarea părului, culoarea ochilor, tatuajele, trăsăturile comportamentale sau de personalitate, limba, religia, apartenența la o minoritate națională, orientarea sexuală sau politică. Nu se încadrează aici sistemele de clasificare biometrică care constituie un element pur auxiliar legat intrinsec de un alt serviciu comercial, ceea ce înseamnă că, din motive tehnice obiective, elementul respectiv nu poate fi utilizat fără serviciul principal, iar integrarea acelui element sau a acelei funcționalități nu este un mijloc de a eluda aplicabilitatea normelor prezentului regulament. De exemplu, filtrele care clasifică caracteristicile faciale sau corporale utilizate pe piețele online ar putea constitui un astfel de element auxiliar, deoarece pot fi utilizate numai în legătură cu serviciul principal care constă în vânzarea unui produs, permițând consumatorului să vizualizeze cum ar arăta produsul pe el însuși și ajutându-l să ia o decizie de cumpărare. Filtrele utilizate în cadrul serviciilor de rețele de socializare care clasifică caracteristicile faciale sau corporale pentru a permite utilizatorilor să adauge sau să modifice fotografii sau materiale video ar putea, de asemenea, să fie considerate elemente auxiliare, deoarece un astfel de filtru nu poate fi utilizat fără serviciul principal de rețea de socializare care constă în partajarea de conținut online.
(17)
Het in deze verordening bedoelde begrip “systeem voor biometrische identificatie op afstand” moet functioneel worden gedefinieerd, als een AI-systeem dat bedoeld is voor de identificatie van natuurlijke personen, doorgaans van een afstand, zonder dat zij hier actief bij betrokken zijn, door vergelijking van de biometrische gegevens van een persoon met de biometrische gegevens die zijn opgenomen in een referentiedatabank, ongeacht de specifieke gebruikte technologie, processen of soorten biometrische gegevens. Dergelijke systemen voor biometrische identificatie op afstand worden doorgaans gebruikt om meerdere personen of hun gedrag gelijktijdig waar te nemen, teneinde de identificatie van natuurlijke personen, zonder dat zij er actief bij betrokken zijn, aanzienlijk te vergemakkelijken. Daarvan uitgesloten zijn AI-systemen die bedoeld zijn om te worden gebruikt voor biometrische verificatie, met inbegrip van authenticatie, met als enige doel te bevestigen dat een specifieke natuurlijke persoon daadwerkelijk de persoon is die hij of zij beweert te zijn, en de identiteit van een natuurlijke persoon te bevestigen met als enige doel toegang te verschaffen tot een dienst, een apparaat te ontgrendelen of beveiligde toegang te verschaffen tot een locatie. Die uitsluiting wordt gerechtvaardigd door het feit dat dergelijke systemen waarschijnlijk geringe gevolgen zullen hebben voor de grondrechten van natuurlijke personen in vergelijking met systemen voor biometrische identificatie op afstand die kunnen worden gebruikt voor de verwerking van biometrische gegevens van een groot aantal personen, zonder dat zij er actief bij betrokken zijn. In het geval van realtimesystemen gebeurt de vastlegging van de biometrische gegevens, de vergelijking en de identificatie allemaal ogenblikkelijk, bijna ogenblikkelijk of in ieder geval zonder noemenswaardige vertraging. In dit verband mag er geen ruimte zijn om de regels van deze verordening betreffende het realtimegebruik van de betrokken AI-systemen te omzeilen door kleine vertragingen toe te staan. Bij realtimesystemen wordt gebruik gemaakt van: “live” of “bijna live” materiaal, zoals videobeelden, die worden gegenereerd door een camera of een ander toestel met soortgelijke functionaliteit. In het geval van systemen “achteraf” zijn de biometrische gegevens daarentegen reeds vastgelegd en vinden de vergelijking en de identificatie pas met een noemenswaardige vertraging plaats. Het gaat dan om materiaal, zoals foto’s of videobeelden gegenereerd door camera’s van een gesloten televisiecircuit of privétoestellen, dat vóór het gebruik van het systeem is gegenereerd met betrekking tot de betrokken natuurlijke personen.
(17)
Noțiunea de „sistem de identificare biometrică la distanță” menționată în prezentul regulament ar trebui să fie definită din punct de vedere funcțional ca fiind un sistem de IA destinat identificării persoanelor fizice fără implicarea activă a acestora, de regulă de la distanță, prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință, indiferent de tehnologia specifică, procesele specifice sau tipurile specifice de date biometrice utilizate. Astfel de sisteme de identificare biometrică la distanță sunt utilizate, de regulă, pentru a percepe mai multe persoane sau comportamentul acestora simultan, cu scopul de a facilita în mod semnificativ identificarea persoanelor fizice fără implicarea lor activă. Nu se încadrează aici sistemele de IA destinate a fi utilizate pentru verificarea biometrică, care include autentificarea, al căror unic scop este de a confirma că o anumită persoană fizică este persoana care susține că este și de a confirma identitatea unei persoane fizice cu unicul scop de a-i permite accesul la un serviciu, deblocarea unui dispozitiv sau accesul securizat într-o incintă. Această excludere este justificată de faptul că, cel mai probabil, astfel de sisteme au un impact minor asupra drepturilor fundamentale ale persoanelor fizice în comparație cu sistemele de identificare biometrică la distanță care pot fi utilizate pentru prelucrarea datelor biometrice ale unui număr mare de persoane fără implicarea lor activă. În cazul sistemelor „în timp real”, captarea datelor biometrice, compararea și identificarea se efectuează instantaneu, aproape instantaneu sau, în orice caz, fără întârzieri semnificative. În acest sens, nu ar trebui să existe posibilități de eludare a normelor prezentului regulament privind utilizarea „în timp real” a sistemelor de IA în cauză prin prevederea unor întârzieri minore. Sistemele „în timp real” implică utilizarea de materiale „în direct” sau „aproape în direct”, cum ar fi înregistrări video generate de o cameră video sau de un alt dispozitiv cu funcționalitate similară. În schimb, în cazul sistemelor de identificare „ulterioară”, datele biometrice au fost deja captate, iar compararea și identificarea au loc numai după o întârziere semnificativă. În acest caz sunt utilizate materiale, cum ar fi imagini sau înregistrări video generate de camere de televiziune cu circuit închis sau de dispozitive private, care au fost generate înainte de utilizarea sistemului în legătură cu persoanele fizice în cauză.
(18)
Het in deze verordening bedoelde begrip “systeem voor het herkennen van emoties” moet worden gedefinieerd als een AI-systeem dat is bedoeld voor het vaststellen of afleiden van de emoties of intenties van natuurlijke personen op basis van hun biometrische gegevens. Het begrip verwijst naar emoties of intenties zoals geluk, droefheid, woede, verrassing, weerzin, verlegenheid, opwinding, schaamte, minachting, tevredenheid en plezier. Het omvat geen fysieke toestanden, zoals pijn of vermoeidheid, met inbegrip van bijvoorbeeld systemen die worden gebruikt om vermoeidheid bij beroepspiloten of beroepschauffeurs te detecteren om ongevallen te voorkomen. Het omvat evenmin de loutere detectie van gemakkelijk zichtbare uitdrukkingen, gebaren of bewegingen, tenzij deze worden gebruikt om emoties te herkennen of af te leiden. Die uitdrukkingen kunnen basale gezichtsuitdrukkingen zijn, zoals een frons of een glimlach, of gebaren zoals hand-, arm-, of hoofdbewegingen, of kenmerken van iemands stem, zoals een luide spreektoon of een fluistertoon.
(18)
Noțiunea de „sistem de recunoaștere a emoțiilor” menționată în prezentul regulament ar trebui să fie definită ca un sistem de IA destinat identificării sau deducerii emoțiilor sau intențiilor persoanelor fizice pe baza datelor lor biometrice. Noțiunea se referă la emoții sau intenții precum fericirea, tristețea, furia, surpriza, dezgustul, stânjeneala, entuziasmul, rușinea, disprețul, satisfacția și amuzamentul. Nu sunt incluse stări fizice, cum ar fi durerea sau oboseala, inclusiv, de exemplu, sistemele utilizate pentru detectarea stării de oboseală a piloților sau conducătorilor auto profesioniști în scopul prevenirii accidentelor. De asemenea, nu este inclusă simpla detectare a expresiilor, gesturilor sau mișcărilor evidente, decât dacă sunt utilizate pentru identificarea sau deducerea emoțiilor. Expresiile respective pot fi expresii faciale de bază, cum ar fi o încruntătură sau un zâmbet, ori gesturi, cum ar fi mișcarea mâinilor, a brațelor sau a capului, ori caracteristici ale vocii unei persoane, cum ar fi o voce ridicată sau vorbitul în șoaptă.
(19)
Voor de toepassing van deze verordening moet het begrip “openbare ruimte” worden opgevat als een verwijzing naar elke fysieke plaats die toegankelijk is voor een onbepaald aantal natuurlijke personen, ongeacht of de plaats in kwestie particulier of publiek eigendom is, ongeacht de activiteit waarvoor de plaats kan worden gebruikt, zoals voor handel, zoals winkels, restaurants, cafés, voor diensten, zoals banken, beroepsactiviteiten, horeca, voor sport, zoals zwembaden, fitnesscentra, stadions, voor vervoer, zoals bus-, metro- en treinstations, luchthavens, vervoermiddelen, voor ontspanning, zoals bioscopen, theaters, musea, concert- en conferentiezalen of voor vrijetijdsbesteding of anderszins, zoals openbare wegen en pleinen, parken, bossen, speelplaatsen. Een plaats moet ook als openbare ruimte worden ingedeeld indien, ongeacht potentiële capaciteits- of beveiligings-beperkingen, de toegang onderworpen is aan bepaalde vooraf vastgestelde voorwaarden waaraan een onbepaald aantal personen kan voldoen, zoals de aankoop van een vervoerbewijs of een vervoerstitel, voorafgaande registratie of het hebben van een bepaalde leeftijd. Een plaats mag daarentegen niet als openbare ruimte worden beschouwd indien de toegang beperkt is tot specifieke en gedefinieerde natuurlijke personen door middel van Unie- of nationale wetgeving die rechtstreeks verband houdt met de openbare veiligheid of beveiliging of door de duidelijke wilsuiting van de persoon die ter plaatse over de benodigde autoriteit beschikt. De feitelijke mogelijkheid van toegang alleen, zoals een onvergrendelde deur of een open poort in een omheining, betekent niet dat de plaats een openbare ruimte is wanneer er aanwijzingen of omstandigheden zijn die het tegendeel suggereren, zoals borden die de toegang verbieden of beperken. Bedrijfsruimten en fabrieksgebouwen, alsook kantoren en werkplekken die alleen bestemd zijn voor bevoegde werknemers en dienstverleners, zijn plaatsen die niet openbaar zijn. Gevangenissen of grenstoezichtsgebieden mogen niet als openbare ruimte worden ingedeeld. Sommige andere plaatsen kunnen uit zowel niet-openbare als openbare ruimten bestaan, zoals de hal van een particulier woongebouw waar men door moet om bij een arts te komen, of een luchthaven. Onlineruimten vallen onder het toepassingsgebied, omdat het geen fysieke ruimten zijn. Of een bepaalde ruimte openbaar is, moet echter per geval worden bepaald, rekening houdend met de specifieke omstandigheden van de situatie in kwestie.
(19)
În sensul prezentului regulament, noțiunea de „spațiu accesibil publicului” ar trebui să fie înțeleasă ca referindu-se la orice spațiu fizic accesibil unui număr nedeterminat de persoane fizice, indiferent dacă spațiul în cauză este proprietate privată sau publică și indiferent de activitatea pentru care poate fi utilizat spațiul, cum ar fi comerț, de exemplu, magazine, restaurante, cafenele; servicii, de exemplu, bănci, activități profesionale, structuri de primire turistică; sport, de exemplu, piscine, săli de sport, stadioane; transporturi, de exemplu, stații de autobuz și de metrou, gări, aeroporturi, mijloace de transport; divertisment, de exemplu, cinematografe, teatre, muzee, săli de concerte și de conferințe, agrement sau altele, de exemplu, drumuri și piețe publice, parcuri, păduri, terenuri de joacă. Totodată, un spațiu ar trebui să fie clasificat ca fiind accesibil publicului și în cazul în care, indiferent de capacitatea potențială sau de restricțiile de securitate, accesul este supus anumitor condiții prestabilite, care pot fi îndeplinite de un număr nedeterminat de persoane, cum ar fi achiziționarea unui bilet sau a unui titlu de transport, înregistrarea prealabilă sau condiția de a avea o anumită vârstă. În schimb, un spațiu nu ar trebui să fie considerat accesibil publicului dacă accesul este limitat la anumite persoane fizice definite ca atare fie prin dreptul Uniunii, fie prin cel intern, în legătură directă cu siguranța sau securitatea publică sau prin manifestarea clară de voință a persoanei care deține autoritatea necesară asupra spațiului. Simpla posibilitate de acces (cum ar fi o ușă descuiată sau o poartă deschisă într-un gard) nu implică faptul că spațiul este accesibil publicului în prezența unor indicații sau circumstanțe care sugerează contrariul (de exemplu, semne care interzic sau restricționează accesul). Sediile întreprinderilor și ale fabricilor, precum și birourile și locurile de muncă care sunt destinate a fi accesate numai de către angajații și prestatorii de servicii competenți sunt spații care nu sunt accesibile publicului. Spațiile accesibile publicului nu ar trebui să includă închisorile sau punctele de control la frontieră. Alte spații pot cuprinde atât spații accesibile publicului, cât și spații care nu sunt accesibile publicului, cum ar fi holul unei clădiri rezidențiale private, care trebuie parcurs pentru a avea acces la un cabinet medical, sau un aeroport. Spațiile online nu sunt nici ele vizate, deoarece nu sunt spații fizice. Cu toate acestea, ar trebui să se stabilească de la caz la caz dacă un anumit spațiu este accesibil publicului, având în vedere particularitățile situației individuale în cauză.
(20)
Om de grootste voordelen van AI-systemen te behalen en tegelijkertijd de grondrechten, gezondheid en veiligheid te beschermen en democratische controle mogelijk te maken, moeten aanbieders, gebruiksverantwoordelijken en betrokken personen door middel van AI-geletterdheid van de nodige kennis voorzien worden om onderbouwde beslissingen te nemen met betrekking tot AI-systemen. Die kennis kan verschillen naargelang de context en kan inzicht omvatten in de correcte toepassing van technische elementen tijdens de ontwikkelingsfase van het AI-systeem, de maatregelen die moeten worden toegepast tijdens het gebruik ervan, hoe de output van het AI-systeem moet worden geïnterpreteerd, en, in het geval van betrokken personen, de kennis die nodig is om te begrijpen hoe beslissingen die met behulp van AI worden genomen, op hen van invloed zullen zijn. In het kader van de toepassing van deze verordening moet AI-geletterdheid alle relevante actoren in de AI-waardeketen de inzichten verschaffen die nodig zijn om de passende naleving en de correcte handhaving ervan te waarborgen. Voorts kunnen de brede uitvoering van maatregelen op het gebied van AI-geletterdheid en de invoering van passende vervolgmaatregelen bijdragen tot het verbeteren van de arbeidsomstandigheden en uiteindelijk de consolidatie en innovatie van betrouwbare AI in de Unie ondersteunen. De Europese raad voor artificiële intelligentie (European Artificial Intelligence Board — de “AI-board”) moet de Commissie ondersteunen bij het bevorderen van instrumenten voor AI-geletterdheid en van de bekendheid van het publiek met en hun begrip van de voordelen, risico’s, waarborgen, rechten en plichten met betrekking tot het gebruik van AI-systemen. In samenwerking met de relevante belanghebbenden moeten de Commissie en de lidstaten de opstelling van vrijwillige gedragscodes faciliteren om de AI-geletterdheid te bevorderen bij personen die zich bezighouden met de ontwikkeling, de exploitatie en het gebruik van AI.
(20)
Pentru a obține beneficii cât mai mari de pe urma sistemelor de IA, protejând în același timp drepturile fundamentale, sănătatea și siguranța, și pentru a permite controlul democratic, alfabetizarea în domeniul IA ar trebui să le ofere furnizorilor, implementatorilor și persoanelor afectate noțiunile necesare pentru a lua decizii în cunoștință de cauză cu privire la sistemele de IA. Aceste noțiuni pot varia în funcție de contextul relevant și pot include înțelegerea aplicării corecte a elementelor tehnice în faza de dezvoltare a sistemului de IA, măsurile care trebuie aplicate în timpul utilizării sale, modalitățile adecvate de interpretare a rezultatelor sistemului de IA și, în cazul persoanelor afectate, cunoștințele necesare pentru a înțelege impactul pe care îl vor avea asupra lor deciziile luate cu ajutorul IA. În contextul aplicării prezentului regulament, alfabetizarea în domeniul IA ar trebui să ofere tuturor actorilor relevanți din lanțul valoric al IA informațiile necesare pentru a asigura conformitatea adecvată și aplicarea corectă a regulamentului. În plus, punerea în aplicare pe scară largă a măsurilor de alfabetizare în domeniul IA și introducerea unor acțiuni subsecvente adecvate ar putea contribui la îmbunătățirea condițiilor de muncă și, în cele din urmă, ar putea susține consolidarea unei IA de încredere și inovarea în acest domeniu în Uniune. Consiliul european pentru inteligența artificială (denumit în continuare „Consiliul IA”) ar trebui să sprijine Comisia pentru a promova instrumente de alfabetizare în domeniul IA, sensibilizarea publicului și înțelegerea beneficiilor, a riscurilor, a garanțiilor, a drepturilor și a obligațiilor care decurg din utilizarea sistemelor de IA. În cooperare cu părțile interesate relevante, Comisia și statele membre ar trebui să faciliteze elaborarea unor coduri de conduită voluntare pentru a promova alfabetizarea în domeniul IA în rândul persoanelor care se ocupă de dezvoltarea, exploatarea și utilizarea IA.
(21)
Om een gelijk speelveld en een doeltreffende bescherming van de rechten en vrijheden van natuurlijke personen in heel de Unie te garanderen, moeten de bij deze verordening vastgestelde regels zonder discriminatie van toepassing zijn op aanbieders van AI-systemen, ongeacht of zij in de Unie of in een derde land gevestigd zijn, en op in de Unie gevestigde gebruiksverantwoordelijken van AI-systemen.
(21)
Pentru a asigura condiții de concurență echitabile și o protecție eficace a drepturilor și libertăților persoanelor fizice în întreaga Uniune, normele stabilite prin prezentul regulament ar trebui să se aplice în mod nediscriminatoriu furnizorilor de sisteme de IA, indiferent dacă sunt stabiliți în Uniune sau într-o țară terță, precum și implementatorilor de sisteme de IA stabiliți în Uniune.
(22)
Gezien hun digitale aard moeten zelfs bepaalde AI-systemen die niet in de Unie in de handel worden gebracht, in gebruik worden gesteld of worden gebruikt, onder het toepassingsgebied van deze verordening vallen. Dit is bijvoorbeeld het geval wanneer een in de Unie gevestigde operator aan een in een derde land gevestigde operator bepaalde diensten uitbesteedt voor een activiteit die wordt verricht door een AI-systeem dat als een AI-systeem met een hoog risico kan worden aangemerkt. In die omstandigheden zou het AI-systeem dat door de operator in een derde land wordt gebruikt, data kunnen verwerken die rechtmatig in de Unie zijn verzameld en vanuit de Unie zijn doorgegeven, en vervolgens de aanbestedende operator in de Unie kunnen voorzien van de output van dat AI-systeem die het resultaat is van die verwerking, zonder dat het AI-systeem in de Unie in de handel wordt gebracht, in gebruik wordt gesteld of wordt gebruikt. Om te voorkomen dat deze verordening wordt omzeild en om natuurlijke personen die zich in de Unie bevinden doeltreffend te beschermen, moet deze verordening ook van toepassing zijn op aanbieders en gebruiksverantwoordelijken van AI-systemen die in een derde land zijn gevestigd, voor zover de door die systemen geproduceerde output bedoeld is om in de Unie te worden gebruikt. Om rekening te houden met bestaande regelingen en bijzondere behoeften inzake toekomstige samenwerking met buitenlandse partners waarmee informatie en bewijsmateriaal worden uitgewisseld, mag deze verordening evenwel niet van toepassing zijn op overheidsinstanties van een derde land en internationale organisaties wanneer zij optreden in het kader van samenwerking of internationale overeenkomsten die op het niveau van de Unie of op nationaal niveau zijn gesloten met het oog op samenwerking met de Unie of haar lidstaten op het gebied van rechtshandhaving en justitie, mits het betrokken derde land of de betrokken internationale organisatie in passende waarborgen voorziet met betrekking tot de bescherming van de grondrechten en fundamentele vrijheden van natuurlijke personen. In voorkomend geval kan dit betrekking hebben op activiteiten van entiteiten die door derde landen zijn belast met de uitvoering van specifieke taken ter ondersteuning van deze samenwerking op het gebied van rechtshandhaving en justitie. Een dergelijk kader voor samenwerking of dergelijke overeenkomsten zijn bilateraal gesloten tussen lidstaten en derde landen of tussen de Europese Unie, Europol en andere agentschappen van de Unie enerzijds en derde landen en internationale organisaties anderzijds. De autoriteiten die uit hoofde van deze verordening bevoegd zijn voor het toezicht op de rechtshandhavingsinstanties en justitiële autoriteiten, moeten beoordelen of die kaders voor samenwerking of internationale overeenkomsten passende waarborgen bevatten met betrekking tot de bescherming van de grondrechten en fundamentele vrijheden van natuurlijke personen. De ontvangende nationale autoriteiten en de ontvangende instellingen, organen en instanties van de Unie die gebruikmaken van dergelijke output in de Unie, blijven er verantwoordelijk voor dat het gebruik ervan in overeenstemming is met het recht van de Unie. Wanneer die internationale overeenkomsten worden herzien of er in de toekomst nieuwe worden gesloten, moeten de overeenkomstsluitende partijen alles in het werk stellen om die overeenkomsten in overeenstemming te brengen met de eisen van deze verordening.
(22)
Având în vedere natura lor digitală, anumite sisteme de IA ar trebui să intre în domeniul de aplicare al prezentului regulament chiar și atunci când nu sunt introduse pe piață, nu sunt puse în funcțiune și nu sunt utilizate în Uniune. Acesta este cazul, de exemplu, al unui operator stabilit în Uniune care contractează anumite servicii unui operator stabilit într-o țară terță în legătură cu o activitate care urmează să fie desfășurată de un sistem de IA care s-ar califica drept prezentând un grad ridicat de risc. În aceste circumstanțe, sistemul de IA utilizat de operator într-o țară terță ar putea prelucra date colectate în Uniune și transferate din Uniune în mod legal și ar putea furniza operatorului contractant din Uniune rezultatele produse de sistemul de IA respectiv ca urmare a prelucrării respective, fără ca sistemul de IA să fie introdus pe piață, pus în funcțiune sau utilizat în Uniune. Pentru a preveni eludarea prezentului regulament și pentru a asigura o protecție eficace a persoanelor fizice situate în Uniune, prezentul regulament ar trebui să se aplice, de asemenea, furnizorilor și implementatorilor de sisteme de IA care sunt stabiliți într-o țară terță, în măsura în care rezultatele produse de sistemele respective sunt destinate a fi utilizate în Uniune. Cu toate acestea, pentru a ține seama de acordurile existente și de nevoile speciale de cooperare viitoare cu partenerii străini cu care se fac schimburi de informații și probe, prezentul regulament nu ar trebui să se aplice autorităților publice ale unei țări terțe și organizațiilor internaționale atunci când acestea acționează în cadrul acordurilor internaționale sau de cooperare încheiate la nivelul Uniunii sau la nivel național pentru cooperarea în materie de aplicare a legii și cooperarea judiciară cu Uniunea sau cu statele membre, cu condiția ca țara terță sau organizația internațională relevantă să ofere garanții adecvate în ceea ce privește protecția drepturilor și libertăților fundamentale ale persoanelor. După caz, acest lucru s-ar putea aplica activităților desfășurate de entitățile cărora țările terțe le-au încredințat îndeplinirea unor sarcini specifice în sprijinul unei astfel de cooperări judiciare și în materie de aplicare a legii. Cadrele de cooperare sau acordurile sus-menționate au fost încheiate bilateral între statele membre și țări terțe sau între Uniunea Europeană, Europol sau alte agenții ale Uniunii, pe de o parte, și țări terțe sau organizații internaționale, pe de altă parte. Autoritățile competente cu supravegherea autorităților de aplicare a legii și a autorităților judiciare în temeiul prezentului regulament ar trebui să evalueze dacă respectivele cadre de cooperare sau acorduri internaționale includ garanții adecvate în ceea ce privește protecția drepturilor și libertăților fundamentale ale persoanelor. Autoritățile naționale destinatare și instituțiile, organele, oficiile și agențiile Uniunii care utilizează astfel de rezultate în Uniune rămân responsabile pentru asigurarea faptului că utilizarea lor respectă dreptul Uniunii. La revizuirea acordurilor internaționale respective sau la încheierea unor acorduri noi în viitor, părțile contractante ar trebui să depună toate eforturile pentru a alinia acordurile respective la cerințele prezentului regulament.
(23)
Deze verordening moet ook van toepassing zijn op instellingen, organen en instanties van de Unie wanneer zij optreden als aanbieder of gebruiksverantwoordelijke van een AI-systeem.
(23)
Prezentul regulament ar trebui să se aplice, de asemenea, instituțiilor, organelor, oficiilor și agențiilor Uniunii atunci când acestea acționează în calitate de furnizor sau implementator al unui sistem de IA.
(24)
Indien en voor zover AI-systemen voor militaire, defensie- of nationale veiligheidsdoeleinden, met of zonder wijziging van die systemen, in de handel worden gebracht, in gebruik worden gesteld of worden gebruikt, moeten deze worden uitgesloten van het toepassingsgebied van deze verordening, ongeacht welk soort entiteit, bv. een publieke of private entiteit, die activiteiten uitvoert. Wat militaire en defensiedoeleinden betreft, wordt een dergelijke uitsluiting zowel gerechtvaardigd door artikel 4, lid 2, VEU, als door de specifieke kenmerken van het defensiebeleid van de lidstaten en het gemeenschappelijk defensiebeleid van de Unie krachtens titel V, hoofdstuk 2, VEU, die onder het internationaal publiekrecht vallen, wat derhalve het geschiktere rechtskader is voor de regulering van AI-systemen in de context van het gebruik van dodelijk geweld en andere AI-systemen in de context van militaire en defensieactiviteiten. Wat de doeleinden van nationale veiligheid betreft, wordt de uitsluiting zowel gerechtvaardigd door het feit dat nationale veiligheid overeenkomstig artikel 4, lid 2, VEU, de uitsluitende verantwoordelijkheid van elke lidstaat blijft, als door de specifieke aard en operationele behoeften van de nationale veiligheidsactiviteiten en door de specifieke nationale regels die op die activiteiten van toepassing zijn. Indien echter een AI-systeem dat is ontwikkeld, in de handel is gebracht, in gebruik is gesteld of wordt gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden, tijdelijk of permanent voor andere dan die doeleinden wordt gebruikt, bijvoorbeeld civiele of humanitaire doeleinden, rechtshandhaving of openbare veiligheid, valt een dergelijk systeem wel binnen het toepassingsgebied van deze verordening. In dat geval moet de entiteit die het AI-systeem voor andere doeleinden dan militaire, defensie- of nationale veiligheidsdoeleinden gebruikt, ervoor zorgen dat het AI-systeem voldoet aan deze verordening, tenzij dat reeds het geval is. AI-systemen die in de handel worden gebracht of in gebruik worden gesteld voor een uitgesloten doeleinde, d.w.z. militaire, defensie- of nationaleveiligheidsdoeleinden, en een of meer niet-uitgesloten doeleinden, zoals civiele doeleinden of rechtshandhaving, vallen binnen het toepassingsgebied van deze verordening, en aanbieders van die systemen moeten er dan ook voor zorgen dat deze verordening wordt nageleefd. In die gevallen mag het feit dat een AI-systeem onder het toepassingsgebied van deze verordening valt, geen afbreuk doen aan de mogelijkheid voor entiteiten die nationale veiligheids-, defensie- en militaire activiteiten verrichten, ongeacht het soort entiteit dat die activiteiten uitvoert, om de AI-systemen te gebruiken voor nationale veiligheids-, militaire en defensiedoeleinden, waarvan het gebruik is uitgesloten van het toepassingsgebied van deze verordening. Een AI-systeem dat in de handel wordt gebracht voor civiele of rechtshandhavingsdoeleinden en dat met of zonder wijziging wordt gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden, mag niet binnen het toepassingsgebied van deze verordening vallen, ongeacht het soort entiteit dat die activiteiten uitvoert.
(24)
În cazul și în măsura în care sistemele de IA sunt introduse pe piață, puse în funcțiune sau utilizate cu sau fără modificarea lor în scopuri militare, de apărare sau de securitate națională, sistemele respective ar trebui să fie excluse din domeniul de aplicare al prezentului regulament, indiferent de tipul de entitate care desfășoară activitățile respective, de exemplu dacă este o entitate publică sau privată. În ceea ce privește scopurile militare și de apărare, o astfel de excludere este justificată atât de articolul 4 alineatul (2) din TUE, cât și de particularitățile politicii de apărare a statelor membre și ale politicii de apărare comune a Uniunii, care intră sub incidența titlului V capitolul 2 din TUE; acestea fac obiectul dreptului internațional public, care este, prin urmare, cadrul juridic mai adecvat pentru reglementarea sistemelor de IA în contextul utilizării forței letale și a altor sisteme de IA în contextul activităților militare și de apărare. În ceea ce privește obiectivele de securitate națională, excluderea este justificată atât de faptul că securitatea națională rămâne responsabilitatea exclusivă a statelor membre în conformitate cu articolul 4 alineatul (2) din TUE, cât și de natura specifică și de nevoile operaționale ale activităților de securitate națională și de normele naționale specifice aplicabile activităților respective. Însă, în cazul în care un sistem de IA dezvoltat, introdus pe piață, pus în funcțiune sau utilizat în scopuri militare, de apărare sau de securitate națională este utilizat, temporar sau permanent, în afara acestui cadru în alte scopuri, de exemplu în scopuri civile sau umanitare, de aplicare a legii sau de securitate publică, un astfel de sistem ar intra în domeniul de aplicare al prezentului regulament. În acest caz, entitatea care utilizează sistemul de IA în alte scopuri decât cele militare, de apărare sau de securitate națională ar trebui să asigure conformitatea sistemului de IA cu prezentul regulament, cu excepția cazului în care sistemul respectă deja prezentul regulament. Sistemele de IA introduse pe piață sau puse în funcțiune pentru un scop care face obiectul excluderii, și anume în scop militar, de apărare sau de securitate națională, și pentru unul sau mai multe scopuri care nu fac obiectul excluderii, de exemplu în scopuri civile sau de aplicare a legii, intră în domeniul de aplicare al prezentului regulament, iar furnizorii sistemelor respective ar trebui să asigure conformitatea cu prezentul regulament. În aceste cazuri, faptul că un sistem de IA poate intra în domeniul de aplicare al prezentului regulament nu ar trebui să afecteze posibilitatea ca entitățile care desfășoară activități de securitate națională, de apărare și militare, indiferent de tipul de entitate care desfășoară activitățile respective, să utilizeze sisteme de IA în scopuri de securitate națională, militare și de apărare, utilizare care este exclusă din domeniul de aplicare al prezentului regulament. Un sistem de IA introdus pe piață în scopuri civile sau de aplicare a legii și care este utilizat cu sau fără modificări în scopuri militare, de apărare sau de securitate națională nu ar trebui să intre în domeniul de aplicare al prezentului regulament, indiferent de tipul de entitate care desfășoară activitățile respective.
(25)
Deze verordening moet innovatie ondersteunen en de vrijheid van wetenschap eerbiedigen en mag onderzoeks- en ontwikkelingsactiviteiten niet ondermijnen. Het is daarom noodzakelijk AI-systemen en -modellen die specifiek zijn ontwikkeld en in gebruik gesteld met wetenschappelijk onderzoek en wetenschappelijke ontwikkeling als enig doel, van het toepassingsgebied van deze verordening uit te sluiten. Bovendien moet ervoor worden gezorgd dat deze verordening geen andere gevolgen heeft voor wetenschappelijke onderzoeks- en ontwikkelingsactiviteiten met betrekking tot AI-systemen of -modellen voordat zij in de handel worden gebracht of in gebruik worden gesteld. Wat productgericht onderzoek en test- en ontwikkelingsactiviteiten met betrekking tot AI-systemen of -modellen betreft, mogen de bepalingen van deze verordening ook niet van toepassing zijn voordat die systemen en modellen in gebruik worden gesteld of in de handel worden gebracht. Die uitsluiting doet geen afbreuk aan de verplichting om aan deze verordening te voldoen wanneer een AI-systeem dat onder het toepassingsgebied van deze verordening valt, in de handel wordt gebracht of in gebruik wordt gesteld als gevolg van dergelijke onderzoeks- en ontwikkelingsactiviteiten, noch aan de toepassing van bepalingen inzake AI-testomgevingen voor regelgeving en testen onder reële omstandigheden. Onverminderd de uitsluiting van AI-systemen die specifiek zijn ontwikkeld en in gebruik gesteld met wetenschappelijk onderzoek en ontwikkeling als enig doel, moet elk ander AI-systeem dat voor de uitvoering van onderzoeks- en ontwikkelingsactiviteiten kan worden gebruikt, onderworpen blijven aan de bepalingen van deze verordening. Alle onderzoeks- en ontwikkelingsactiviteiten moeten in elk geval worden uitgevoerd met inachtneming van de erkende ethische en beroepsnormen voor wetenschappelijk onderzoek, en in overeenstemming met het toepasselijke Unierecht.
(25)
Prezentul regulament ar trebui să sprijine inovarea, ar trebui să respecte libertatea științei și nu ar trebui să submineze activitatea de cercetare și dezvoltare. Prin urmare, este necesar să se excludă din domeniul său de aplicare sistemele și modelele de IA dezvoltate și puse în funcțiune în mod specific în scopul unic al cercetării și dezvoltării științifice. În plus, este necesar să se asigure că prezentul regulament nu afectează într-un alt mod activitatea de cercetare și dezvoltare științifică privind sistemele sau modelele de IA înainte de a fi introduse pe piață sau puse în funcțiune. În ceea ce privește activitatea de cercetare, testare și dezvoltare orientată spre produse aferentă sistemelor sau modelelor de IA, dispozițiile prezentului regulament nu ar trebui, de asemenea, să se aplice înainte ca aceste sisteme și modele să fie puse în funcțiune sau introduse pe piață. Această excludere nu aduce atingere obligației de a respecta prezentul regulament în cazul în care un sistem de IA aflat sub incidența prezentului regulament este introdus pe piață sau pus în funcțiune ca urmare a unei astfel de activități de cercetare și dezvoltare, și nici aplicării dispozițiilor privind spațiile de testare în materie de reglementare în domeniul IA și testarea în condiții reale. În plus, fără a aduce atingere excluderii sistemelor de IA dezvoltate și puse în funcțiune în mod specific în scopul unic al cercetării și dezvoltării științifice, orice alt sistem de IA care poate fi utilizat pentru desfășurarea oricărei activități de cercetare și dezvoltare ar trebui să facă în continuare obiectul dispozițiilor prezentului regulament. În orice caz, toate activitățile de cercetare și dezvoltare ar trebui să se desfășoare în conformitate cu standardele etice și profesionale recunoscute pentru cercetarea științifică, precum și în conformitate cu dreptul aplicabil al Uniunii.
(26)
Om een evenredige en doeltreffende reeks bindende regels voor AI-systemen in te voeren, moet een duidelijk omschreven, risicogebaseerde aanpak worden gevolgd. Met die aanpak moet de aard en content van dergelijke regels worden afgestemd op de intensiteit en de omvang van de risico’s die AI-systemen met zich mee kunnen brengen. Daarom is het noodzakelijk om bepaalde onaanvaardbare praktijken op het gebied van AI te verbieden, eisen voor AI-systemen met een hoog risico en verplichtingen voor de betrokken operatoren vast te stellen, en transparantieverplichtingen voor bepaalde AI-systemen in te voeren.
(26)
Pentru a introduce un set proporțional și eficace de norme obligatorii pentru sistemele de IA, ar trebui să fie urmată o abordare bazată pe riscuri clar definită. Această abordare ar trebui să adapteze tipul și conținutul unor astfel de norme la intensitatea și amploarea riscurilor pe care le pot genera sistemele de IA. Prin urmare, este necesar să se interzică anumite practici în domeniul IA care sunt inacceptabile, să se stabilească cerințe pentru sistemele de IA cu grad ridicat de risc și obligații pentru operatorii relevanți și să se stabilească obligații în materie de transparență pentru anumite sisteme de IA.
(27)
Hoewel de risicogebaseerde aanpak de basis vormt voor een evenredige en doeltreffende reeks bindende regels, is het belangrijk te herinneren aan de ethische richtsnoeren voor betrouwbare KI van 2019 die zijn opgesteld door de onafhankelijke AI HLEG die door de Commissie is aangesteld. In die richtsnoeren heeft de AI HLEG zeven niet-bindende ethische beginselen ontwikkeld die ervoor moeten zorgen dat AI betrouwbaar en ethisch verantwoord is. Die beginselen zijn: invloed en toezicht door mensen, technische robuustheid en veiligheid, privacy en datagovernance, transparantie; diversiteit, non-discriminatie en rechtvaardigheid, sociaal en ecologisch welzijn, en verantwoordingsplicht. Onverminderd de juridisch bindende eisen van deze verordening en enig ander toepasselijk Unierecht dragen die richtsnoeren bij tot het ontwerpen van coherente, betrouwbare en mensgerichte AI, in overeenstemming met het Handvest en de waarden waarop de Unie is gegrondvest. Volgens de richtsnoeren van de AI HLEG houdt “invloed en toezicht door mensen” in dat AI-systemen worden ontwikkeld en gebruikt als een instrument dat ten dienste staat van mensen, dat de menselijke waardigheid en persoonlijke autonomie eerbiedigt, en dat functioneert op een wijze waar mensen op passende wijze controle en toezicht op kunnen houden. “Technische robuustheid en veiligheid” betekent dat AI-systemen worden ontwikkeld op een wijze die voorziet in robuustheid in geval van problemen en in weerbaarheid tegen pogingen om het gebruik of de prestaties van het AI-systeem te wijzigen voor onrechtmatig gebruik door derden, en die onbedoelde schade tot een minimum beperkt. “Privacy en datagovernance” betekent dat AI-systemen worden ontwikkeld en gebruikt in overeenstemming met de regels inzake privacy en gegevensbescherming, en de verwerking van gegevens voldoet aan hoge normen wat kwaliteit en integriteit betreft. “Transparantie” betekent dat AI-systemen worden ontwikkeld en gebruikt op een wijze die passende traceerbaarheid en verklaarbaarheid mogelijk maakt, waarbij mensen ervan bewust worden gemaakt dat zij communiceren of interageren met een AI-systeem, en gebruiksverantwoordelijken naar behoren worden geïnformeerd over de mogelijkheden en beperkingen van dat AI-systeem en betrokken personen worden geïnformeerd over hun rechten. “Diversiteit, non-discriminatie en rechtvaardigheid” betekent dat AI-systemen zodanig worden ontwikkeld en gebruikt dat de inclusie van diverse actoren wordt gewaarborgd en dat gelijke toegang, gendergelijkheid en culturele diversiteit worden bevorderd, waarbij discriminerende effecten en onrechtvaardige vertekeningen die op grond van het Unierecht of het nationale recht verboden zijn, worden voorkomen. “Sociaal en ecologisch welzijn” betekent dat AI-systemen worden ontwikkeld en gebruikt op een duurzame en milieuvriendelijke wijze en op een manier die alle mensen ten goede komt, waarbij de langetermijneffecten op het individu, de samenleving en de democratie worden gemonitord en beoordeeld. De toepassing van die beginselen moet waar mogelijk worden vertaald in het ontwerp en het gebruik van AI-modellen. Zij moeten in ieder geval dienen als basis voor het opstellen van gedragscodes in het kader van deze verordening. Alle belanghebbenden, met inbegrip van het bedrijfsleven, de academische wereld, het maatschappelijk middenveld en normalisatieorganisaties, worden aangemoedigd om in voorkomend geval rekening te houden met de ethische beginselen voor de ontwikkeling van vrijwillige beste praktijken en normen.
(27)
Deși abordarea bazată pe riscuri reprezintă temelia pentru un set proporțional și eficace de norme obligatorii, este important să se reamintească Orientările în materie de etică pentru o IA fiabilă din 2019, elaborate de Grupul independent de experți la nivel înalt privind IA numit de Comisie. În orientările respective, grupul de experți a elaborat șapte principii etice fără caracter obligatoriu pentru IA, care sunt menite să contribuie la asigurarea faptului că IA este de încredere și că este solidă din punct de vedere etic. Cele șapte principii sunt: implicarea și supravegherea umană; robustețea tehnică și siguranța; respectarea vieții private și guvernanța datelor; transparența; diversitatea, nediscriminarea și echitatea; bunăstarea socială și de mediu și asumarea răspunderii. Fără a aduce atingere cerințelor obligatorii din punct de vedere juridic prevăzute în prezentul regulament și în orice alt act legislativ aplicabil al Uniunii, aceste orientări contribuie la conceperea unei IA coerente, de încredere și centrate pe factorul uman, în conformitate cu carta și cu valorile pe care se întemeiază Uniunea. Potrivit orientărilor Grupului de experți la nivel înalt privind IA, implicarea și supravegherea umană înseamnă că sistemele de IA sunt dezvoltate și utilizate ca un instrument ce servește oamenilor, respectă demnitatea umană și autonomia personală și funcționează într-un mod care poate fi controlat și supravegheat în mod corespunzător de către oameni. Robustețea tehnică și siguranța înseamnă că sistemele de IA sunt dezvoltate și utilizate într-un mod care asigură robustețea în caz de probleme și reziliența la încercările de a modifica utilizarea sau performanța sistemului de IA în vederea permiterii utilizării ilegale de către terți și care reduce la minimum prejudiciile neintenționate. Respectarea vieții private și guvernanța datelor înseamnă că sistemele de IA sunt dezvoltate și utilizate în conformitate cu normele privind protecția vieții private și a datelor și că, în același timp, se prelucrează date care respectă standarde ridicate de calitate și de integritate. Transparența înseamnă că sistemele de IA sunt dezvoltate și utilizate într-un mod care permite trasabilitatea și explicabilitatea adecvate, aducând totodată la cunoștința oamenilor faptul că interacționează sau comunică cu un sistem de IA și informând în mod corespunzător implementatorii cu privire la capabilitățile și limitele respectivului sistem de IA și persoanele afectate cu privire la drepturile lor. Diversitatea, nediscriminarea și echitatea înseamnă că sistemele de IA sunt dezvoltate și utilizate într-un mod care presupune implicarea a diverși actori și promovează accesul egal, egalitatea de gen și diversitatea culturală, evitând totodată efectele discriminatorii și prejudecățile inechitabile interzise prin dreptul Uniunii sau dreptul intern. Bunăstarea socială și de mediu înseamnă că sistemele de IA sunt dezvoltate și utilizate într-un mod durabil, care respectă mediul și care aduce beneficii tuturor ființelor umane, monitorizându-se și evaluându-se totodată efectele pe termen lung asupra persoanelor, a societății și a democrației. Aplicarea acestor principii ar trebui să fie transpusă, atunci când este posibil, în conceperea și utilizarea modelelor de IA. În orice caz, aceste principii ar trebui să servească drept bază pentru elaborarea codurilor de conduită în temeiul prezentului regulament. Toate părțile interesate, inclusiv industria, mediul academic, societatea civilă și organizațiile de standardizare, sunt încurajate să ia în considerare, după caz, principiile etice pentru dezvoltarea de bune practici și standarde voluntare.
(28)
Afgezien van de vele nuttige toepassingen van AI kan zij ook worden misbruikt en nieuwe en krachtige instrumenten voor manipulatie, uitbuiting en sociale controle opleveren. Dergelijke praktijken zijn bijzonder schadelijk en abusief en moeten worden verboden omdat zij in strijd zijn met de waarden van de Unie, namelijk eerbied voor de menselijke waardigheid, vrijheid, gelijkheid, democratie en de rechtsstaat, en met de grondrechten van de Unie die zijn vastgelegd in het Handvest, waaronder het recht op non-discriminatie, gegevensbescherming en privacy, en de rechten van het kind.
(28)
Pe lângă numeroasele utilizări benefice ale IA, aceasta poate fi utilizată și în mod abuziv și poate oferi instrumente noi și puternice pentru practici de manipulare, exploatare și control social. Astfel de practici sunt deosebit de nocive și abuzive și ar trebui să fie interzise deoarece contravin valorilor Uniunii privind respectarea demnității umane, a libertății, a egalității, a democrației și a statului de drept, precum și a drepturilor fundamentale consacrate în cartă, inclusiv dreptul la nediscriminare, la protecția datelor și la viața privată și drepturile copilului.
(29)
Op AI gebaseerde manipulatietechnieken kunnen worden gebruikt om gebruikers te overtuigen zich ongewenst te gedragen en ze te misleiden door hen aan te zetten tot bepaalde beslissingen waardoor hun autonomie, besluitvorming en keuze worden ondermijnd en beperkt. Het in de handel brengen, in gebruik stellen of gebruiken van bepaalde AI-systemen met als doel of gevolg het menselijk gedrag wezenlijk te verstoren, waarbij waarschijnlijk aanzienlijke schade, met name met voldoende belangrijke negatieve gevolgen voor de fysieke of psychologische gezondheid of voor financiële belangen, zal optreden, is bijzonder gevaarlijk en moet daarom worden verboden. Dergelijke AI-systemen maken gebruik van subliminale componenten zoals audio-, beeld- en videostimuli die personen niet kunnen waarnemen, omdat deze stimuli verder gaan dan de menselijke perceptie, of andere manipulatieve of bedrieglijke technieken die de autonomie, besluitvorming of vrije keuze van personen ondermijnen of beperken op wijzen waarvan mensen zich van deze technieken niet bewust zijn of waarbij, zelfs als ze zich er bewust van zijn, ze nog steeds misleid kunnen worden of hen niet kunnen beheersen of weerstaan. Dit kan bijvoorbeeld worden vergemakkelijkt door machine-hersen-interfaces of virtuele realiteit, aangezien zij een hogere mate van controle mogelijk maken over de stimuli die aan personen worden gepresenteerd, voor zover zij hun gedrag wezenlijk kunnen verstoren op een aanzienlijk schadelijke manier. Daarnaast kunnen AI-systemen ook kwetsbaarheden uitbuiten van een persoon of een specifieke groep personen als gevolg van hun leeftijd, handicap in de zin van Richtlijn (EU) 2019/882 van het Europees Parlement en de Raad (16) of een specifieke sociale of economische situatie waardoor deze personen waarschijnlijk kwetsbaarder zullen zijn voor uitbuiting, zoals personen die in extreme armoede leven of personen die tot een etnische of religieuze minderheid behoren. Dergelijke AI-systemen kunnen in de handel worden gebracht, in gebruik worden gesteld of worden gebruikt met als doel of als gevolg dat het gedrag van een persoon wezenlijk wordt verstoord op een manier die deze persoon, een andere persoon of groepen personen aanzienlijke schade berokkent of redelijkerwijs dreigt te berokkenen, met inbegrip van schade die in de loop der tijd erger kan worden, en moeten daarom worden verboden. Er kan worden aangenomen dat er geen sprake is van een intentie om gedrag te verstoren wanneer de verstoring het gevolg is van factoren buiten het AI-systeem waarop de aanbieder of de gebruiksverantwoordelijke geen invloed heeft, namelijk factoren die redelijkerwijs niet te voorzien zijn en die de aanbieder of de gebruiksverantwoordelijke van het AI-systeem bijgevolg niet kan beperken. In ieder geval is het niet vereist dat de aanbieder of de gebruiksverantwoordelijke de intentie heeft aanzienlijke schade te berokkenen, op voorwaarde dat deze schade het gevolg is van op AI gebaseerde manipulatieve of uitbuitingspraktijken. De verbodsbepalingen voor dergelijke AI-praktijken vormen een aanvulling op de bepalingen van Richtlijn 2005/29/EG van het Europees Parlement en de Raad (17), met name die bepalingen waarin is vastgesteld dat oneerlijke handelspraktijken die tot economische of financiële schade voor consumenten leiden onder alle omstandigheden verboden zijn, ongeacht of zij via AI-systemen of anderszins tot stand worden gebracht. Het verbod op manipulatie- en uitbuitingspraktijken in deze verordening mag geen afbreuk doen aan rechtmatige praktijken in het kader van medische behandelingen, zoals psychologische behandeling van een psychische aandoening of lichamelijke revalidatie, wanneer die praktijken worden uitgevoerd overeenkomstig de toepasselijke medische normen en wetgeving, bijvoorbeeld met uitdrukkelijke toestemming van de natuurlijke personen of hun wettelijke vertegenwoordigers. Bovendien mogen gangbare en legitieme handelspraktijken, bijvoorbeeld in de reclamesector, die in overeenstemming zijn met het toepasselijke recht op zich niet worden beschouwd als schadelijke manipulatieve op AI gebaseerde praktijken.
(29)
Tehnicile de manipulare bazate pe IA pot fi utilizate pentru a convinge anumite persoane să manifeste comportamente nedorite sau pentru a le înșela, împingându-le să ia decizii într-un mod care le subminează și le afectează autonomia, capacitatea decizională și libera alegere. Introducerea pe piață, punerea în funcțiune sau utilizarea anumitor sisteme de IA având drept obiectiv sau drept efect denaturarea semnificativă a comportamentului uman, caz în care este probabil să se producă prejudicii semnificative, mai ales cu efecte negative suficient de importante asupra sănătății fizice sau psihologice ori a intereselor financiare, sunt deosebit de periculoase și, prin urmare, ar trebui să fie interzise. Astfel de sisteme de IA implementează componente subliminale, cum ar fi stimuli audio, sub formă de imagini sau video, pe care persoanele nu le pot percepe întrucât stimulii respectivi depășesc percepția umană, sau alte tehnici manipulatoare sau înșelătoare care subminează sau afectează autonomia, capacitatea decizională sau libera alegere ale unei persoane în astfel de moduri încât oamenii nu sunt conștienți de astfel de tehnici sau, chiar dacă sunt conștienți de acestea, tot pot fi înșelați sau sunt incapabili să le controleze sau să li se opună. Acest lucru ar putea fi facilitat, de exemplu, de interfețele mașină-creier sau de realitatea virtuală, deoarece acestea permit un nivel mai ridicat de control asupra stimulilor prezentați persoanelor, în măsura în care acești stimuli pot denatura semnificativ comportamentul persoanelor într-un mod deosebit de dăunător. În plus, sistemele de IA pot exploata și în alte moduri vulnerabilitățile unei persoane sau ale unui anumit grup de persoane din cauza vârstei sau a dizabilității acestora în sensul Directivei (UE) 2019/882 a Parlamentului European și a Consiliului (16) sau din cauza unei situații sociale sau economice specifice care este susceptibilă să sporească vulnerabilitatea la exploatare a persoanelor respective, cum ar fi persoanele care trăiesc în sărăcie extremă sau care aparțin minorităților etnice sau religioase. Astfel de sisteme de IA pot fi introduse pe piață, puse în funcțiune sau utilizate având drept obiectiv sau drept efect denaturarea semnificativă a comportamentului unei persoane, într-un mod care cauzează sau este susceptibil în mod rezonabil să cauzeze prejudicii semnificative persoanei respective sau grupului respectiv ori unei alte persoane sau altor grupuri de persoane, inclusiv prejudicii care se pot acumula în timp, și, prin urmare, ar trebui să fie interzise. Este posibil să nu se poată presupune că există intenția de a denatura comportamentul în cazul în care denaturarea rezultă din factori externi sistemului de IA asupra cărora furnizorul sau implementatorul nu deține controlul, și anume factori care ar putea să nu fie prevăzuți în mod rezonabil și, prin urmare, să nu poată fi atenuați de către furnizorul sau implementatorul sistemului de IA. În orice caz, nu este necesar ca furnizorul sau implementatorul să aibă intenția de a cauza un prejudiciu semnificativ, cu condiția ca un astfel de prejudiciu să rezulte din practicile de manipulare sau de exploatare bazate pe IA. Interdicțiile privind astfel de practici în domeniul IA sunt complementare dispozițiilor cuprinse în Directiva 2005/29/CE a Parlamentului European și a Consiliului (17), în special faptul că practicile comerciale neloiale care conduc la prejudicii economice sau financiare pentru consumatori sunt interzise în toate circumstanțele, indiferent dacă sunt puse în aplicare prin intermediul sistemelor de IA sau în alt mod. Interdicțiile privind practicile de manipulare și exploatare prevăzute în prezentul regulament nu ar trebui să afecteze practicile legale în contextul tratamentului medical, cum ar fi tratamentul psihologic al unei boli mintale sau reabilitarea fizică, atunci când practicile respective se desfășoară în conformitate cu dreptul și cu standardele medicale aplicabile, de exemplu în ceea ce privește consimțământul explicit al persoanelor în cauză sau al reprezentanților lor legali. În plus, practicile comerciale comune și legitime, de exemplu în domeniul publicității, care respectă dreptul aplicabil nu ar trebui să fie considerate, în sine, ca reprezentând practici dăunătoare de manipulare bazate pe IA.
(30)
Systemen voor biometrische categorisering die gebaseerd zijn op biometrische gegevens van natuurlijke personen, zoals het gezicht of vingerafdrukken, om de politieke opvattingen, het lidmaatschap van een vakbond, religieuze of levensbeschouwelijke overtuigingen, ras, seksleven of seksuele gerichtheid van een persoon af te leiden of te infereren, moeten worden verboden. Dat verbod mag geen betrekking hebben op het rechtmatig labelen, filteren of categoriseren van reeksen biometrische gegevens die in overeenstemming met het Unierecht of het nationale recht met betrekking tot biometrische gegevens zijn verkregen, zoals het sorteren van beelden op basis van haar- of oogkleur, die bijvoorbeeld op het gebied van rechtshandhaving kunnen worden gebruikt.
(30)
Sistemele de clasificare biometrică care se bazează pe datele biometrice ale persoanelor fizice, cum ar fi fața sau amprentele digitale ale unei persoane, pentru a face presupuneri sau deducții cu privire la opiniile politice, apartenența la un sindicat, convingerile religioase sau filozofice, rasa, viața sexuală sau orientarea sexuală ale unei persoane ar trebui să fie interzise. Această interdicție nu ar trebui să se refere la etichetarea, filtrarea sau clasificarea legală, în funcție de datele biometrice, a seturilor de date biometrice obținute în conformitate cu dreptul Uniunii sau cu dreptul intern, cum ar fi sortarea imaginilor în funcție de culoarea părului sau de culoarea ochilor, care poate fi utilizată, de exemplu, în domeniul aplicării legii.
(31)
AI-systemen die door publieke of door private actoren worden gebruikt om een beoordeling van natuurlijke personen (“social scoring”) uit te voeren, kunnen discriminerende resultaten en de uitsluiting van bepaalde groepen tot gevolg hebben. Deze systemen kunnen een schending inhouden van het recht op waardigheid en non-discriminatie en van waarden als gelijkheid en rechtvaardigheid. Dergelijke AI-systemen beoordelen of classificeren natuurlijke personen of groepen natuurlijke personen op basis van meerdere datapunten met betrekking tot hun sociale gedrag in meerdere contexten of op basis van bekende, afgeleide of voorspelde persoonlijke of persoonlijkheidskenmerken gedurende een bepaalde periode. De sociale score die dergelijke AI-systemen opleveren, kan leiden tot een nadelige of ongunstige behandeling van natuurlijke personen of hele groepen natuurlijke personen in sociale contexten die geen verband houden met de context waarin de data oorspronkelijk zijn gegenereerd of verzameld, of tot een nadelige behandeling die onevenredig of ongerechtvaardigd is in verhouding tot de ernst van het sociale gedrag. AI-systemen die dergelijke onaanvaardbare scoringpraktijken met zich meebrengen en tot dergelijke nadelige of ongunstige resultaten leiden, moeten daarom worden verboden. Dat verbod mag geen afbreuk doen aan wettige praktijken voor de evaluatie van natuurlijke personen die worden verricht voor een specifiek doeleinde in overeenstemming met het Unierecht en het nationale recht.
(31)
Sistemele de IA care permit atribuirea unui punctaj social persoanelor fizice de către actori privați sau publici pot genera rezultate discriminatorii și excluderea anumitor grupuri. Acestea pot încălca dreptul la demnitate și nediscriminare, precum și valorile egalității și justiției. Astfel de sisteme de IA evaluează sau clasifică persoanele fizice sau grupurile de persoane pe baza mai multor puncte de date legate de comportamentul lor social în contexte multiple sau de caracteristici personale sau de personalitate cunoscute, deduse sau preconizate de-a lungul anumitor perioade de timp. Punctajul social obținut din astfel de sisteme de IA poate duce la un tratament prejudiciabil sau nefavorabil al persoanelor fizice sau al unor grupuri întregi de astfel de persoane în contexte sociale care nu au legătură cu contextul în care datele au fost inițial generate sau colectate sau la un tratament prejudiciabil care este disproporționat sau nejustificat în raport cu gravitatea comportamentului lor social. Sistemele de IA care implică astfel de practici inacceptabile de atribuire a unui punctaj și care conduc la astfel de rezultate prejudiciabile sau nefavorabile ar trebui, prin urmare, să fie interzise. Această interdicție nu ar trebui să afecteze practicile legale de evaluare a persoanelor fizice care sunt realizate într-un scop specific în conformitate cu dreptul Uniunii și cu dreptul național.
(32)
Het gebruik van AI-systemen voor biometrische identificatie op afstand in real time van natuurlijke personen in openbare ruimten voor rechtshandhavingsdoeleinden wordt als bijzonder ingrijpend beschouwd voor de rechten en vrijheden van de betrokkenen, in die mate dat het de persoonlijke levenssfeer van een groot deel van de bevolking kan aantasten, een gevoel van voortdurende bewaking kan oproepen en indirect de uitoefening van de vrijheid van vergadering en andere grondrechten kan ontmoedigen. Technische onnauwkeurigheden van AI-systemen voor biometrische identificatie op afstand van natuurlijke personen kunnen tot vertekende resultaten en discriminerende effecten leiden. Dergelijke mogelijke vertekende resultaten en discriminerende effecten zijn met name relevant met betrekking tot leeftijd, etniciteit, ras, geslacht of handicap. Bovendien houden het directe karakter van de gevolgen en de beperkte mogelijkheden voor verdere controles of correcties met betrekking tot het gebruik van dergelijke realtimesystemen, verhoogde risico’s in voor de rechten en vrijheden van de betrokken personen in de context van rechtshandhavingsactiviteiten of wanneer die personen van de rechtshandhavingsactiviteiten gevolgen ondervinden.
(32)
Utilizarea sistemelor de IA pentru identificarea biometrică la distanță „în timp real” a persoanelor fizice în spațiile accesibile publicului în scopul aplicării legii este deosebit de intruzivă pentru drepturile și libertățile persoanelor în cauză, în măsura în care poate afecta viața privată a unei părți mari a populației, poate inspira un sentiment de supraveghere constantă și poate descuraja indirect exercitarea libertății de întrunire și a altor drepturi fundamentale. Inexactitățile tehnice ale sistemelor de IA destinate identificării biometrice la distanță a persoanelor fizice pot conduce la rezultate distorsionate de prejudecăți și pot avea efecte discriminatorii. Astfel de rezultate distorsionate și efecte discriminatorii posibile sunt deosebit de relevante în ceea ce privește vârsta, etnia, rasa, sexul sau dizabilitatea. În plus, caracterul imediat al impactului și posibilitățile limitate de a efectua verificări sau corecții suplimentare în ceea ce privește utilizarea unor astfel de sisteme care funcționează în timp real implică riscuri sporite pentru drepturile și libertățile persoanelor vizate în contextul activităților de aplicare a legii sau impactate de acestea.
(33)
Het gebruik van dergelijke systemen voor rechtshandhavingsdoeleinden moet derhalve worden verboden, behalve in limitatief opgesomde en nauwkeurig omschreven situaties, waarin het gebruik strikt noodzakelijk is om een zwaarwegend algemeen belang te dienen, dat zwaarder weegt dan de risico’s. Die situaties hebben betrekking op de zoektocht naar bepaalde slachtoffers van misdrijven, waaronder vermiste personen; bepaalde bedreigingen ten aanzien van het leven of de fysieke veiligheid van natuurlijke personen of van een terroristische aanslag, en de lokalisatie of identificatie van daders of verdachten van de in een bijlage bij deze verordening genoemde strafbare feiten, indien die strafbare feiten in de betrokken lidstaat strafbaar zijn gesteld met een vrijheidsstraf of een tot vrijheidsbeneming strekkende maatregel met een maximumduur van ten minste vier jaar en zoals zij zijn gedefinieerd in het recht van die lidstaat. Een dergelijke drempel voor de vrijheidsstraf of de tot vrijheidsbeneming strekkende maatregel overeenkomstig het nationale recht helpt erop toe te zien dat het strafbare feit ernstig genoeg is om het gebruik van systemen voor biometrische identificatie op afstand in real time te rechtvaardigen. De in een bijlage bij deze verordening genoemde strafbare feiten zijn gebaseerd op de 32 in KaderBesluit 2002/584/JBZ van de Raad (18) genoemde strafbare feiten, ermee rekening houdend dat sommige van die strafbare feiten in de praktijk waarschijnlijk relevanter zijn dan andere, aangezien het gebruik van biometrische identificatie op afstand in real time naar verwachting in zeer uiteenlopende mate noodzakelijk en evenredig zou kunnen zijn voor de praktische uitvoering van de lokalisatie of identificatie van een dader of verdachte van de verschillende opgesomde strafbare feiten, gelet op de te verwachten verschillen in ernst, waarschijnlijkheid en omvang van de schade of de mogelijke negatieve gevolgen. Een imminente dreiging voor het leven of de fysieke veiligheid van natuurlijke personen kan ook het gevolg zijn van een ernstige verstoring van kritieke infrastructuur, zoals gedefinieerd in artikel 2, punt 4), van Richtlijn (EU) 2022/2557 van het Europees Parlement en de Raad (19), wanneer de verstoring of vernietiging van dergelijke kritieke infrastructuur zou leiden tot een imminente dreiging voor het leven of de fysieke veiligheid van een persoon, onder meer door ernstige schade aan de levering van basisvoorzieningen aan de bevolking of aan de uitoefening van de kernfunctie van de staat. Daarnaast moet deze verordening de rechtshandhavingsinstanties en de grenstoezichts-, immigratie- of asielautoriteiten in staat stellen identiteitscontroles uit te voeren in aanwezigheid van de betrokken persoon overeenkomstig de voorwaarden die in het Unierecht en het nationale recht voor dergelijke controles zijn vastgelegd. Met name moeten die autoriteiten informatiesystemen kunnen gebruiken in overeenstemming met het Unierecht of het nationale recht om personen te identificeren die tijdens een identiteitscontrole weigeren te worden geïdentificeerd of niet in staat zijn hun identiteit bekend te maken of te bewijzen, zonder dat zij door deze verordening verplicht worden om voorafgaande toestemming te verkrijgen. Het kan hierbij bijvoorbeeld gaan om een persoon die betrokken is bij een misdrijf of iemand die als gevolg van een ongeval of een medische aandoening niet bereid of in staat is zijn identiteit bekend te maken aan rechtshandhavingsinstanties.
(33)
Prin urmare, utilizarea sistemelor respective în scopul aplicării legii ar trebui să fie interzisă, cu excepția situațiilor enumerate în mod exhaustiv și definite în mod precis în care utilizarea este strict necesară pentru un interes public substanțial, a cărui importanță este superioară riscurilor. Situațiile respective implică căutarea anumitor victime ale unor infracțiuni, inclusiv persoane dispărute, anumite amenințări la adresa vieții sau a siguranței fizice a persoanelor fizice sau privind un atac terorist și localizarea sau identificarea autorilor infracțiunilor enumerate într-o anexă la prezentul regulament sau a persoanelor suspectate de acestea, în cazul în care infracțiunile respective se pedepsesc în statul membru în cauză cu o pedeapsă sau o măsură de siguranță privativă de libertate pentru o perioadă maximă de cel puțin patru ani și astfel cum sunt definite în dreptul intern al statului membru respectiv. Un astfel de prag pentru pedeapsa sau măsura de siguranță privativă de libertate în conformitate cu dreptul intern contribuie la asigurarea faptului că infracțiunea ar trebui să fie suficient de gravă pentru a justifica eventual utilizarea sistemelor de identificare biometrică la distanță „în timp real”. În plus, lista infracțiunilor prevăzută în anexa la prezentul regulament se bazează pe cele 32 de infracțiuni enumerate în Decizia-cadru 2002/584/JAI a Consiliului (18), ținând seama de faptul că unele infracțiuni sunt, în practică, susceptibile să fie mai relevante decât altele, în sensul că recurgerea la identificarea biometrică la distanță „în timp real” ar putea, în mod previzibil, fi necesară și proporțională în grade foarte diferite pentru urmărirea practică a localizării sau a identificării unui autor al diferitelor infracțiuni enumerate sau a unei persoane suspectate de acestea, și având în vedere diferențele probabile în ceea ce privește gravitatea, probabilitatea și amploarea prejudiciului sau posibilele consecințe negative. O amenințare iminentă la adresa vieții sau a siguranței fizice a unor persoane fizice ar putea rezulta și dintr-o perturbare gravă a infrastructurii critice, astfel cum este definită la articolul 2 punctul 4 din Directiva (UE) 2022/2557 a Parlamentului European și a Consiliului (19), în cazul în care perturbarea sau distrugerea unei astfel de infrastructuri critice ar genera o amenințare iminentă la adresa vieții sau a siguranței fizice a unei persoane, inclusiv prin afectarea gravă a aprovizionării cu produse de bază a populației sau a exercitării funcțiilor de bază ale statului. În plus, prezentul regulament ar trebui să mențină capacitatea autorităților de aplicare a legii, de control la frontiere, de imigrație sau de azil de a efectua controale de identitate în prezența persoanei vizate, în conformitate cu condițiile prevăzute în dreptul Uniunii și în cel intern pentru astfel de controale. În special, autoritățile de aplicare a legii, de control la frontiere, de imigrație sau de azil ar trebui să poată utiliza sistemele de informații, în conformitate cu dreptul Uniunii sau cu cel intern, pentru a identifica persoane care, în cursul unui control de identitate, fie refuză să fie identificate, fie sunt incapabile să își declare sau să își dovedească identitatea, fără ca autoritățile în cauză să fie obligate prin prezentul regulament să obțină o autorizație prealabilă. Ar putea fi vorba, de exemplu, de o persoană implicată într-o infracțiune care fie nu dorește, fie, din cauza unui accident sau a unei afecțiuni medicale, nu poate să își divulge identitatea autorităților de aplicare a legii.
(34)
Om ervoor te zorgen dat dergelijke systemen op een verantwoorde en evenredige wijze worden gebruikt, is het ook van belang om vast te stellen dat in elk van die limitatief opgesomde en nauwkeurig omschreven situaties bepaalde elementen in aanmerking moeten worden genomen, met name wat betreft de aard van de situatie die aan het verzoek ten grondslag ligt en de gevolgen van het gebruik voor de rechten en vrijheden van alle betrokken personen, alsook de waarborgen en voorwaarden waaraan het gebruik is onderworpen. Daarnaast mag het gebruik van systemen voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op rechtshandhaving alleen worden ingezet om de identiteit van de specifiek beoogde natuurlijke persoon te bevestigen en moet het worden beperkt tot wat strikt noodzakelijk qua duur en geografische en personele reikwijdte, met name rekening houdend met het bewijs of de aanwijzingen met betrekking tot de dreigingen, de slachtoffers of de dader. Het gebruik van het systeem voor biometrische identificatie op afstand in real time in openbare ruimten mag alleen worden toegestaan indien de betrokken rechtshandhavingsinstantie een in deze verordening bedoelde effectbeoordeling op het gebied van de grondrechten heeft voltooid en, tenzij anders bepaald in deze verordening, het systeem in de databank heeft geregistreerd zoals vastgelegd in deze verordening. De referentiedatabank van personen moet geschikt zijn voor elk gebruik in elk van de bovenvermelde situaties.
(34)
Pentru a se asigura că sistemele respective sunt utilizate în mod responsabil și proporțional, este de asemenea important să se stabilească faptul că, în fiecare dintre aceste situații enumerate în mod exhaustiv și precis definite, ar trebui să fie luate în considerare anumite elemente, în special în ceea ce privește natura situației care a stat la baza cererii și consecințele utilizării asupra drepturilor și libertăților tuturor persoanelor vizate, precum și garanțiile și condițiile prevăzute pentru utilizare. În plus, ar trebui să se recurgă la utilizarea sistemelor de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul aplicării legii numai pentru a confirma identitatea persoanei vizate în mod specific și această utilizare ar trebui să se limiteze la ceea ce este strict necesar din punct de vedere al perioadei de timp, precum și al sferei de aplicare geografică și personală, având în vedere în special dovezile sau indicațiile privind amenințările, victimele sau autorul infracțiunii. Utilizarea sistemului de identificare biometrică la distanță în timp real în spațiile accesibile publicului ar trebui să fie autorizată numai dacă autoritatea relevantă de aplicare a legii a finalizat o evaluare a impactului asupra drepturilor fundamentale și, cu excepția cazului în care se prevede altfel în prezentul regulament, a înregistrat sistemul în baza de date prevăzută în prezentul regulament. Baza de date de referință a persoanelor ar trebui să fie adecvată pentru fiecare caz de utilizare în fiecare dintre situațiile menționate mai sus.
(35)
Voor elk gebruik van een systeem voor biometrische identificatie op afstand in real time in openbare ruimten voor rechtshandhavingsdoeleinden moet uitdrukkelijke en specifieke toestemming vereist zijn van een gerechtelijke instantie of van een onafhankelijke administratieve instantie van een lidstaat, met bindende beslissingsbevoegdheid. Deze toestemming moet in beginsel worden verkregen voordat het AI-systeem voor de identificatie van een of meer personen wordt gebruikt. Uitzonderingen op deze regel moeten worden toegestaan in naar behoren gemotiveerde dringende situaties, namelijk in situaties waarin het wegens de noodzaak om het betrokken AI-systeem te gebruiken, feitelijk en objectief onmogelijk is om vóór het begin van het gebruik toestemming te verkrijgen. In dergelijke dringende situaties moet het gebruik van het AI-systeem worden beperkt tot het absoluut noodzakelijke minimum en onderworpen zijn aan passende waarborgen en voorwaarden, zoals bepaald in de nationale wetgeving en door de rechtshandhavingsinstantie zelf vastgesteld in de context van elk afzonderlijk dringend gebruik. In dergelijke situaties moet de rechtshandhavingsinstantie onverwijld en uiterlijk binnen 24 uur om dergelijke toestemming verzoeken, met opgave van de redenen waarom zij niet eerder een verzoek daartoe heeft kunnen indienen. Indien een dergelijke toestemming wordt geweigerd, moet het gebruik van systemen voor biometrische identificatie in real time waarop dat verzoek betrekking heeft, met onmiddellijke ingang worden stopgezet en moeten alle gegevens met betrekking tot dat gebruik worden verwijderd en gewist. Onder dergelijke gegevens wordt verstaan: inputdata die rechtstreeks door een AI-systeem zijn verkregen tijdens het gebruik van een dergelijk systeem, alsook de resultaten en output van het gebruik in verband met dat verzoek. Daaronder mag niet worden verstaan: input die rechtmatig is verkregen overeenkomstig een ander Unierecht of nationaal recht. In geen geval mag een besluit dat nadelige rechtsgevolgen heeft voor een persoon uitsluitend worden genomen op basis van de output van het systeem voor biometrische identificatie op afstand.
(35)
Fiecare utilizare a unui sistem de identificare biometrică la distanță „în timp real” în spațiile accesibile publicului în scopul aplicării legii ar trebui să facă obiectul unei autorizări exprese și specifice de către o autoritate judiciară sau o autoritate administrativă independentă a unui stat membru a cărei decizie este obligatorie. O astfel de autorizație ar trebui, în principiu, să fie obținută înainte de utilizarea sistemului de IA în vederea identificării uneia sau mai multor persoane. Ar trebui să fie permise excepții de la această regulă în situații justificate în mod corespunzător din motive de urgență, și anume în situațiile în care necesitatea de a utiliza sistemele în cauză este de natură să facă imposibilă în mod efectiv și obiectiv obținerea unei autorizații înainte de începerea utilizării sistemului de IA. În astfel de situații de urgență, utilizarea sistemului de IA ar trebui să fie limitată la ceea ce este minim și absolut necesar și ar trebui să facă obiectul unor garanții și condiții adecvate, astfel cum sunt stabilite în dreptul intern și specificate de către însăși autoritatea de aplicare a legii în contextul fiecărui caz individual de utilizare urgentă. În plus, în astfel de situații, autoritatea de aplicare a legii ar trebui să solicite o astfel de autorizație și să furnizeze în același timp motivele pentru care nu a fost în măsură să o solicite mai devreme, fără întârzieri nejustificate și cel târziu în termen de 24 de ore. În cazul în care solicitarea unei astfel de autorizații este respinsă, utilizarea sistemelor de identificare biometrică în timp real legate de autorizația respectivă ar trebui să înceteze cu efect imediat și toate datele legate de utilizarea respectivă ar trebui să fie înlăturate și șterse. Aceste date includ datele de intrare dobândite direct de un sistem de IA în cursul utilizării unui astfel de sistem, precum și rezultatele și produsele obținute în cadrul utilizării legate de autorizația respectivă, dar nu ar trebui să includă datele de intrare dobândite în mod legal în conformitate cu un alt act legislativ al Uniunii sau național. În orice caz, nicio decizie care produce un efect juridic negativ asupra unei persoane nu ar trebui să fie luată exclusiv pe baza unui produs al sistemului de identificare biometrică la distanță.
(36)
Om hun taken overeenkomstig de eisen van deze verordening en de nationale regels uit te voeren, moeten de betrokken markttoezichtautoriteit en de nationale gegevensbeschermingsautoriteit in kennis worden gesteld van elk gebruik van het systeem voor biometrische identificatie in real time. De markttoezicht-autoriteiten en de nationale gegevensbeschermingsautoriteiten die in kennis zijn gesteld, moeten bij de Commissie een jaarverslag indienen over het gebruik van systemen voor biometrische identificatie in real time.
(36)
Pentru a-și îndeplini sarcinile în conformitate cu cerințele prevăzute în prezentul regulament, precum și în normele naționale, autoritatea relevantă de supraveghere a pieței și autoritatea națională pentru protecția datelor ar trebui să fie notificate cu privire la fiecare utilizare a sistemului de identificare biometrică în timp real. Autoritățile de supraveghere a pieței și autoritățile naționale pentru protecția datelor care au fost notificate ar trebui să prezinte Comisiei un raport anual privind utilizarea sistemelor de identificare biometrică în timp real.
(37)
Voorts moet binnen het door deze verordening gestelde limitatieve kader worden vastgelegd dat een dergelijk gebruik op het grondgebied van een lidstaat overeenkomstig deze verordening alleen mogelijk mag zijn indien en voor zover de betrokken lidstaat heeft besloten om in zijn specifieke regels van nationaal recht uitdrukkelijk te voorzien in de mogelijkheid om een dergelijk gebruik toe te staan. Bijgevolg staat het de lidstaten uit hoofde van deze verordening vrij in het geheel niet in een dergelijke mogelijkheid te voorzien, dan wel slechts in een dergelijke mogelijkheid te voorzien voor een aantal van de in deze verordening genoemde doelstellingen die het toestaan van een dergelijk gebruik rechtvaardigen. Dergelijke nationale regels moeten binnen dertig dagen na de vaststelling ervan ter kennis van de Commissie worden gebracht.
(37)
În plus, este oportun să se prevadă, în cadrul exhaustiv stabilit de prezentul regulament, că o astfel de utilizare pe teritoriul unui stat membru în conformitate cu prezentul regulament ar trebui să fie posibilă numai în cazul și în măsura în care statul membru respectiv a decis să prevadă în mod expres posibilitatea de a autoriza o astfel de utilizare în normele sale detaliate de drept intern. În consecință, în temeiul prezentului regulament, statele membre au în continuare libertatea de a nu prevedea o astfel de posibilitate sau de a prevedea o astfel de posibilitate numai în ceea ce privește unele dintre obiectivele care pot justifica utilizarea autorizată identificate în prezentul regulament. Astfel de norme naționale ar trebui să fie notificate Comisiei în termen de 30 de zile de la adoptare.
(38)
Het gebruik van AI-systemen voor biometrische identificatie op afstand in real time van natuurlijke personen in openbare ruimten voor rechtshandhavingsdoeleinden brengt noodzakelijkerwijs de verwerking van biometrische gegevens met zich mee. De regels in deze verordening die, met inachtneming van bepaalde uitzonderingen, een dergelijk gebruik verbieden en die gebaseerd zijn op artikel 16 VWEU, moeten als lex specialis gelden ten aanzien van de regels inzake de verwerking van biometrische gegevens in artikel 10 van Richtlijn (EU) 2016/680, waardoor een dergelijk gebruik en de bijbehorende verwerking van biometrische gegevens limitatief worden geregeld. Daarom mogen een dergelijk gebruik en een dergelijke verwerking alleen mogelijk zijn voor zover zij verenigbaar zijn met het bij deze verordening vastgestelde kader, zonder dat er buiten dat kader ruimte is voor de bevoegde autoriteiten om, wanneer zij optreden met het oog op de rechtshandhaving, dergelijke systemen te gebruiken en dergelijke gegevens in verband daarmee te verwerken om de in artikel 10 van Richtlijn (EU) 2016/680 genoemde redenen. In die context is deze verordening niet bedoeld om de rechtsgrondslag te bieden voor de verwerking van persoonsgegevens op grond van artikel 8 van Richtlijn (EU) 2016/680. Het gebruik van systemen voor biometrische identificatie op afstand in real time in openbare ruimten voor andere doeleinden dan rechtshandhaving, ook door bevoegde autoriteiten, mag echter niet worden opgenomen in het specifieke kader met betrekking tot dergelijk gebruik voor rechtshandhavingsdoeleinden dat bij deze verordening wordt vastgesteld. Dergelijk gebruik voor andere doeleinden dan rechtshandhaving is derhalve niet onderworpen aan het vereiste van toestemming uit hoofde van deze verordening en de toepasselijke specifieke regels van nationaal recht die aan die toestemming uitvoering kunnen geven.
(38)
Utilizarea sistemelor de IA pentru identificarea biometrică la distanță în timp real a persoanelor fizice în spațiile accesibile publicului în scopul aplicării legii implică în mod necesar prelucrarea de date biometrice. Normele din prezentul regulament care interzic, sub rezerva anumitor excepții, o astfel de utilizare, care se întemeiază pe articolul 16 din TFUE, ar trebui să se aplice ca lex specialis în ceea ce privește normele privind prelucrarea datelor biometrice prevăzute la articolul 10 din Directiva (UE) 2016/680, reglementând astfel în mod exhaustiv această utilizare și prelucrarea datelor biometrice implicate. Prin urmare, o astfel de utilizare și prelucrare ar trebui să fie posibile numai în măsura în care sunt compatibile cu cadrul stabilit de prezentul regulament, fără a exista, în afara cadrului respectiv, posibilitatea ca autoritățile competente, atunci când acționează în scopul aplicării legii, să utilizeze astfel de sisteme și să prelucreze astfel de date în legătură cu utilizarea respectivă din motivele enumerate la articolul 10 din Directiva (UE) 2016/680. În acest context, prezentul regulament nu este menit să ofere temeiul juridic pentru prelucrarea datelor cu caracter personal în baza articolului 8 din Directiva (UE) 2016/680. Cu toate acestea, utilizarea sistemelor de identificare biometrică la distanță în timp real în spații accesibile publicului în alte scopuri decât cele de aplicare a legii, inclusiv de către autoritățile competente, nu ar trebui să facă obiectul cadrului specific privind o astfel de utilizare în scopul aplicării legii stabilit de prezentul regulament. Prin urmare, o astfel de utilizare în alte scopuri decât aplicarea legii nu ar trebui să facă obiectul solicitării unei autorizații în temeiul prezentului regulament și al normelor de drept intern detaliate aplicabile prin care autorizația respectivă poate produce efecte.
(39)
Elke verwerking van biometrische gegevens en andere persoonsgegevens in het kader van het gebruik van AI-systemen voor biometrische identificatie, die geen verband houdt met het gebruik van systemen voor biometrische identificatie op afstand in real time in openbare ruimten voor rechtshandhavingsdoeleinden zoals geregeld in deze verordening, moet blijven voldoen aan alle eisen die voortvloeien uit artikel 10 van Richtlijn (EU) 2016/680. Voor andere doeleinden dan rechtshandhaving verbieden artikel 9, lid 1, van Verordening (EU) 2016/679 en artikel 10, lid 1, van Verordening (EU) 2018/1725 de verwerking van biometrische gegevens, met inachtneming van beperkte uitzonderingen zoals bepaald in die artikelen. Bij de toepassing van artikel 9, lid 1, van Verordening (EU) 2016/679 is het gebruik van biometrische identificatie op afstand voor andere doeleinden dan rechtshandhaving reeds onderworpen aan verbodsbesluiten van nationale gegevensbeschermingsautoriteiten.
(39)
Orice prelucrare de date biometrice și alte date cu caracter personal implicate în utilizarea sistemelor de IA pentru identificarea biometrică, alta decât în legătură cu utilizarea sistemelor de identificare biometrică la distanță în timp real în spații accesibile publicului în scopul aplicării legii, astfel cum este reglementată de prezentul regulament, ar trebui să respecte în continuare toate cerințele care decurg din articolul 10 din Directiva (UE) 2016/680. În ceea ce privește alte scopuri decât aplicarea legii, articolul 9 alineatul (1) din Regulamentul (UE) 2016/679 și articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725 interzic prelucrarea de date biometrice, sub rezerva unor excepții limitate prevăzute la articolele respective. În vederea aplicării articolului 9 alineatul (1) din Regulamentul (UE) 2016/679, utilizarea identificării biometrice la distanță în alte scopuri decât aplicarea legii a făcut deja obiectul unor decizii de interzicere luate de autoritățile naționale pentru protecția datelor.
(40)
Overeenkomstig artikel 6 bis van Protocol nr. 21 betreffende de positie van het Verenigd Koninkrijk en Ierland ten aanzien van de ruimte van vrijheid, veiligheid en recht, gehecht aan het VEU en het VWEU, is Ierland niet gebonden door de regels die zijn vastgelegd in artikel 5, lid 1, eerste alinea, punt g), voor zover dit van toepassing is op het gebruik van systemen voor biometrische categorisering voor activiteiten op het gebied van politiële samenwerking en justitiële samenwerking in strafzaken, artikel 5, lid 1, eerste alinea, punt d), voor zover het van toepassing is op het gebruik van onder die bepaling vallende AI-systemen, artikel 5, lid 1, eerste alinea, punt h), artikel 5, leden 2 tot en met 6, en artikel 26, lid 10, van deze verordening, en die zijn vastgesteld op basis van artikel 16 VWEU in verband met de verwerking van persoonsgegevens door de lidstaten bij de uitvoering van activiteiten binnen het toepassingsgebied van hoofdstuk 4 of 5 van titel V van het derde deel van het VWEU, wanneer Ierland niet gebonden is door de regels betreffende de vormen van justitiële samenwerking in strafzaken of van politiële samenwerking in het kader waarvan de op grond van artikel 16 VWEU vastgestelde bepalingen moeten worden nageleefd.
(40)
În conformitate cu articolul 6a din Protocolul nr. 21 privind poziția Regatului Unit și a Irlandei în ceea ce privește spațiul de libertate, securitate și justiție, anexat la TUE și la TFUE, Irlandei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) primul paragraf litera (g) în măsura în care se aplică utilizării sistemelor de clasificare biometrică pentru activități în domeniul cooperării polițienești și al cooperării judiciare în materie penală, la articolul 5 alineatul (1) primul paragraf litera (d) în măsura în care se aplică utilizării sistemelor de IA care intră sub incidența dispoziției respective, la articolul 5 alineatul (1) primul paragraf litera (h) și alineatele (2)-(6) și la articolul 26 alineatul (10) din prezentul regulament adoptate în temeiul articolului 16 din TFUE, referitoare la prelucrarea datelor cu caracter personal de către statele membre atunci când exercită activități care intră în domeniul de aplicare al părții a treia titlul V capitolul 4 sau 5 din TFUE, în cazurile în care Irlandei nu îi revin obligații în temeiul normelor privind formele de cooperare judiciară în materie penală sau de cooperare polițienească care necesită respectarea dispozițiilor stabilite în temeiul articolului 16 din TFUE.
(41)
Overeenkomstig de artikelen 2 en 2 bis van Protocol nr. 22 betreffende de positie van Denemarken, gehecht aan het VEU en het VWEU, zijn de regels in artikel 5, lid 1, eerste alinea, punt g), voor zover dit van toepassing is op het gebruik van systemen voor biometrische categorisering voor activiteiten op het gebied van politiële samenwerking en justitiële samenwerking in strafzaken, artikel 5, lid 1, eerste alinea, punt d), voor zover het van toepassing is op het gebruik van onder die bepaling vallende AI-systemen, artikel 5, lid 1, eerste alinea, punt h), artikel 5, leden 2 tot en met 6, en artikel 26, lid 10, van deze verordening, die zijn vastgesteld op basis van artikel 16 VWEU, in verband met de verwerking van persoonsgegevens door de lidstaten bij de uitvoering van activiteiten binnen het toepassingsgebied van hoofdstuk 4 of 5 van titel V van het derde deel van het VWEU, niet bindend voor, noch van toepassing op Denemarken.
(41)
În conformitate cu articolele 2 și 2a din Protocolul nr. 22 privind poziția Danemarcei, anexat la TUE și la TFUE, Danemarcei nu îi revin obligații în temeiul normelor prevăzute la articolul 5 alineatul (1) primul paragraf litera (g) în măsura în care se aplică utilizării sistemelor de clasificare biometrică pentru activități în domeniul cooperării polițienești și al cooperării judiciare în materie penală, la articolul 5 alineatul (1) primul paragraf litera (d) în măsura în care se aplică utilizării sistemelor de IA care intră sub incidența dispoziției respective, la articolul 5 alineatul (1) primul paragraf litera (h) și alineatele (2)-(6) și la articolul 26 alineatul (10) din prezentul regulament adoptate în temeiul articolului 16 din TFUE, referitoare la prelucrarea datelor cu caracter personal de către statele membre atunci când exercită activități care intră în domeniul de aplicare al părții a treia titlul V capitolul 4 sau 5 din TFUE și Danemarca nu face obiectul aplicării normelor respective.
(42)
In overeenstemming met het vermoeden van onschuld moeten natuurlijke personen in de Unie altijd worden beoordeeld op hun feitelijke gedrag. Natuurlijke personen mogen nooit worden beoordeeld op basis van door AI voorspeld gedrag dat uitsluitend gebaseerd is op hun profilering, persoonlijkheidskenmerken of kenmerken, zoals nationaliteit, geboorteplaats, verblijfplaats, aantal kinderen, schuldniveau of type auto, zonder een redelijk vermoeden dat die persoon betrokken is bij een criminele activiteit op basis van objectieve, verifieerbare feiten en zonder menselijke beoordeling daarvan. Daarom moeten risicobeoordelingen die met betrekking tot natuurlijke personen worden uitgevoerd, uitsluitend op basis van profilering of beoordeling van hun persoonlijkheidskenmerken en kenmerken, om de waarschijnlijkheid dat zij strafbare feiten plegen, te beoordelen, of om te voorspellen dat er een feitelijk of potentieel strafbaar feit zal plaatsvinden, worden verboden. In elk geval heeft dat verbod geen betrekking op risicoanalyses die niet zijn gebaseerd op de profilering van natuurlijke personen of op de persoonlijkheidskenmerken en kenmerken van natuurlijke personen, zoals AI-systemen die gebruikmaken van risicoanalyses om de waarschijnlijkheid van financiële fraude door ondernemingen te beoordelen op basis van verdachte transacties, of van risicoanalyse-instrumenten om de waarschijnlijkheid van vondsten van verdovende middelen of illegale goederen door douaneautoriteiten te voorspellen, bijvoorbeeld op basis van bekende smokkelroutes.
(42)
În conformitate cu prezumția de nevinovăție, persoanele fizice din Uniune ar trebui să fie întotdeauna judecate în funcție de comportamentul lor real. Persoanele fizice nu ar trebui să fie niciodată judecate în funcție de comportamentul preconizat de IA exclusiv pe baza creării profilurilor lor, a trăsăturilor lor de personalitate sau a unor caracteristici precum cetățenia, locul nașterii, locul de reședință, numărul de copii, nivelul datoriilor sau tipul de autoturism, dacă nu există o suspiciune rezonabilă, bazată pe fapte obiective verificabile, că persoana respectivă este implicată într-o activitate infracțională și dacă nu se face o evaluare în acest sens de către un om. Prin urmare, ar trebui să fie interzise evaluările riscurilor efectuate în legătură cu persoane fizice pentru a evalua probabilitatea ca acestea să comită infracțiuni sau pentru a anticipa producerea unei infracțiuni reale sau potențiale exclusiv pe baza creării profilurilor acestor persoane sau a evaluării trăsăturilor lor de personalitate și a caracteristicilor lor. În orice caz, această interdicție nu privește și nici nu afectează analiza de risc care nu se bazează pe crearea de profiluri ale persoanelor sau pe trăsăturile de personalitate și caracteristicile persoanelor, cum ar fi sistemele de IA care utilizează analiza de risc pentru a evalua probabilitatea de fraudă financiară din partea întreprinderilor pe baza unor tranzacții suspecte sau instrumentele analitice de risc utilizate pentru a prevedea probabilitatea localizării de către autoritățile vamale a stupefiantelor sau a mărfurilor ilicite, de exemplu pe baza rutelor de trafic cunoscute.
(43)
Het in de handel brengen, het in gebruik stellen voor dat specifieke doel en het gebruiken van AI-systemen die databanken voor gezichtsherkenning creëren of uitbreiden door middel van de niet-gerichte scraping van gezichtsopnamen van het internet of CCTV-beelden, moeten worden verboden omdat dergelijke praktijken het gevoel van grootschalig toezicht vergroten en kunnen leiden tot grove schendingen van de grondrechten, waaronder het recht op privacy.
(43)
Introducerea pe piață, punerea în funcțiune în scopul specific respectiv și utilizarea sistemelor de IA care creează sau extind baze de date de recunoaștere facială prin extragerea fără scop precis de imagini faciale de pe internet sau din înregistrări TVCI ar trebui să fie interzise, deoarece această practică amplifică sentimentul de supraveghere în masă și poate duce la încălcări grave ale drepturilor fundamentale, inclusiv ale dreptului la viață privată.
(44)
Er bestaat ernstige bezorgdheid over de wetenschappelijke basis van AI-systemen die gericht zijn op het identificeren of afleiden van emoties, met name omdat emoties sterk uiteenlopen tussen culturen en situaties, en zelfs bij één persoon. Tot de belangrijkste tekortkomingen van dergelijke systemen behoren de beperkte betrouwbaarheid, het gebrek aan specificiteit en de beperkte veralgemeenbaarheid. Daarom kunnen AI-systemen die emoties of intenties van natuurlijke personen identificeren of afleiden op basis van hun biometrische gegevens, tot discriminerende resultaten leiden en inbreuk maken op de rechten en vrijheden van de betrokken personen. Gezien de ongelijke machtsverhoudingen in de context van werk of onderwijs, in combinatie met het ingrijpende karakter van deze systemen, kunnen dergelijke systemen leiden tot een nadelige of ongunstige behandeling van bepaalde natuurlijke personen of hele groepen personen. Daarom moeten het in de handel brengen, in gebruik stellen en gebruiken van AI-systemen die bedoeld zijn om te worden gebruikt om de emotionele toestand van natuurlijke personen in situaties die verband houden met de werkplek en het onderwijs te detecteren, worden verboden. Dat verbod mag geen betrekking hebben op AI-systemen die uitsluitend om medische of veiligheidsredenen in de handel worden gebracht, zoals systemen die bedoeld zijn voor therapeutisch gebruik.
(44)
Există preocupări serioase cu privire la baza științifică a sistemelor de IA care vizează identificarea sau deducerea emoțiilor, în special deoarece exprimarea emoțiilor variază considerabil de la o cultură la alta și de la o situație la alta și chiar la nivelul unei singure persoane. Printre principalele deficiențe ale unor astfel de sisteme se numără fiabilitatea limitată, lipsa specificității și posibilitățile limitate de generalizare. Prin urmare, sistemele de IA care identifică sau deduc emoțiile sau intențiile persoanelor fizice pe baza datelor lor biometrice pot genera rezultate discriminatorii și pot fi intruzive pentru drepturile și libertățile persoanelor în cauză. Având în vedere dezechilibrul de putere în contextul muncii sau al educației, combinat cu caracterul intruziv al acestor sisteme, ele ar putea conduce la un tratament prejudiciabil sau nefavorabil al anumitor persoane fizice sau al unor grupuri întregi de astfel de persoane. Prin urmare, ar trebui să fie interzise introducerea pe piață, punerea în funcțiune și utilizarea sistemelor de IA destinate a fi utilizate pentru a detecta starea emoțională a persoanelor în situații legate de locul de muncă și de educație. Această interdicție nu ar trebui să se aplice sistemelor de IA introduse pe piață strict din motive medicale sau de siguranță, cum ar fi sistemele destinate utilizării în scop terapeutic.
(45)
Deze verordening moet praktijken die verboden zijn uit hoofde van het Unierecht, met inbegrip van het gegevensbeschermingsrecht, het non-discriminatierecht, het recht inzake consumentenbescherming, en het mededingingsrecht, onverlet laten.
(45)
Practicile interzise de dreptul Uniunii, inclusiv dreptul privind protecția datelor, dreptul privind nediscriminarea, dreptul privind protecția consumatorilor și dreptul concurenței, nu ar trebui să fie afectate de prezentul regulament.
(46)
AI-systemen met een hoog risico mogen alleen in de Unie in de handel worden gebracht, in gebruik worden gesteld of worden gebruikt als zij aan bepaalde dwingende eisen voldoen. Die eisen moeten ervoor zorgen dat AI-systemen met een hoog risico die in de Unie beschikbaar zijn of waarvan de output anderszins in de Unie wordt gebruikt, geen onaanvaardbare risico’s inhouden voor belangrijke publieke belangen in de Unie, zoals die door het recht van de Unie worden erkend en beschermd. Op basis van het nieuwe wetgevingskader, zoals verduidelijkt in de mededeling van de Commissie “De Blauwe Gids van 2022: richtlijnen voor de uitvoering van de productvoorschriften van de EU” (20), luidt de algemene regel dat meer dan een rechtshandeling van de harmonisatiewetgeving van de Unie, zoals de Verordeningen (EU) 2017/745 (21) en (EU) 2017/746 (22) van het Europees Parlement en de Raad of Richtlijn 2006/42/EG van het Europees Parlement en de Raad (23), op één product van toepassing kan zijn, aangezien het aanbieden of in gebruik stellen van het product alleen kan plaatsvinden wanneer het product voldoet aan alle toepasselijke harmonisatiewetgeving van de Unie. Om consistentie te waarborgen en onnodige administratieve lasten of kosten te vermijden, moeten aanbieders van een product dat een of meer AI-systemen met een hoog risico bevat waarop de eisen van deze verordening en van de harmonisatiewetgeving van de Unie zoals vermeld in een bijlage bij deze verordening van toepassing zijn, flexibel zijn met betrekking tot operationele beslissingen over hoe ervoor kan worden gezorgd dat een product dat een of meer AI-systemen bevat, op optimale wijze voldoet aan alle toepasselijke eisen van die harmonisatiewetgeving van de Unie. De aanmerking als AI-systeem met een hoog risico, moet worden beperkt tot systemen die aanzienlijke schadelijke gevolgen hebben voor de gezondheid, de veiligheid en de grondrechten van personen in de Unie, en daarbij moeten potentiële restricties voor de internationale handel tot een minimum worden beperkt.
(46)
Sistemele de IA cu grad ridicat de risc ar trebui să fie introduse pe piața Uniunii, puse în funcțiune sau utilizate numai dacă respectă anumite cerințe obligatorii. Cerințele respective ar trebui să asigure faptul că sistemele de IA cu grad ridicat de risc disponibile în Uniune sau ale căror rezultate sunt utilizate în alt mod în Uniune nu prezintă riscuri inacceptabile pentru interesele publice importante ale Uniunii, astfel cum sunt recunoscute și protejate de dreptul Uniunii. Pe baza noului cadru legislativ, astfel cum s-a clarificat în Comunicarea Comisiei intitulată „«Ghidul albastru» din 2022 referitor la punerea în aplicare a normelor UE privind produsele” (20), regula generală este că cel puțin un act juridic din legislația de armonizare a Uniunii, cum ar fi Regulamentele (UE) 2017/745 (21) și (UE) 2017/746 (22) ale Parlamentului European și ale Consiliului sau Directiva 2006/42/CE a Parlamentului European și a Consiliului (23), poate fi aplicabil unui singur produs, deoarece punerea la dispoziție sau punerea în funcțiune poate avea loc numai atunci când produsul respectă întreaga legislație de armonizare a Uniunii aplicabilă. Pentru a se asigura coerența și a se evita sarcinile administrative sau costurile inutile, furnizorii unui produs care conține unul sau mai multe sisteme de IA cu grad ridicat de risc, cărora li se aplică cerințele prezentului regulament și ale legislației de armonizare a Uniunii astfel cum este conținută într-o anexă la prezentul regulament, ar trebui să fie flexibili în ceea ce privește deciziile operaționale cu privire la modul optim de asigurare a conformității unui produs care conține unul sau mai multe sisteme de IA cu toate cerințele aplicabile din respectiva legislație de armonizare a Uniunii. Sistemele de IA identificate ca prezentând un grad ridicat de risc ar trebui să se limiteze la cele care au un impact negativ semnificativ asupra sănătății, siguranței și drepturilor fundamentale ale persoanelor din Uniune, iar o astfel de limitare ar trebui să reducă la minimum orice eventuală restricționare a comerțului internațional.
(47)
AI-systemen kunnen nadelige gevolgen hebben voor de gezondheid en de veiligheid van personen, met name wanneer dergelijke systemen functioneren als veiligheidscomponenten van producten. Overeenkomstig de in de harmonisatiewetgeving van de Unie beoogde doelstellingen om het vrije verkeer van producten op de interne markt te vergemakkelijken en ervoor te zorgen dat alleen veilige en anderszins conforme producten hun weg naar de markt vinden, is het belangrijk dat de veiligheidsrisico’s die een product in zijn geheel kan genereren door zijn digitale componenten, waaronder AI-systemen, naar behoren worden voorkomen en beperkt. Zo moeten robots die alsmaar autonomer worden, of het nu in een productieomgeving is of voor persoonlijke hulp en zorg, in staat zijn op een veilige manier te werken en hun taken uit te voeren in complexe omgevingen. Ook in de gezondheidssector, waar het belang voor leven en gezondheid bijzonder hoog is, moeten de steeds geavanceerdere diagnosesystemen en systemen ter ondersteuning van menselijke beslissingen betrouwbaar en nauwkeurig zijn.
(47)
Sistemele de IA ar putea avea un impact negativ asupra sănătății și siguranței persoanelor, în special atunci când funcționează drept componente de siguranță ale produselor. În concordanță cu obiectivele legislației de armonizare a Uniunii de a facilita libera circulație a produselor pe piața internă și de a asigura că numai produsele sigure și conforme în toate privințele ajung pe piață, este important ca riscurile în materie de siguranță care pot fi generate de un produs în ansamblu din cauza componentelor sale digitale, inclusiv a sistemelor de IA, să fie prevenite și atenuate în mod corespunzător. De exemplu, roboții din ce în ce mai autonomi, fie în contextul producției, fie în contextul asistenței și îngrijirii personale, ar trebui să fie în măsură să își desfășoare activitatea și să își îndeplinească funcțiile în condiții de siguranță în medii complexe. În mod similar, în sectorul sănătății, unde mizele privind viața și sănătatea sunt deosebit de ridicate, sistemele de diagnosticare din ce în ce mai sofisticate și sistemele care sprijină deciziile umane ar trebui să fie fiabile și exacte.
(48)
Een bijzonder relevante factor voor de classificering van een AI-systeem als AI-systeem met een hoog risico, is de omvang van de door het AI-systeem veroorzaakte nadelige effecten op de grondrechten die door het Handvest worden beschermd. Onder die rechten zijn begrepen: het recht op menselijke waardigheid, de eerbiediging van het privéleven en van het familie- en gezinsleven, de bescherming van persoonsgegevens, de vrijheid van meningsuiting en van informatie, de vrijheid van vergadering en vereniging, het recht op non-discriminatie, het recht op onderwijs, consumentenbescherming, de rechten van werknemers, de rechten van personen met een handicap, gendergelijkheid, intellectuele-eigendomsrechten, het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, het recht op verdediging en het vermoeden van onschuld, alsook het recht op behoorlijk bestuur. Naast deze rechten moeten ook de specifieke rechten van kinderen worden benadrukt, die zijn vastgelegd in artikel 24 van het Handvest en in het Verdrag van de Verenigde Naties inzake de rechten van het kind, nader uitgewerkt in algemene opmerking nr. 25 van het VN-Comité voor de rechten van het kind met betrekking tot de digitale omgeving, waarbij telkens wordt geëist dat rekening wordt gehouden met de kwetsbaarheid van kinderen en dat zij de bescherming en zorg krijgen die nodig zijn voor hun welbevinden. Ook het grondrecht betreffende een hoog niveau van milieubescherming, dat in het Handvest is vastgelegd en in het beleid van de Unie wordt uitgevoerd, moet in aanmerking worden genomen bij de beoordeling van de ernst van de schade die een AI-systeem kan veroorzaken, onder meer met betrekking tot de gezondheid en de veiligheid van personen.
(48)
Amploarea impactului negativ al sistemului de IA asupra drepturilor fundamentale protejate de cartă este deosebit de relevantă atunci când un sistem de IA este clasificat ca prezentând un grad ridicat de risc. Printre aceste drepturi se numără dreptul la demnitate umană, respectarea vieții private și de familie, protecția datelor cu caracter personal, libertatea de exprimare și de informare, libertatea de întrunire și de asociere, precum, dreptul la nediscriminarea, dreptul la educație, protecția consumatorilor, drepturile lucrătorilor, drepturile persoanelor cu dizabilități, egalitatea de gen, drepturile de proprietate intelectuală, dreptul la o cale de atac eficientă și la un proces echitabil, dreptul la apărare și prezumția de nevinovăție și dreptul la o bună administrare. Pe lângă aceste drepturi, este important să se sublinieze faptul că copiii au drepturi specifice, astfel cum sunt consacrate la articolul 24 din cartă și în Convenția Organizației Națiunilor Unite cu privire la drepturile copilului, detaliată în Comentariul general nr. 25 la aceasta privind mediul digital, ambele impunând luarea în considerare a vulnerabilităților copiilor și asigurarea protecției și îngrijirii necesare pentru bunăstarea lor. Dreptul fundamental la un nivel ridicat de protecție a mediului consacrat în cartă și pus în aplicare în politicile Uniunii ar trebui, de asemenea, să fie luat în considerare atunci când se evaluează gravitatea prejudiciului pe care îl poate cauza un sistem de IA, inclusiv în ceea ce privește sănătatea și siguranța persoanelor.
(49)
Wat betreft AI-systemen met een hoog risico die veiligheidscomponenten zijn van producten of systemen, of die zelf producten of systemen zijn die onder het toepassingsgebied vallen van Verordening (EG) nr. 300/2008 van het Europees Parlement en de Raad (24), Verordening (EU) nr. 167/2013 van het Europees Parlement en de Raad (25), Verordening (EU) nr. 168/2013 van het Europees Parlement en de Raad (26), Richtlijn 2014/90/EU van het Europees Parlement en de Raad (27), Richtlijn (EU) 2016/797 van het Europees Parlement en de Raad (28), Verordening (EU) 2018/858 van het Europees Parlement en de Raad (29), Verordening (EU) 2018/1139 van het Europees Parlement en de Raad (30), en Verordening (EU) 2019/2144 van het Europees Parlement en de Raad (31), moeten die handelingen worden gewijzigd om ervoor te zorgen dat de Commissie, op basis van de technische en regelgeving van elke sector en zonder in te grijpen in de bestaande governance-, conformiteitsbeoordelings- en handhavingsmechanismen en autoriteiten die daarbij zijn ingesteld, rekening houdt met de in deze verordening vastgelegde dwingende eisen voor AI-systemen met een hoog risico wanneer zij op basis van die handelingen desbetreffende gedelegeerde of uitvoeringshandelingen vaststelt.
(49)
În ceea ce privește sistemele de IA cu grad ridicat de risc care sunt componente de siguranță ale produselor sau sistemelor sau care sunt ele însele produse sau sisteme care intră în domeniul de aplicare al Regulamentului (CE) nr. 300/2008 al Parlamentului European și al Consiliului (24), al Regulamentului (UE) nr. 167/2013 al Parlamentului European și al Consiliului (25), al Regulamentului (UE) nr. 168/2013 al Parlamentului European și al Consiliului (26), al Directivei 2014/90/UE a Parlamentului European și a Consiliului (27), al Directivei (UE) 2016/797 a Parlamentului European și a Consiliului (28), al Regulamentului (UE) 2018/858 al Parlamentului European și al Consiliului (29), al Regulamentului (UE) 2018/1139 al Parlamentului European și al Consiliului (30) și al Regulamentului (UE) 2019/2144 al Parlamentului European și al Consiliului (31), este oportun să se modifice respectivele acte legislative pentru a se asigura luarea în considerare de către Comisie, pe baza specificităților tehnice și de reglementare ale fiecărui sector și fără a afecta mecanismele și autoritățile existente de guvernanță, de evaluare a conformității și de aplicare a legislației instituite în acestea, a cerințelor obligatorii pentru sistemele de IA cu grad ridicat de risc prevăzute în prezentul regulament atunci când adoptă orice act delegat sau de punere în aplicare relevant pe baza respectivelor acte legislative.
(50)
Wat AI-systemen betreft die veiligheidscomponenten van producten zijn, of die zelf producten zijn, en die onder het toepassingsgebied van bepaalde in een bijlage bij deze verordening vermelde harmonisatiewetgeving van de Unie vallen, is het passend ze in het kader van deze verordening als AI-systemen met een hoog risico te classificeren indien het betrokken product de conformiteits-beoordelingsprocedure ondergaat bij een conformiteitsbeoordelingsinstantie op grond van die relevante harmonisatiewetgeving van de Unie. Het gaat met name om machines, speelgoed, liften, uitrusting en beveiligingssystemen bestemd voor gebruik op plaatsen waar ontploffingsgevaar kan heersen, radioapparatuur, drukapparatuur, pleziervaartuigen, kabelbaaninstallaties, gastoestellen, medische hulpmiddelen, medische hulpmiddelen voor in-vitrodiagnostiek, de automobiel- en de luchtvaartsector.
(50)
În ceea ce privește sistemele de IA care sunt componente de siguranță ale produselor sau care sunt ele însele produse care intră în domeniul de aplicare al anumitor acte legislative de armonizare ale Uniunii enumerate într-o anexă la prezentul regulament, este oportun să fie clasificate ca prezentând un grad ridicat de risc în temeiul prezentului regulament în cazul în care produsul respectiv este supus procedurii de evaluare a conformității efectuate de un organism terț de evaluare a conformității în temeiul respectivelor acte legislative de armonizare relevante ale Uniunii. În special, astfel de produse sunt echipamentele tehnice, jucăriile, ascensoarele, echipamentele și sistemele de protecție destinate utilizării în atmosfere potențial explozive, echipamentele radio, echipamentele sub presiune, echipamentele pentru ambarcațiuni de agrement, instalațiile pe cablu, aparatele consumatoare de combustibili gazoși, dispozitivele medicale, dispozitivele medicale pentru diagnostic in vitro, cele din industria auto și aeronautică.
(51)
De classificatie van een AI-systeem als een AI-systeem met een hoog risico op grond van deze verordening hoeft niet te betekenen dat het product waarvan het AI-systeem de veiligheidscomponent is, of het AI-systeem zelf als product, als “een systeem met een hoog risico” wordt beschouwd volgens de criteria die zijn vastgelegd in de toepasselijke harmonisatiewetgeving van de Unie die op het product van toepassing is. Dit is met name het geval voor de Verordeningen (EU) 2017/745 en (EU) 2017/746, waarin wordt voorzien in een conformiteitsbeoordeling door een derde partij voor producten met een middelgroot risico en producten met een hoog risico.
(51)
Clasificarea unui sistem de IA ca prezentând un grad ridicat de risc în temeiul prezentului regulament nu ar trebui să însemne neapărat că produsul a cărui componentă de siguranță este sistemul de IA sau că sistemul de IA în sine ca produs este considerat ca prezentând un grad ridicat de risc în conformitate cu criteriile stabilite în actele legislative de armonizare relevante ale Uniunii care se aplică produsului. Acesta este, în special, cazul Regulamentelor (UE) 2017/745 și (UE) 2017/746, care prevăd o evaluare a conformității de către un terț pentru produsele cu grad mediu de risc și cu grad ridicat de risc.
(52)
Autonome AI-systemen, d.w.z. andere AI-systemen met een hoog risico dan die welke veiligheidscomponenten van producten zijn of die zelf producten zijn, moeten als AI-systemen met een hoog risico worden geclassificeerd indien zij, gelet op het beoogde doel, een hoog risico inhouden op schade aan de gezondheid en de veiligheid of aan de grondrechten van personen, rekening houdend met zowel de ernst van de mogelijke schade als de waarschijnlijkheid dat deze zich voordoet, en indien zij worden gebruikt op een aantal in deze verordening beschreven, specifieke en vooraf bepaalde gebieden. De identificatie van die systemen is gebaseerd op dezelfde methode en criteria die ook worden overwogen voor toekomstige wijzigingen van de lijst van AI-systemen met een hoog risico die de Commissie via gedelegeerde handelingen moet kunnen vaststellen om rekening te houden met het snelle tempo van de technologische ontwikkeling en met de mogelijke veranderingen in het gebruik van AI-systemen.
(52)
În ceea ce privește sistemele de IA autonome, și anume alte sisteme de IA cu grad ridicat de risc decât cele care sunt componente de siguranță ale unor produse sau care sunt ele însele produse, este oportun să fie clasificate ca prezentând un grad ridicat de risc dacă, având în vedere scopul lor preconizat, prezintă un risc ridicat de a aduce prejudicii sănătății și siguranței sau drepturilor fundamentale ale persoanelor, ținându-se seama atât de gravitatea posibilelor prejudicii, cât și de probabilitatea producerii acestora, și dacă sunt utilizate într-o serie de domenii predefinite în mod specific precizate în prezentul regulament. Identificarea sistemelor respective se bazează pe aceeași metodologie și pe aceleași criterii avute în vedere pentru eventuale modificări viitoare ale listei de sisteme de IA cu grad ridicat de risc, modificări pe care Comisia ar trebui să fie împuternicită să le adopte, prin intermediul unor acte delegate, pentru a ține seama de ritmul rapid al dezvoltării tehnologice și de eventualele modificări în utilizarea sistemelor de IA.
(53)
Het is ook belangrijk te verduidelijken dat er specifieke gevallen kunnen zijn waarin AI-systemen die worden gebruikt op in deze verordening beschreven, specifieke gebieden, niet leiden tot een aanzienlijk risico op schade aan de juridische belangen die op die gebieden worden beschermd, omdat zij de besluitvorming niet wezenlijk beïnvloeden of die belangen niet wezenlijk schaden. Voor de toepassing van deze verordening moet een AI-systeem dat het resultaat van de besluitvorming niet wezenlijk beïnvloedt, worden beschouwd als een AI-systeem dat geen invloed heeft op de inhoud, en daarmee op het resultaat, van de menselijke of geautomatiseerde besluitvorming. Er kan sprake zijn van een AI-systeem dat het resultaat van de besluitvorming niet wezenlijk beïnvloedt, indien aan een of meer van de volgende voorwaarden is voldaan. De eerste voorwaarde luidt dat het AI-systeem bedoeld moet zijn om een enge procedurele taak uit te voeren, zoals een AI-systeem dat ongestructureerde data omzet in gestructureerde data, een AI-systeem dat binnenkomende documenten classificeert in categorieën of een AI-systeem dat wordt gebruikt om binnen een groot aantal aanvragen dubbels op te sporen. Dergelijke taken zijn dermate specifiek en beperkt dat zij slechts beperkte risico’s met zich meebrengen, die niet toenemen door gebruik van een AI-systeem in een context die in een bijlage bij deze verordening als gebruik met een hoog risico is opgenomen. De tweede voorwaarde is dat de door het AI-systeem uitgevoerde taak bedoeld moet zijn om het resultaat te verbeteren van een eerder voltooide menselijke activiteit die relevant kan zijn in voor de in een lijst in een bijlage bij deze verordening vermelde gevallen van hoog-risicogebruik. Die kenmerken in beschouwing genomen, voegt het AI-systeem slechts een extra laag toe aan een menselijke activiteit, en houdt dit bijgevolg een lager risico in. Dit is bijvoorbeeld het geval voor AI-systemen die bedoeld zijn om de taal van eerder opgestelde documenten te verbeteren, bijvoorbeeld met betrekking tot professionele toon of academische stijl, of door een tekst af te stemmen op een bepaalde merkboodschap. Als derde voorwaarde geldt dat het AI-systeem bedoeld moet zijn om besluitvormings-patronen of afwijkingen van eerdere besluitvormingspatronen op te sporen. Het risico zou in dergelijke gevallen lager liggen omdat het AI-systeem wordt gebruikt na een eerder afgeronde menselijke beoordeling en het niet de bedoeling is dat het AI-systeem deze vervangt of wijzigt zonder gedegen menselijke toetsing. Dergelijke AI-systemen omvatten bijvoorbeeld systemen die, aan de hand van een bepaald beoordelingspatroon van een leerkracht, achteraf kunnen worden gebruikt om na te gaan of de leerkracht mogelijk van dat patroon is afgeweken, en zo mogelijke inconsistenties of anomalieën te signaleren. De vierde voorwaarde houdt in dat het AI-systeem bedoeld moet zijn om een taak uit te voeren die slechts dient ter voorbereiding van een beoordeling die relevant is voor de in een bijlage bij deze verordening vermelde AI-systemen, waardoor het mogelijke effect van de output van het systeem een zeer laag risico inhoudt voor de beoordeling die erop volgt. Daarbij kan het onder meer gaan over slimme oplossingen voor bestandsbeheer, waaronder verschillende functies zoals indexering, opzoeking, tekst- en spraakverwerking of het koppelen van gegevens aan andere gegevensbronnen, of AI-systemen die worden gebruikt voor de vertaling van brondocumenten. In elk geval moeten AI-systemen die worden gebruikt in een bijlage bij deze verordening vermelde gevallen van gebruik met een hoog risico worden geacht een aanzienlijk risico te vormen op schade aan de gezondheid, veiligheid of grondrechten indien het AI-systeem profilering inhoudt in de zin van artikel 4, punt 4), van Verordening (EU) 2016/679 of artikel 3, punt 4), van Richtlijn (EU) 2016/680 of artikel 3, punt 5), van Verordening (EU) 2018/1725. Om de traceerbaarheid en transparantie te waarborgen, moet een aanbieder die op basis van de hierboven vermelde voorwaarden van mening is dat een AI-systeem geen hoog risico vormt, documentatie van de beoordeling opstellen voordat dat systeem in de handel wordt gebracht of in gebruik wordt gesteld, en moet hij deze documentatie op verzoek aan de nationale bevoegde autoriteiten verstrekken. Een dergelijke aanbieder moet worden verplicht het AI-systeem te registreren in de EU-databank die bij deze verordening wordt opgezet. Met het oog op het verstrekken van verdere richtsnoeren voor de praktische uitvoering van de voorwaarden waaronder de in een bijlage bij deze verordening vermelde AI-systemen bij wijze van uitzondering geen hoog risico vormen, moet de Commissie, na raadpleging van de AI-board, richtsnoeren verstrekken waarin die praktische uitvoering wordt uiteengezet, aangevuld met een uitgebreide lijst van praktische voorbeelden van gebruiksgevallen van AI-systemen met een hoog risico en van gebruiksgevallen van AI-systemen zonder hoog risico.
(53)
De asemenea, este important să se clarifice faptul că pot exista cazuri specifice în care sistemele de IA menționate în domenii predefinite specificate în prezentul regulament nu conduc la un risc semnificativ de a aduce prejudicii intereselor juridice protejate în cadrul domeniilor respective, deoarece nu influențează în mod semnificativ procesul decizional sau nu aduc prejudicii substanțiale intereselor respective. În sensul prezentului regulament, un sistem de IA care nu influențează în mod semnificativ rezultatul procesului decizional ar trebui să fie înțeles ca fiind un sistem de IA care nu are un impact asupra substanței și, prin urmare, nici asupra rezultatului procesului decizional, indiferent dacă este uman sau automatizat. Un sistem de IA care nu influențează în mod semnificativ rezultatul procesului decizional ar putea include situații în care sunt îndeplinite una sau mai multe dintre condițiile prezentate în continuare. Prima condiție ar trebui să fie aceea ca sistemul de IA să fie destinat să îndeplinească o sarcină procedurală restrânsă, de exemplu un sistem de IA care transformă date nestructurate în date structurate, un sistem de IA care clasifică pe categorii documentele primite sau un sistem de IA care este utilizat pentru a detecta duplicatele dintr-un număr mare de candidaturi. Aceste sarcini au un caracter atât de restrâns și de limitat încât prezintă doar riscuri reduse, riscuri care nu cresc prin utilizarea unui sistem de IA într-un context enumerat ca utilizare cu grad ridicat de risc într-o anexă la prezentul regulament. A doua condiție ar trebui să fie ca sarcina îndeplinită de sistemul de IA să fie menită să îmbunătățească rezultatul unei activități umane finalizate anterior care poate fi relevantă în sensul utilizărilor cu grad ridicat de risc enumerate într-o anexă la prezentul regulament. Având în vedere aceste caracteristici, sistemul de IA adaugă doar un nivel suplimentar unei activități umane, prezentând în consecință un risc redus. Această condiție s-ar aplica, de exemplu, sistemelor de IA care sunt menite să îmbunătățească limbajul utilizat în documente redactate anterior, de exemplu în ceea ce privește tonul profesional, stilul academic de limbaj sau alinierea textului la mesajele specifice unei anumite mărci. A treia condiție ar trebui să fie aceea ca sistemul de IA să fie destinat să detecteze modelele decizionale sau devierile de la modele decizionale anterioare. Riscul ar fi redus deoarece utilizarea sistemului de IA este ulterioară unei evaluări finalizate anterior de către un om, pe care nu este destinată să o înlocuiască sau să o influențeze fără o revizuire adecvată de către un om. Printre aceste sisteme de IA se numără, de exemplu, cele care, având în vedere un anumit model de notare folosit de un cadru didactic, pot fi utilizate pentru a verifica ex post dacă respectivul cadru didactic s-a abătut de la modelul de notare în cauză și pentru a semnala astfel eventuale inconsecvențe sau anomalii. A patra condiție ar trebui să fie aceea ca sistemul de IA să fie destinat să îndeplinească o sarcină care este doar pregătitoare pentru o evaluare relevantă pentru scopurile sistemelor de IA enumerate într-o anexă la prezentul regulament, făcând astfel ca posibilul impact al rezultatelor sistemului să prezinte un risc foarte scăzut pentru evaluarea ulterioară bazată pe ele. Această condiție se referă, printre altele, la soluțiile inteligente de gestionare a fișierelor, care includ diverse funcții, cum ar fi indexarea, căutarea, prelucrarea textelor și a vorbirii sau corelarea datelor cu alte surse de date, ori la sistemele de IA utilizate pentru traducerea documentelor inițiale. În orice caz, ar trebui să se considere că sistemele de IA utilizate în situații cu grad ridicat de risc enumerate într-o anexă la prezentul regulament prezintă riscuri semnificative de prejudicii la adresa sănătății, siguranței sau drepturilor fundamentale dacă implică crearea de profiluri în sensul articolului 4 punctul 4 din Regulamentul (UE) 2016/679 sau al articolului 3 punctul 4 din Directiva (UE) 2016/680 sau al articolului 3 punctul 5 din Regulamentul (UE) 2018/1725. Pentru a asigura trasabilitatea și transparența, un furnizor care consideră pe baza condițiilor menționate mai sus că un sistem de IA nu prezintă un grad ridicat de risc ar trebui să întocmească documentația pentru evaluare înainte ca sistemul respectiv să fie introdus pe piață sau pus în funcțiune și ar trebui să furnizeze respectiva documentație autorităților naționale competente, la cerere. Furnizorul ar trebui să fie obligat să înregistreze sistemul de IA în baza de date a UE instituită în temeiul prezentului regulament. Pentru a oferi îndrumare suplimentară în vederea punerii în practică a condițiilor în care sistemele de IA enumerate într-o anexă la prezentul regulament nu prezintă, în mod excepțional, un grad ridicat de risc, Comisia ar trebui, după consultarea Consiliului IA, să furnizeze orientări care să detalieze respectiva punere în practică, completate de o listă cuprinzătoare de exemple practice de cazuri de utilizare a sistemelor de IA cu grad ridicat de risc și cazuri de utilizare fără grad ridicat de risc.
(54)
Aangezien biometrische gegevens een bijzondere categorie persoonsgegevens vormen, is het passend verschillende gevallen van kritiek gebruik van biometrische systemen te classificeren als gebruik met een hoog risico, voor zover het gebruik is toegestaan op grond van het toepasselijke Unierecht en nationale recht. Technische onnauwkeurigheden van AI-systemen voor de biometrische identificatie op afstand van natuurlijke personen kunnen tot vertekende resultaten en discriminerende effecten leiden. Het risico op dergelijke vertekende resultaten en discriminerende effecten is met name relevant wanneer zij betrekking hebben op leeftijd, etniciteit, ras, geslacht of handicap. Systemen voor biometrische identificatie op afstand moeten daarom worden geclassificeerd als systemen met een hoog risico, gezien de risico’s die zij met zich meebrengen. Een dergelijke classificatie geldt niet voor AI-systemen die bedoeld zijn om te worden gebruikt voor biometrische verificatie, met inbegrip van authenticatie, met als enige doel te bevestigen dat een specifieke natuurlijke persoon daadwerkelijk de persoon is die die persoon beweert te zijn, en de identiteit van een natuurlijke persoon te bevestigen met als enige doel toegang te verschaffen tot een dienst, een apparaat te ontgrendelen of beveiligde toegang te verschaffen tot een locatie. Daarnaast moeten AI-systemen die bedoeld zijn om te worden gebruikt voor biometrische categorisering op basis van krachtens artikel 9, lid 1, van Verordening (EU) 2016/679 beschermde gevoelige eigenschappen of kenmerken op basis van biometrische gegevens, voor zover deze niet verboden zijn op grond van deze verordening, en systemen voor het herkennen van emoties die niet verboden zijn op grond van deze verordening, worden geclassificeerd als systemen met een hoog risico. Biometrische systemen die uitsluitend bedoeld zijn om te worden gebruikt om cyberbeveiligings- en persoonsgegevensbeschermingsmaatregelen mogelijk te maken, mogen niet als AI-systemen met een hoog risico worden beschouwd.
(54)
Întrucât datele biometrice constituie o categorie specială de date cu caracter personal, este oportun ca mai multe cazuri de utilizare critică a sistemelor biometrice să fie clasificate ca prezentând un grad ridicat de risc, în măsura în care utilizarea acestora este permisă în temeiul dreptului Uniunii și al dreptului intern relevant. Inexactitățile tehnice ale sistemelor de IA destinate identificării biometrice la distanță a persoanelor fizice pot conduce la rezultate distorsionate de prejudecăți și pot avea efecte discriminatorii. Riscul unor astfel de rezultate distorsionate de prejudecăți și efecte discriminatorii este deosebit de relevant în ceea ce privește vârsta, etnia, rasa, sexul sau dizabilitățile. Prin urmare, sistemele de identificare biometrică la distanță ar trebui să fie clasificate ca prezentând un grad ridicat de risc, având în vedere riscurile pe care le implică. Nu se încadrează în această clasificare sistemele de IA destinate a fi utilizate pentru verificarea biometrică, inclusiv pentru autentificare, al cărei unic scop este de a confirma că o anumită persoană fizică este cine susține că este și de a confirma identitatea unei persoane fizice cu unicul scop de a-i permite accesul la un serviciu, deblocarea unui dispozitiv sau accesul securizat într-o incintă. În plus, ar trebui să fie clasificate ca prezentând un grad ridicat de risc sistemele de IA destinate a fi utilizate pentru clasificarea biometrică în funcție de atribute sau caracteristici sensibile protejate în temeiul articolului 9 alineatul (1) din Regulamentul (UE) 2016/679 pe baza datelor biometrice, în măsura în care nu sunt interzise în temeiul prezentului regulament, și sistemele de recunoaștere a emoțiilor care nu sunt interzise în temeiul prezentului regulament. Sistemele biometrice destinate a fi utilizate exclusiv în scopul aplicării măsurilor de securitate cibernetică și de protecție a datelor cu caracter personal nu ar trebui să fie considerate sisteme de IA cu grad ridicat de risc.
(55)
Met betrekking tot het beheer en de exploitatie van kritieke infrastructuur is het passend om AI-systemen die bedoeld zijn om te worden gebruikt als veiligheidscomponent bij het beheer en de exploitatie van kritieke digitale infrastructuur als opgenomen in bijlage I, punt 8), van Richtlijn (EU) 2022/2557, wegverkeer en de levering van water, gas, verwarming en elektriciteit, te classificeren als systemen met een hoog risico, aangezien het falen of gebrekkig functioneren hiervan een grootschalig risico kan opleveren voor het leven en de gezondheid van personen en kan leiden tot aanzienlijke verstoringen van de normale beoefening van sociale en economische activiteiten. Veiligheidscomponenten van kritieke infrastructuur, waaronder kritieke digitale infrastructuur, zijn systemen die worden gebruikt om de fysieke integriteit van kritieke infrastructuur of de gezondheid en veiligheid van personen en eigendommen rechtstreeks te beschermen, maar die niet noodzakelijk zijn voor de werking van het systeem. Het falen of gebrekkig functioneren van dergelijke componenten kan direct leiden tot risico’s voor de fysieke integriteit van kritieke infrastructuur en bijgevolg tot risico’s voor de gezondheid en veiligheid van personen en eigendommen. Componenten die uitsluitend voor cyberbeveiligingsdoeleinden zijn bestemd, mogen niet als veiligheidscomponenten worden aangemerkt. Voorbeelden van veiligheidscomponenten van dergelijke kritieke infrastructuur zijn systemen voor de monitoring van waterdruk of brandalarminstallaties in centra voor cloud computing.
(55)
În ceea ce privește gestionarea și exploatarea infrastructurii critice, este oportun să se clasifice ca prezentând un grad ridicat de risc sistemele de IA destinate utilizării drept componente de siguranță în cadrul gestionării și exploatării infrastructurilor digitale critice enumerate la punctul 8 din anexa la Directiva (UE) 2022/2557, a traficului rutier și a aprovizionării cu apă, gaz, încălzire și energie electrică, deoarece defectarea lor sau funcționarea lor defectuoasă poate pune în pericol viața și sănătatea persoanelor la scară largă și poate conduce la perturbări semnificative ale desfășurării obișnuite a activităților sociale și economice. Componentele de siguranță ale infrastructurii critice, inclusiv ale infrastructurii digitale critice, sunt sisteme utilizate pentru a proteja în mod direct integritatea fizică a infrastructurii critice sau sănătatea și siguranța persoanelor și a bunurilor, dar care nu sunt necesare pentru funcționarea sistemului. Defectarea sau funcționarea defectuoasă a unor astfel de componente ar putea conduce în mod direct la riscuri pentru integritatea fizică a infrastructurii critice și, prin urmare, la riscuri pentru sănătatea și siguranța persoanelor și a bunurilor. Componentele destinate a fi utilizate exclusiv în scopuri de securitate cibernetică nu ar trebui să se califice drept componente de siguranță. Printre exemplele de componente de siguranță ale unei astfel de infrastructuri critice se numără sistemele de monitorizare a presiunii apei sau sistemele de control al alarmei de incendiu în centrele de cloud computing.
(56)
Het inzetten van AI-systemen in het onderwijs is belangrijk om digitaal onderwijs en digitale opleidingen van hoge kwaliteit te bevorderen en om alle lerenden en leerkrachten in staat te stellen de nodige digitale vaardigheden en competenties te verwerven en te delen, met inbegrip van mediageletterdheid, en kritisch denken, om actief deel te nemen aan de economie, de samenleving en democratische processen. AI-systemen die in het onderwijs of voor beroepsopleidingen worden gebruikt, met name voor het bepalen van toegang of toelating, voor het toewijzen van personen aan instellingen voor onderwijs of beroepsopleidingen of programma’s op alle niveaus, voor het evalueren van leerresultaten van personen, voor de beoordeling van het passende onderwijsniveau voor een persoon en het uitoefenen van wezenlijke invloed op het niveau van onderwijs en opleiding dat aan die persoon zal worden verstrekt of waartoe die persoon toegang zal kunnen krijgen, of voor het monitoren en opsporen van ongeoorloofd gedrag van studenten tijdens tests, moeten echter als AI-systemen met een hoog risico worden geclassificeerd, aangezien ze bepalend kunnen zijn voor de onderwijs- en beroepsloopbaan van die persoon en derhalve invloed kunnen hebben op zijn vermogen om in zijn levensonderhoud te voorzien. Wanneer dergelijke systemen op ondeugdelijke wijze zijn ontworpen en worden gebruikt, kunnen zij bijzonder ingrijpend zijn en in strijd zijn met het recht op onderwijs en opleiding, alsook met het recht niet te worden gediscrimineerd, en kunnen historische patronen van discriminatie in stand worden gehouden, bijvoorbeeld ten nadele van vrouwen, bepaalde leeftijdsgroepen, personen met een handicap of personen met een bepaalde raciale of etnische afkomst of seksuele gerichtheid.
(56)
Implementarea sistemelor de IA în educație este importantă pentru a promova educația și formarea digitală de înaltă calitate și pentru a permite tuturor cursanților și cadrelor didactice să dobândească și să partajeze aptitudinile și competențele digitale necesare, inclusiv educația în domeniul mass-mediei și gândirea critică, pentru a participa activ la economie, în societate și la procesele democratice. Cu toate acestea, sistemele de IA utilizate în educație sau în formarea profesională, în special pentru stabilirea accesului sau a admiterii, pentru repartizarea persoanelor în instituții sau programe educaționale și de formare profesională la toate nivelurile, pentru evaluarea rezultatelor învățării unei persoane, pentru evaluarea nivelului adecvat de instruire al unei persoane, pentru influențarea semnificativă a nivelului de educație și formare pe care îl vor primi sau îl vor putea accesa persoanele sau pentru monitorizarea și detectarea comportamentului interzis al elevilor și studenților în timpul testelor, ar trebui să fie clasificate drept sisteme de IA cu grad ridicat de risc, deoarece pot determina parcursul educațional și profesional din viața unei persoane și, prin urmare, pot afecta capacitatea acesteia de a-și asigura mijloace de subzistență. Atunci când sunt concepute și utilizate în mod necorespunzător, astfel de sisteme pot fi deosebit de intruzive și pot încălca dreptul la educație și formare, precum și dreptul de a nu fi discriminat și pot perpetua tipare istorice de discriminare, de exemplu împotriva femeilor, a anumitor grupe de vârstă, a persoanelor cu dizabilități sau a persoanelor de anumite origini rasiale ori etnice sau cu o anumită orientare sexuală.
(57)
AI-systemen die worden gebruikt op het gebied van werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid, met name voor de werving en selectie van personen, voor het nemen van besluiten die van invloed zijn op de voorwaarden van arbeidsgerelateerde betrekkingen, de bevordering en beëindiging van arbeidsgerelateerde contractuele betrekkingen, voor het toewijzen van taken op basis van individueel gedrag of persoonlijke eigenschappen of kenmerken, en voor monitoring of evaluatie van personen in arbeidsgerelateerde contractuele betrekkingen, moeten ook als systemen met een hoog risico worden geclassificeerd, aangezien deze systemen aanzienlijke gevolgen kunnen hebben voor de toekomstige carrièrekansen en het levensonderhoud van deze personen, alsook voor de rechten van werknemers. Relevante arbeidsgerelateerde contractuele betrekkingen moeten, op betekenisvolle wijze, werknemers en personen omvatten die via platforms diensten verlenen, zoals bedoeld in het werkprogramma van de Commissie voor 2021. Dergelijke systemen kunnen er in het wervingsproces en bij de evaluatie, de promotie of het behoud van personen in arbeidsgerelateerde contractuele betrekkingen toe leiden dat historische patronen van discriminatie blijven bestaan, bijvoorbeeld ten aanzien van vrouwen, bepaalde leeftijdsgroepen, personen met een handicap of personen met een bepaalde raciale of etnische afkomst of seksuele gerichtheid. AI-systemen die worden gebruikt om de prestaties en het gedrag van deze personen te monitoren, kunnen ook afbreuk doen aan hun grondrechten inzake gegevensbescherming en privacy.
(57)
De asemenea, sistemele de IA utilizate în domeniul ocupării forței de muncă, al gestionării lucrătorilor și al accesului la activități independente, în special pentru recrutarea și selectarea persoanelor, pentru luarea deciziilor care afectează condițiile relației legate de muncă, pentru promovarea și încetarea relațiilor contractuale legate de muncă, pentru alocarea sarcinilor pe baza comportamentului individual sau a trăsăturilor sau caracteristicilor personale, precum și pentru monitorizarea sau evaluarea persoanelor aflate în relații contractuale legate de muncă, ar trebui să fie clasificate ca prezentând un grad ridicat de risc, deoarece aceste sisteme pot avea un impact semnificativ asupra viitoarelor perspective de carieră, asupra mijloacelor de subzistență ale acestor persoane și asupra drepturilor lucrătorilor. Relațiile contractuale relevante legate de muncă ar trebui să implice într-un mod semnificativ angajații și persoanele care prestează servicii prin intermediul platformelor, astfel cum se menționează în Programul de lucru al Comisiei pentru 2021. Pe tot parcursul procesului de recrutare, precum și în evaluarea, promovarea sau menținerea persoanelor în relații contractuale legate de muncă, astfel de sisteme pot perpetua tipare istorice de discriminare, de exemplu împotriva femeilor, a anumitor grupe de vârstă, a persoanelor cu dizabilități sau a persoanelor de anumite origini rasiale ori etnice sau cu o anumită orientare sexuală. Sistemele de IA utilizate pentru a monitoriza performanța și comportamentul acestor persoane pot, de asemenea, să le submineze drepturile fundamentale la protecția datelor și la viața privată.
(58)
Een ander gebied waarop het gebruik van AI-systemen bijzondere aandacht verdient, is de toegang tot en het gebruik van bepaalde essentiële particuliere en openbare diensten en uitkeringen die noodzakelijk zijn voor de volledige deelname van personen aan de samenleving of voor het verbeteren van de levensstandaard. Met name natuurlijke personen die essentiële overheidsuitkeringen en -diensten van overheidsinstanties aanvragen of ontvangen, namelijk gezondheidszorg, socialezekerheidsuitkeringen, sociale diensten die bescherming bieden in gevallen zoals moederschap, ziekte, arbeidsongevallen, afhankelijkheid of ouderdom en verlies van werkgelegenheid en sociale bijstand en bijstand voor huisvesting, zijn doorgaans afhankelijk van deze uitkeringen en diensten en bevinden zich in een kwetsbare positie ten opzichte van de bevoegde autoriteiten. Wanneer AI-systemen worden gebruikt om te bepalen of dergelijke uitkeringen en diensten moeten worden verleend, geweigerd, beperkt, ingetrokken of teruggevorderd door de instanties, alsook of begunstigden daadwerkelijk recht hebben op dergelijke uitkeringen of diensten, kunnen deze systemen aanzienlijke effecten hebben op het levensonderhoud van personen en in strijd zijn met hun grondrechten, zoals het recht op sociale bescherming, non-discriminatie, menselijke waardigheid of een doeltreffende voorziening in rechte, en moeten zij derhalve als AI-systemen met een hoog risico worden geclassificeerd. Deze verordening mag echter niet leiden tot een belemmering van de ontwikkeling en het gebruik van innovatieve benaderingen bij de overheid, die baat zou hebben bij een breder gebruik van conforme en veilige AI-systemen, mits deze systemen geen hoog risico met zich meebrengen voor rechtspersonen en natuurlijke personen. Voorts moeten AI-systemen die worden gebruikt om de kredietscore of de kredietwaardigheid van natuurlijke personen te evalueren, worden geclassificeerd als AI-systemen met een hoog risico, aangezien zij bepalend zijn voor de toegang van deze personen tot financiële middelen of essentiële diensten zoals huisvesting, elektriciteit en telecommunicatiediensten. AI-systemen die voor dergelijke doeleinden worden gebruikt, kunnen leiden tot de discriminatie van personen of groepen, en historische patronen van discriminatie in stand houden, bijvoorbeeld op basis van raciale of etnische afkomst, gender, handicap, leeftijd of seksuele gerichtheid, of leiden tot nieuwe soorten discriminerende effecten. AI-systemen waarin het Unierecht voorziet voor het opsporen van fraude bij het aanbieden van financiële diensten en voor prudentiële doeleinden om de kapitaalvereisten van kredietinstellingen en verzekeringsondernemingen te berekenen, mogen echter niet worden beschouwd als AI-systemen met een hoog risico uit hoofde van deze verordening. Daarnaast kunnen AI-systemen die bedoeld zijn om te worden gebruikt voor risicobeoordeling en prijsstelling met betrekking tot natuurlijke personen voor gezondheids- en levensverzekeringen ook aanzienlijke gevolgen hebben voor het levensonderhoud van personen en kunnen zij, indien zij niet naar behoren zijn ontworpen, ontwikkeld en gebruikt, inbreuk maken op hun grondrechten en ernstige gevolgen hebben voor het leven en de gezondheid van mensen, waaronder financiële uitsluiting en discriminatie. Tot slot moeten AI-systemen die worden gebruikt voor het evalueren en classificeren van noodoproepen van natuurlijke personen of om hulpdiensten, met inbegrip van politiediensten, brandweer en medische hulp, uit te sturen of hierbij voorrang te bepalen, alsook systemen voor de triage van patiënten bij dringende medische zorg, ook worden geclassificeerd als systemen met een hoog risico, omdat zij besluiten nemen in zeer kritieke situaties voor het leven en de gezondheid van personen en hun eigendom.
(58)
Un alt domeniu în care utilizarea sistemelor de IA merită o atenție deosebită este accesul și posibilitatea de a beneficia de anumite prestații și servicii publice și private esențiale, necesare pentru ca oamenii să participe pe deplin în societate sau să își îmbunătățească nivelul de trai. În special, persoanele fizice care solicită sau primesc prestații și servicii esențiale de asistență publică din partea autorităților publice, și anume servicii de îngrijiri de sănătate, prestații de asigurări sociale, servicii sociale care oferă protecție în cazuri precum maternitatea, boala, accidentele de muncă, dependența, bătrânețea, pierderea locului de muncă, precum și asistență socială și legată de locuințe, sunt de regulă dependente de aceste prestații și servicii și se află într-o poziție vulnerabilă în raport cu autoritățile responsabile. În cazul în care sistemele de IA sunt utilizate pentru a stabili dacă astfel de prestații și servicii ar trebui să fie acordate, refuzate, reduse, revocate sau recuperate de autorități, inclusiv dacă beneficiarii au dreptul legitim la astfel de prestații sau servicii, sistemele respective pot avea un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și le pot încălca drepturile fundamentale, cum ar fi dreptul la protecție socială, la nediscriminare, la demnitatea umană sau la o cale de atac efectivă și, prin urmare, ar trebui să fie clasificate ca prezentând un grad ridicat de risc. Cu toate acestea, prezentul regulament nu ar trebui să împiedice dezvoltarea și utilizarea unor abordări inovatoare în administrația publică, care ar putea beneficia de o utilizare mai largă a sistemelor de IA conforme și sigure, cu condiția ca aceste sisteme să nu implice un risc ridicat pentru persoanele fizice și juridice. În plus, sistemele de IA utilizate pentru a evalua punctajul de credit sau bonitatea persoanelor fizice ar trebui să fie clasificate ca sisteme de IA cu grad ridicat de risc, întrucât acestea determină accesul persoanelor respective la resurse financiare sau la servicii esențiale, cum ar fi locuințe, electricitate și telecomunicații. Sistemele de IA utilizate în aceste scopuri pot duce la discriminare între persoane sau între grupuri și pot perpetua tipare istorice de discriminare, de exemplu pe criterii de origine rasială sau etnică, sex, dizabilitate, vârstă sau orientare sexuală, sau pot crea noi forme de impact discriminatoriu. Cu toate acestea, sistemele de IA prevăzute de dreptul Uniunii în scopul detectării fraudelor în furnizarea de servicii financiare și în scopuri prudențiale pentru a calcula cerințele de capital ale instituțiilor de credit și ale întreprinderilor de asigurări nu ar trebui să fie considerate ca prezentând un grad ridicat de risc în temeiul prezentului regulament. În plus, sistemele de IA destinate a fi utilizate pentru evaluarea riscurilor și stabilirea prețurilor pentru asigurarea de sănătate și de viață în cazul persoanelor fizice pot avea, de asemenea, un impact semnificativ asupra mijloacelor de subzistență ale persoanelor și, dacă nu sunt concepute, dezvoltate și utilizate în mod corespunzător, pot încălca drepturile lor fundamentale și pot avea consecințe grave pentru viața și sănătatea oamenilor, cum ar fi excluziunea financiară și discriminarea. În cele din urmă, sistemele de IA utilizate pentru evaluarea și clasificarea apelurilor de urgență ale persoanelor fizice sau pentru distribuirea sau stabilirea priorităților în distribuirea serviciilor de primă intervenție de urgență, inclusiv de către poliție, pompieri și asistența medicală, precum și în cadrul sistemelor de triaj medical de urgență al pacienților, ar trebui de asemenea să fie clasificate ca prezentând un grad ridicat de risc, deoarece iau decizii în situații foarte critice pentru viața și sănătatea persoanelor și pentru bunurile acestora.
(59)
Gezien hun rol en verantwoordelijkheid worden maatregelen van rechtshandhavings-instanties waarbij bepaalde toepassingen van AI-systemen worden gebruikt, gekenmerkt door een aanzienlijke mate van machtsverschillen en kunnen deze leiden tot de controle, de arrestatie of de vrijheidsberoving van natuurlijke personen, alsook tot andere negatieve effecten voor de grondrechten die door het Handvest worden gewaarborgd. Met name wanneer het AI-systeem niet is getraind met kwalitatief hoogwaardige data, niet voldoet aan toereikende eisen wat betreft de prestaties, de nauwkeurigheid of robuustheid ervan of niet goed is ontworpen en getest voordat het in de handel is gebracht of anderszins in gebruik is gesteld, kan het personen op discriminerende wijze of anderszins onjuiste of onrechtvaardige wijze aanduiden. Bovendien kan de uitoefening van belangrijke procedurele grondrechten, zoals het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, evenals de rechten van de verdediging en het vermoeden van onschuld, worden belemmerd, met name wanneer dergelijke AI-systemen onvoldoende transparant, verklaarbaar en gedocumenteerd zijn. Het is daarom passend om een aantal AI-systemen dat bedoeld is voor gebruik in de context van rechtshandhaving, waar nauwkeurigheid, betrouwbaarheid en transparantie bijzonder belangrijk zijn om negatieve effecten te voorkomen, het vertrouwen van het publiek te behouden en de verantwoording en doeltreffende voorziening in rechte te waarborgen, als systemen met een hoog risico te classificeren, voor zover het gebruik daarvan is toegestaan op grond van het toepasselijke Unierecht en nationale recht. Met het oog op de aard van de activiteiten en de hieraan gerelateerde risico’s moeten deze AI-systemen met een hoog risico met name AI-systemen omvatten die bedoeld zijn om door of namens rechtshandhavingsinstanties of instellingen, organen of instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties te worden gebruikt voor het beoordelen van het risico dat een natuurlijk persoon potentieel slachtoffer van strafbare feiten wordt, zoals leugendetectortests en vergelijkbare instrumenten, voor het beoordelen van de betrouwbaarheid van bewijsmateriaal tijdens het onderzoek naar of de vervolging van strafbare feiten en, voor zover niet verboden op grond van deze verordening, voor het beoordelen van het risico dat een natuurlijk persoon een inbreuk pleegt of recidive pleegt, niet uitsluitend op basis van de profilering van natuurlijke personen of de beoordeling van persoonlijkheidskenmerken of het criminele gedrag van natuurlijke personen of groepen in het verleden, voor profilering in de loop van de opsporing, het onderzoek of de vervolging van strafbare feiten. AI-systemen die specifiek bedoeld zijn voor gebruik voor administratieve procedures van belasting- en douaneautoriteiten en door financiële-inlichtingeneenheden die administratieve taken uitvoeren en informatie analyseren overeenkomstig de antiwitwaswetgeving van de Unie, mogen niet worden geclassificeerd als AI-systemen met een hoog risico die worden gebruikt door rechtshandhavingsinstanties met het oog op het voorkomen, opsporen, onderzoeken en vervolgen van strafbare feiten. Het gebruik van AI-instrumenten door rechtshandhavingsinstanties en andere relevante autoriteiten mag geen factor van ongelijkheid of uitsluiting worden. De gevolgen van het gebruik van AI-instrumenten voor de rechten van verdediging van verdachten mogen niet worden genegeerd, met name het probleem om betekenisvolle informatie over de werking van die systemen te verkrijgen, en het daaruit voortvloeiende probleem om de resultaten daarvan voor de rechtbank aan te vechten, met name door natuurlijke personen tegen wie een onderzoek loopt.
(59)
Având în vedere rolul și responsabilitatea lor, acțiunile întreprinse de autoritățile de aplicare a legii care implică anumite utilizări ale sistemelor de IA sunt caracterizate de un grad semnificativ de dezechilibru de putere și pot duce la supravegherea, arestarea sau privarea de libertate a unei persoane fizice, precum și la alte efecte negative asupra drepturilor fundamentale garantate în cartă. În special, în cazul în care nu este alimentat cu date de înaltă calitate, nu îndeplinește cerințe adecvate de performanță, acuratețe sau robustețe sau nu este proiectat și testat în mod corespunzător înainte de a fi introdus pe piață sau pus în funcțiune în alt mod, sistemul de IA poate selecta persoanele într-un mod discriminatoriu sau, la un nivel mai general, în mod incorect ori injust. În plus, exercitarea unor drepturi procedurale fundamentale importante, cum ar fi dreptul la o cale de atac efectivă și la un proces echitabil, precum și dreptul la apărare și prezumția de nevinovăție, ar putea fi împiedicată, în special în cazul în care astfel de sisteme de IA nu sunt suficient de transparente, explicabile și documentate. Prin urmare, este oportun să fie clasificate ca prezentând un grad ridicat de risc, în măsura în care utilizarea lor este permisă în temeiul dreptului Uniunii și al dreptului intern relevant, o serie de sisteme de IA destinate a fi utilizate în contextul aplicării legii, în care acuratețea, fiabilitatea și transparența sunt deosebit de importante pentru a evita efectele negative, pentru a păstra încrederea publicului și pentru a asigura asumarea răspunderii și reparații efective. Având în vedere natura activităților și riscurile aferente, aceste sisteme de IA cu grad ridicat de risc ar trebui să includă, în special, sistemele de IA destinate a fi utilizate de autoritățile de aplicare a legii sau în numele acestora sau de instituțiile, organele, oficiile sau agențiile Uniunii în sprijinul autorităților de aplicare a legii pentru a evalua riscul ca o persoană fizică să devină victimă a infracțiunilor, ca poligrafe și instrumente similare pentru evaluarea fiabilității probelor în cursul investigării sau urmăririi penale a infracțiunilor și, în măsura în care nu se interzice în temeiul prezentului regulament, pentru a evalua riscul ca o persoană fizică să comită o infracțiune sau o recidivă, nu numai pe baza creării de profiluri ale persoanelor fizice, a evaluării trăsăturilor de personalitate și a caracteristicilor lor sau a comportamentului infracțional anterior al persoanelor fizice sau al grupurilor, precum și pentru a crea profiluri în cursul depistării, investigării sau urmăririi penale a infracțiunilor. Sistemele de IA destinate în mod specific utilizării în proceduri administrative de către autoritățile fiscale și vamale, precum și de către unitățile de informații financiare care efectuează sarcini administrative prin care analizează informații în temeiul dreptului Uniunii privind combaterea spălării banilor, nu ar trebui să fie clasificate ca sisteme de IA cu grad ridicat de risc utilizate de autoritățile de aplicare a legii în scopul prevenirii, depistării, investigării și urmăririi penale a infracțiunilor. Utilizarea instrumentelor de IA de către autoritățile de aplicare a legii și de alte autorități relevante nu ar trebui să devină un factor de inegalitate sau de excluziune. Impactul utilizării instrumentelor de IA asupra drepturilor la apărare ale suspecților nu ar trebui să fie ignorat, în special dificultatea de a obține informații semnificative cu privire la funcționarea acestor sisteme și, în consecință, dificultatea de a contesta rezultatele acestora în instanță, în special de către persoanele fizice care fac obiectul investigării.
(60)
AI-systemen die worden gebruikt op het gebied van migratie, asiel en grenstoezichtsbeheer hebben gevolgen voor personen die vaak in een bijzonder kwetsbare positie verkeren en die afhankelijk zijn van de uitkomst van de acties van de bevoegde overheidsinstanties. De nauwkeurigheid, niet-discriminerende aard en transparantie van de AI-systemen die in deze context worden gebruikt, zijn derhalve van bijzonder belang om de eerbiediging van de grondrechten van de betrokken personen te waarborgen, en met name hun recht op vrij verkeer, non-discriminatie, bescherming van privéleven en persoonsgegevens, internationale bescherming en goed bestuur. Het is derhalve passend om AI-systemen, voor zover het gebruik daarvan is toegestaan op grond van het toepasselijke Unierecht en nationale recht, als systemen met een hoog risico te classificeren wanneer zij bedoeld zijn om te worden gebruikt door of namens de bevoegde overheidsinstanties of instellingen, organen of instanties van de Unie die taken op het gebied van migratie, asiel en grenstoezichtsbeheer uitvoeren, zoals leugendetectortests en vergelijkbare instrumenten, om bepaalde risico’s te beoordelen die natuurlijke personen vormen die het grondgebied van een lidstaat binnenkomen of een visum- of asielaanvraag indienen, om bevoegde overheidsinstanties bij te staan bij de behandeling, met inbegrip van een gerelateerde beoordeling van de betrouwbaarheid van bewijsmateriaal, van aanvragen voor asiel, visa en verblijfsvergunningen en hieraan gerelateerde klachten teneinde vast te stellen of de natuurlijke personen die een status aanvragen, hiervoor in aanmerking komen, met het oog op het opsporen, het herkennen of identificeren van natuurlijke personen in het kader van migratie, asiel en grenstoezichtsbeheer, met uitzondering van de verificatie van reisdocumenten. AI-systemen op het gebied van migratie, asiel en grenstoezichtsbeheer die onder deze verordening vallen, moeten in overeenstemming zijn met de desbetreffende procedurele eisen die zijn vastgelegd in Verordening (EG) nr. 810/2009 van het Europees Parlement en de Raad (32), Richtlijn 2013/32/EU van het Europees Parlement en de Raad (33) en ander toepasselijk Unierecht. Het gebruik van AI-systemen in het kader van migratie, asiel en grenstoezichtsbeheer mag in geen geval door de lidstaten of de instellingen, organen of instanties van de Unie worden gebruikt als middel om hun internationale verplichtingen uit hoofde van het VN-Verdrag betreffende de status van vluchtelingen, ondertekend te Genève op 28 juli 1951 en gewijzigd bij het Protocol van 31 januari 1967, te omzeilen. Evenmin mogen zij worden gebruikt om op enigerlei wijze inbreuk te maken op het beginsel van non-refoulement of om veilige en doeltreffende legale wegen naar het grondgebied van de Unie te ontzeggen, met inbegrip van het recht op internationale bescherming.
(60)
Sistemele de IA utilizate în domeniile migrației, azilului și gestionării controlului la frontiere afectează persoane care se află adesea într-o poziție deosebit de vulnerabilă și care depind de rezultatul acțiunilor autorităților publice competente. Acuratețea, caracterul nediscriminatoriu și transparența sistemelor de IA utilizate în aceste contexte sunt, prin urmare, deosebit de importante pentru a garanta respectarea drepturilor fundamentale ale persoanelor afectate, în special a drepturilor acestora la liberă circulație, nediscriminare, protecția vieții private și a datelor cu caracter personal, protecție internațională și bună administrare. Prin urmare, este oportun să fie clasificate ca prezentând un grad ridicat de risc, în măsura în care utilizarea lor este permisă în temeiul dreptului Uniunii și al dreptului intern relevant, sistemele de IA destinate a fi utilizate de către autoritățile publice competente ori în numele acestora sau de către instituțiile, organele, oficiile sau agențiile Uniunii care au atribuții în domeniile migrației, azilului și gestionării controlului la frontiere ca poligrafe și instrumente similare, pentru a evalua anumite riscuri prezentate de persoanele fizice care intră pe teritoriul unui stat membru sau care solicită viză sau azil, pentru a acorda asistență autorităților publice competente în ceea ce privește examinarea, inclusiv evaluarea conexă a fiabilității probelor, a cererilor de azil, de vize și de permise de ședere și a plângerilor aferente cu privire la obiectivul de stabilire a eligibilității persoanelor fizice care solicită un statut, în scopul detectării, al recunoașterii sau al identificării persoanelor fizice în contextul migrației, al azilului și al gestionării controlului la frontiere, cu excepția verificării documentelor de călătorie. Sistemele de IA din domeniul migrației, azilului și gestionării controlului la frontiere reglementate de prezentul regulament ar trebui să respecte cerințele procedurale relevante stabilite de Regulamentul (CE) nr. 810/2009 al Parlamentului European și al Consiliului (32), de Directiva 2013/32/UE a Parlamentului European și a Consiliului (33) și de alte dispoziții relevante din dreptul Uniunii. Statele membre sau instituțiile, organele, oficiile și agențiile Uniunii nu ar trebui în niciun caz să utilizeze sistemele de IA în domeniul migrației, azilului și gestionării controlului la frontiere ca mijloc de eludare a obligațiilor lor internaționale în temeiul Convenției ONU privind statutul refugiaților întocmită la Geneva la 28 iulie 1951, astfel cum a fost modificată prin Protocolul din 31 ianuarie 1967. De asemenea, respectivele sisteme de IA nu ar trebui să fie utilizate pentru a încălca în vreun fel principiul nereturnării sau pentru a refuza căi legale sigure și eficace de intrare pe teritoriul Uniunii, inclusiv dreptul la protecție internațională.
(61)
Bepaalde AI-systemen die bedoeld zijn voor de rechtsbedeling en democratische processen moeten als systemen met een hoog risico worden geclassificeerd gezien hun mogelijk aanzienlijke effecten op de democratie, de rechtsstaat, de individuele vrijheden en het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht. Om de risico’s van potentiële vertekeningen, fouten en ondoorzichtigheid aan te pakken, is het met name passend om AI-systemen met een hoog risico die bedoeld zijn om door of namens een gerechtelijke instantie te worden gebruikt voor de ondersteuning van gerechtelijke autoriteiten bij het onderzoeken en uitleggen van feiten en het recht en bij het toepassen van het recht op een concrete reeks feiten, als systemen met een hoog risico aan te merken. AI-systemen die bedoeld zijn om door organen voor alternatieve geschillenbeslechting voor die doeleinden te worden gebruikt, moeten ook als systemen met een hoog risico worden beschouwd indien de resultaten van de alternatieve geschillenbeslechtingsprocedure rechtsgevolgen hebben voor de partijen. Het gebruik van AI-instrumenten kan de beslissingsbevoegdheid van rechters of de onafhankelijkheid van de rechterlijke macht ondersteunen, maar mag deze niet vervangen: de uiteindelijke besluitvorming moet een door de mens aangestuurde activiteit blijven. De classificatie van AI-systemen als AI-systemen met een hoog risico mag echter geen AI-systemen betreffen die bedoeld zijn voor louter ondersteunende administratieve activiteiten die geen gevolgen hebben voor de daadwerkelijke rechtsbedeling in afzonderlijke zaken, zoals de anonimisering of pseudonimisering van rechterlijke beslissingen, documenten of data, de communicatie tussen personeelsleden en administratieve taken.
(61)
Anumite sisteme de IA destinate administrării justiției și proceselor democratice ar trebui să fie clasificate ca prezentând un grad ridicat de risc, având în vedere impactul potențial semnificativ al acestora asupra democrației, statului de drept și libertăților individuale, precum și asupra dreptului la o cale de atac efectivă și la un proces echitabil. În special, pentru a aborda potențialele riscuri de prejudecăți, erori și opacitate, este oportun să fie calificate drept sisteme cu grad ridicat de risc sistemele de IA destinate să fie utilizate de o autoritate judiciară sau în numele acesteia pentru a ajuta autoritățile judiciare să cerceteze și să interpreteze faptele și legea și să aplice legea unui set concret de fapte. Sistemele de IA destinate a fi utilizate de organismele de soluționare alternativă a litigiilor în aceste scopuri ar trebui, de asemenea, să fie considerate ca având un grad ridicat de risc atunci când rezultatele procedurilor de soluționare alternativă a litigiilor produc efecte juridice pentru părți. Utilizarea instrumentelor de IA poate sprijini puterea de decizie a judecătorilor sau independența sistemului judiciar, dar nu ar trebui să le înlocuiască: procesul decizional final trebuie să rămână o activitate umană. Clasificarea sistemelor de IA ca prezentând un grad ridicat de risc nu ar trebui, totuși, să se extindă la sistemele de IA destinate unor activități administrative pur auxiliare care nu afectează administrarea efectivă a justiției în cazuri individuale, cum ar fi anonimizarea sau pseudonimizarea hotărârilor judecătorești, a documentelor sau a datelor, comunicarea între membrii personalului, sarcinile administrative.
(62)
Onverminderd de regels van Verordening (EU) 2024/900 van het Europees Parlement en de Raad (34), en om de risico’s van ongepaste externe inmenging van buitenaf in het in artikel 39 van het Handvest verankerde stemrecht en van onevenredige gevolgen voor democratische processen, democratie en de rechtsstaat aan te pakken, moeten AI-systemen die bedoeld zijn om de uitslag van een verkiezing of referendum of het stemgedrag van natuurlijke personen wanneer zij hun stem uitbrengen bij verkiezingen of referenda te beïnvloeden, worden geclassificeerd als AI-systemen met een hoog risico, met uitzondering van AI-systemen waarvan de output niet rechtstreeks is gericht op natuurlijke personen, zoals instrumenten voor het organiseren, optimaliseren en structureren van politieke campagnes vanuit administratief en logistiek oogpunt.
(62)
Fără a aduce atingere normelor prevăzute în Regulamentul (UE) 2024/900 al Parlamentului European și al Consiliului (34) și pentru a aborda riscurile de ingerințe externe nejustificate în dreptul de vot consacrat la articolul 39 din cartă și de efecte adverse asupra democrației și a statului de drept, sistemele de IA destinate a fi utilizate pentru a influența rezultatul unor alegeri sau al unui referendum sau comportamentul de vot al persoanelor fizice în exercitarea votului lor în cadrul alegerilor sau al referendumurilor ar trebui să fie clasificate drept sisteme de IA cu grad ridicat de risc, cu excepția sistemelor de IA la ale căror rezultate persoanele fizice nu sunt expuse în mod direct, cum ar fi instrumentele utilizate pentru organizarea, optimizarea și structurarea campaniilor politice din punct de vedere administrativ și logistic.
(63)
Het feit dat een AI-systeem uit hoofde van deze verordening als een AI-systeem met een hoog risico is geclassificeerd, mag niet aldus worden uitgelegd dat het gebruik van het systeem rechtmatig is op grond van andere handelingen van het Unierecht of op grond van nationaal recht dat verenigbaar is met het Unierecht, zoals met betrekking tot de bescherming van de persoonsgegevens, het gebruik van leugendetectors en vergelijkbare instrumenten of andere systemen voor het bepalen van de gemoedstoestand van natuurlijke personen. Een dergelijk gebruik mag nog steeds uitsluitend plaatsvinden in overeenstemming met de toepasselijke eisen die voortvloeien uit het Handvest en de toepasselijke handelingen van secundair Unierecht en nationaal recht. Deze verordening mag niet aldus worden uitgelegd dat zij voorziet in de rechtsgrondslag voor de verwerking van persoonsgegevens, met inbegrip van bijzondere categorieën persoonsgegevens, waar van toepassing, tenzij in deze verordening uitdrukkelijk anders is bepaald.
(63)
Faptul că un sistem de IA este clasificat ca sistem de IA cu grad ridicat de risc în temeiul prezentului regulament nu ar trebui să fie interpretat ca indicând că utilizarea sistemului este legală în temeiul altor acte ale dreptului Uniunii sau al dreptului intern compatibil cu dreptul Uniunii, cum ar fi în ceea ce privește protecția datelor cu caracter personal, utilizarea poligrafelor și a instrumentelor similare sau a altor sisteme pentru detectarea stării emoționale a persoanelor fizice. Orice astfel de utilizare ar trebui să continue să aibă loc numai în conformitate cu cerințele aplicabile care decurg din cartă, precum și din legislația secundară aplicabilă a Uniunii și din dreptul intern aplicabil. Prezentul regulament nu ar trebui să fie înțeles ca oferind temeiul juridic pentru prelucrarea datelor cu caracter personal, inclusiv a categoriilor speciale de date cu caracter personal, după caz, cu excepția cazului în care se specifică altfel în cuprinsul prezentului regulament.
(64)
Om de risico’s van AI-systemen met een hoog risico die in de handel zijn gebracht of in gebruik zijn gesteld te beperken en om te zorgen voor een hoog niveau van betrouwbaarheid, moeten op AI-systemen met een hoog risico bepaalde dwingende eisen van toepassing zijn, rekening houdend met het beoogde doel en de context van het gebruik van het AI-systeem en in overeenstemming met het systeem voor risicobeheer dat door de aanbieder wordt vastgesteld. De maatregelen die de aanbieders met het oog op het voldoen aan de dwingende eisen van deze verordening hebben vastgesteld, moeten rekening gehouden met de algemeen erkende stand van de techniek op het gebied van AI, evenredig en doeltreffend zijn teneinde de doelstellingen van deze verordening te verwezenlijken. Op basis van het nieuwe wetgevingskader, zoals uiteengezet in de mededeling van de Commissie “De “Blauwe Gids” voor de uitvoering van de productvoorschriften van de EU 2022”, is de algemene regel dat meer dan een rechtshandeling van de harmonisatiewetgeving van de Unie van toepassing kan zijn op één product, aangezien een product alleen mag worden aangeboden of in gebruik worden gesteld wanneer het voldoet aan alle toepasselijke harmonisatiewetgeving van de Unie. De gevaren van AI-systemen die onder de eisen van deze verordening vallen, hebben betrekking op andere aspecten dan de bestaande harmonisatiewetgeving van de Unie en daarom zouden de eisen van deze verordening een aanvulling vormen op het bestaande corpus van de harmonisatiewetgeving van de Unie. Machines of medische hulpmiddelen die een AI-systeem bevatten, kunnen bijvoorbeeld risico’s inhouden die niet worden gedekt door de essentiële gezondheids- en veiligheidseisen van de toepasselijke geharmoniseerde wetgeving van de Unie, aangezien die sectorale wetgeving geen betrekking heeft op risico’s die specifiek zijn voor AI-systemen. Dit vereist een gezamenlijke en aanvullende toepassing van de verschillende wetgeving. Om consistentie te waarborgen en onnodige administratieve lasten en onnodige kosten te vermijden, moeten aanbieders van een product dat een of meer AI-systemen met een hoog risico bevat waarop de eisen van deze verordening en van de in een bijlage bij deze verordening vermelde harmonisatiewetgeving van de Unie op basis van het nieuwe wetgevingskader van toepassing zijn, flexibel zijn met betrekking tot operationele beslissingen over de wijze waarop ervoor kan worden gezorgd dat een product dat een of meer AI-systemen bevat, op optimale wijze voldoet aan alle toepasselijke eisen van die geharmoniseerde wetgeving van de Unie. Die flexibiliteit kan bijvoorbeeld inhouden dat de aanbieder besluit om een deel van de nodige test- en rapportageprocessen en de krachtens deze verordening te verstrekken informatie en documentatie op te nemen in de reeds bestaande documentatie en procedures die vereist zijn uit hoofde van bestaande harmonisatiewetgeving van de Unie die is gebaseerd is op het nieuwe wetgevingskader en in een bijlage bij deze verordening wordt vermeld. Dit mag op geen enkele wijze afbreuk doen aan de verplichting van de aanbieder om aan alle toepasselijke eisen te voldoen.
(64)
Pentru atenuarea riscurilor generate de sistemele de IA cu grad ridicat de risc introduse pe piață sau puse în funcțiune și pentru a asigura un nivel înalt de credibilitate, ar trebui să se aplice anumite cerințe obligatorii în cazul sistemelor de IA cu grad ridicat de risc, ținând seama de scopul preconizat și de contextul utilizării sistemului de IA și în conformitate cu sistemul de gestionare a riscurilor care urmează să fie instituit de furnizor. Măsurile adoptate de furnizori pentru a se conforma cerințelor obligatorii din prezentul regulament ar trebui să țină seama de stadiul general recunoscut al tehnologiei în materie de IA, să fie proporționale și eficace pentru a îndeplini obiectivele prezentului regulament. Pe baza noului cadru legislativ, astfel cum s-a clarificat în Comunicarea Comisiei intitulată „«Ghidul albastru» din 2022 referitor la punerea în aplicare a normelor UE privind produsele”, regula generală este că cel puțin un act juridic din legislația de armonizare a Uniunii poate fi aplicabil unui singur produs, deoarece punerea la dispoziție sau punerea în funcțiune poate avea loc numai atunci când produsul respectă întreaga legislație de armonizare a Uniunii aplicabilă. Pericolele sistemelor de IA care fac obiectul cerințelor prezentului regulament se referă la aspecte diferite față de legislația existentă de armonizare a Uniunii și, prin urmare, cerințele prezentului regulament ar completa corpul existent al legislației de armonizare a Uniunii. De exemplu, mașinile sau dispozitivele medicale care încorporează un sistem de IA ar putea prezenta riscuri care nu sunt abordate de cerințele esențiale de sănătate și siguranță prevăzute în legislația armonizată relevantă a Uniunii, deoarece legislația sectorială respectivă nu abordează riscurile specifice sistemelor de IA. Acest lucru necesită o aplicare simultană și complementară a diferitelor acte legislative. Pentru a se asigura coerența și a se evita sarcinile administrative și costurile inutile, furnizorii unui produs care conține unul sau mai multe sisteme de IA cu grad ridicat de risc, cărora li se aplică cerințele prezentului regulament și ale legislației de armonizare a Uniunii bazate pe noul cadru legislativ și care figurează într-o anexă la prezentul regulament, ar trebui să fie flexibili în ceea ce privește deciziile operaționale cu privire la modul optim de asigurare a conformității unui produs care conține unul sau mai multe sisteme de IA cu toate cerințele aplicabile din respectiva legislație armonizată a Uniunii. Această flexibilitate ar putea însemna, de exemplu, o decizie a furnizorului de a integra o parte a proceselor de testare și raportare necesare, informațiile și documentația impuse în temeiul prezentului regulament în documentația și în procedurile deja existente impuse în temeiul legislației de armonizare existente a Uniunii bazate pe noul cadru legislativ și care figurează într-o anexă la prezentul regulament. Acest lucru nu ar trebui să submineze în niciun fel obligația furnizorului de a respecta toate cerințele aplicabile.
(65)
Het systeem voor risicobeheer moet bestaan uit een tijdens de gehele levensduur van een AI-systeem met een hoog risico doorlopend en gepland iteratief proces. Dit proces moet gericht zijn op het vaststellen en beperken van de relevante risico’s van AI-systemen voor de gezondheid, de veiligheid en de grondrechten. Het systeem voor risicobeheer moet periodiek worden geëvalueerd en geactualiseerd om de blijvende doeltreffendheid ervan te waarborgen, alsook de motivering en de documentatie van eventuele significante besluiten en maatregelen die op grond van deze verordening zijn genomen. Dit proces moet ervoor zorgen dat de aanbieder de risico’s of negatieve effecten vaststelt en risicobeperkende maatregelen uitvoert voor de bekende en de redelijkerwijs te voorziene risico’s van AI-systemen voor de gezondheid, veiligheid en grondrechten in het licht van het beoogde doel ervan en redelijkerwijs te voorzien misbruik, met inbegrip van de mogelijke risico’s die voortvloeien uit de wisselwerking tussen het AI-systeem en de omgeving waarin het werkt. Het systeem voor risicobeheer moet de passendste risicobeheersmaatregelen vaststellen in het licht van de stand van de techniek op het gebied van AI. Bij het vaststellen van de passendste risicobeheersmaatregelen moet de aanbieder de gemaakte keuzes documenteren en toelichten en, in voorkomend geval, deskundigen en externe belanghebbenden erbij betrekken. Bij het vaststellen van het redelijkerwijs te voorzien misbruik van AI-systemen met een hoog risico moet de aanbieder aandacht hebben voor het gebruik van AI-systemen waarvan, hoewel zij niet rechtstreeks onder het beoogde doel vallen en niet in de gebruiksinstructies worden vermeld, redelijkerwijs mag worden verwacht dat zij kunnen voortvloeien uit gemakkelijk voorspelbaar menselijk gedrag in de context van de specifieke kenmerken en het gebruik van een bepaald AI-systeem. Eventuele bekende of te voorziene omstandigheden in verband met het gebruik van het AI-systeem met een hoog risico in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik die kunnen leiden tot risico’s voor de gezondheid en veiligheid of de grondrechten, moeten worden opgenomen in de gebruiksinstructies die de aanbieder ter beschikking heeft gesteld. Dit moet ervoor zorgen dat de gebruiksverantwoordelijke hiervan op de hoogte is en hiermee rekening houdt bij het gebruik van het AI-systeem met een hoog risico. Het vaststellen en uitvoeren van risicobeperkende maatregelen voor te voorzien misbruik uit hoofde van deze verordening mag van de aanbieder geen voor het AI-systeem met een hoog risico specifieke aanvullende training vergen om te voorzien misbruik aan te pakken. De aanbieders worden echter aangemoedigd dergelijke aanvullende trainingsmaatregelen te overwegen om redelijkerwijs te voorzien misbruik waar nodig en passend te beperken.
(65)
Sistemul de gestionare a riscurilor ar trebui să constea într-un proces iterativ continuu care este preconizat și derulat pe parcursul întregului ciclu de viață al unui sistem de IA cu grad ridicat de risc. Respectivul proces ar trebui să aibă drept scop identificarea și atenuarea riscurilor relevante reprezentate de sistemele de IA pentru sănătate, siguranță și drepturile fundamentale. Sistemul de gestionare a riscurilor ar trebui să fie evaluat și actualizat periodic pentru a se asigura eficacitatea sa continuă, precum și justificarea și documentarea oricăror decizii și acțiuni semnificative luate în temeiul prezentului regulament. Acest proces ar trebui să garanteze faptul că furnizorul identifică riscurile sau efectele negative și pune în aplicare măsuri de atenuare pentru riscurile cunoscute și previzibile în mod rezonabil reprezentate de sistemele de IA pentru sănătate, siguranță și drepturile fundamentale, având în vedere scopul preconizat al acestora și utilizarea necorespunzătoare previzibilă în mod rezonabil ale acestor sisteme, inclusiv posibilele riscuri care decurg din interacțiunea dintre sistemele de IA și mediul în care funcționează. Sistemul de gestionare a riscurilor ar trebui să adopte cele mai adecvate măsuri de gestionare a riscurilor, având în vedere stadiul cel mai avansat al tehnologiei în domeniul IA. Atunci când identifică cele mai adecvate măsuri de gestionare a riscurilor, furnizorul ar trebui să documenteze și să explice alegerile făcute și, după caz, să implice experți și părți interesate externe. Atunci când identifică utilizarea necorespunzătoare previzibilă în mod rezonabil a sistemelor de IA cu grad ridicat de risc, furnizorul ar trebui să acopere utilizările sistemelor de IA în legătură cu care se poate aștepta în mod rezonabil, să rezulte dintr-un comportament uman ușor previzibil în contextul caracteristicilor specifice și al utilizării unui anumit sistem de IA, deși utilizările respective nu sunt acoperite în mod direct de scopul preconizat și nu sunt prevăzute în instrucțiunile de utilizare. Orice circumstanțe cunoscute sau previzibile legate de utilizarea sistemului de IA cu grad ridicat de risc în conformitate cu scopul său preconizat sau în condiții de utilizare necorespunzătoare previzibilă în mod rezonabil, care pot conduce la riscuri pentru sănătate și siguranță sau pentru drepturile fundamentale, ar trebui să fie incluse în instrucțiunile de utilizare care sunt furnizate de furnizor. Scopul este de a se asigura că implementatorul le cunoaște și le ia în considerare atunci când utilizează sistemul de IA cu grad ridicat de risc. Identificarea și punerea în aplicare a măsurilor de atenuare a riscurilor în caz de utilizare necorespunzătoare previzibilă în temeiul prezentului regulament nu ar trebui să necesite din partea furnizorului antrenare suplimentară specifică pentru sistemul de IA cu grad ridicat de risc pentru a aborda utilizarea necorespunzătoare previzibilă. Cu toate acestea, furnizorii sunt încurajați să ia în considerare astfel de măsuri suplimentare de antrenare pentru a atenua utilizările necorespunzătoare previzibile în mod rezonabil, după cum este necesar și adecvat.
(66)
Op AI-systemen met een hoog risico moeten eisen van toepassing zijn met betrekking tot risicobeheer, de kwaliteit en relevantie van de gebruikte datasets, technische documentatie en registratie, transparantie en het verstrekken van informatie aan gebruiksverantwoordelijken, menselijk toezicht en robuustheid, nauwkeurigheid en cyberbeveiliging. Deze eisen zijn noodzakelijk om de risico’s voor de gezondheid, veiligheid en grondrechten te verminderen. Aangezien er geen andere maatregelen die de handel in mindere mate beperken, redelijkerwijs beschikbaar zijn, vormen die eisen geen ongerechtvaardigde beperkingen van de handel.
(66)
Cerințele ar trebui să se aplice sistemelor de IA cu grad ridicat de risc în ceea ce privește gestionarea riscurilor, calitatea și relevanța seturilor de date utilizate, documentația tehnică și păstrarea evidențelor, transparența și furnizarea de informații către implementatori, supravegherea umană, robustețea, acuratețea și securitatea cibernetică. Aceste cerințe sunt necesare pentru a atenua în mod eficace riscurile pentru sănătate, siguranță și drepturile fundamentale. Nefiind disponibile în mod rezonabil alte măsuri mai puțin restrictive privind comerțul, respectivele restricții în calea comerțului nu sunt astfel nejustificate.
(67)
Kwalitatief hoogwaardige data en de toegang hiertoe is van wezenlijk belang voor het bieden van structuur en het waarborgen van de prestaties van veel AI-systemen, met name wanneer technieken worden gebruikt waarbij modellen worden getraind, om ervoor te zorgen dat AI-systemen met een hoog risico zoals beoogd en veilig werken en geen bron van discriminatie worden die uit hoofde van het Unierecht verboden is. Kwalitatief hoogwaardige datasets voor training, validatie en tests vereisen de uitvoering van passende praktijken voor datagovernance en -beheer. Datasets voor training, validatie en tests, met inbegrip van het labelen ervan, moeten relevant, voldoende representatief, en zoveel mogelijk foutenvrij en volledig met het oog op het beoogde doel van het systeem zijn. Om de naleving van het Unierecht inzake gegevensbescherming, zoals Verordening (EU) 2016/679, te vergemakkelijken, moeten praktijken voor datagovernance en beheer, in het geval van persoonsgegevens, transparantie met betrekking tot het oorspronkelijke doel van de dataverzameling omvatten. De datasets moeten bovendien de passende statistische kenmerken hebben, waaronder met betrekking tot de personen of groepen personen in verband met wie de AI-systemen met een hoog risico moeten worden gebruikt, met bijzondere aandacht voor het tegengaan van mogelijke vertekeningen in de datasets, die waarschijnlijk gevolgen hebben voor de gezondheid en de veiligheid van personen, nadelige effecten hebben op de grondrechten, of leiden tot discriminatie die op grond van het Unierecht verboden is, vooral wanneer data-outputs invloed hebben op inputs voor toekomstige operaties (“feedback loops”). Vertekeningen kunnen bijvoorbeeld inherent zijn aan de onderliggende datasets, met name wanneer historische gegevens worden gebruikt of gegenereerd wanneer de systemen onder reële omstandigheden worden toegepast. De resultaten die door AI-systemen worden aangeboden, kunnen worden beïnvloed door dergelijke inherente vertekeningen, die vaak geleidelijk groter worden en daarmee bestaande discriminatie bestendigen en verergeren, met name voor personen die tot bepaalde kwetsbare groepen behoren, waaronder raciale of etnische groepen. De eis dat de datasets zoveel mogelijk volledig en foutenvrij moeten zijn, mag geen invloed hebben op het gebruik van privacybeschermende technieken in het kader van de ontwikkeling en het testen van AI-systemen. Ten aanzien van datasets moet, voor zover vereist gezien het beoogde doel hiervan, met name rekening worden gehouden met de kenmerken, eigenschappen of elementen die specifiek zijn voor een bepaalde geografische, contextuele, gedragsgerelateerde of functionele omgeving waarin het AI-systeem moet worden gebruikt. Aan de eisen inzake databeheer kan worden voldaan door een beroep te doen op derden die gecertificeerde nalevingsdiensten aanbieden, waaronder verificatie van datagovernance, integriteit van datasets, en datatraining, -validatie en -tests, voor zover de naleving van de datavereisten van deze verordening wordt gewaarborgd.
(67)
Datele de înaltă calitate și accesul la date de înaltă calitate joacă un rol vital în ceea ce privește furnizarea structurii și asigurarea performanței multor sisteme de IA, în special atunci când se utilizează tehnici care implică antrenarea modelelor, pentru a se asigura că sistemul de IA cu grad ridicat de risc funcționează astfel cum s-a prevăzut și în condiții de siguranță și nu devine o sursă de discriminare, interzisă de dreptul Uniunii. Seturile de date de înaltă calitate de antrenare, de validare și de testare necesită punerea în aplicare a unor practici adecvate de guvernanță și gestionare a datelor. Seturile de date de antrenare, de validare și de testare, inclusiv etichetele, ar trebui să fie relevante, suficient de reprezentative și, pe cât posibil, fără erori și complete, având în vedere scopul preconizat al sistemului. Pentru a facilita respectarea dreptului Uniunii în materie de protecție a datelor, cum ar fi Regulamentul (UE) 2016/679, practicile de guvernanță și gestionare a datelor ar trebui să includă, în cazul datelor cu caracter personal, transparența cu privire la scopul inițial al colectării datelor. Seturile de date ar trebui să aibă, de asemenea, proprietățile statistice adecvate, inclusiv în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc, acordând o atenție deosebită atenuării posibilelor prejudecăți din seturile de date, care ar putea afecta sănătatea și siguranța persoanelor, ar putea avea un impact negativ asupra drepturilor fundamentale sau ar putea conduce la discriminare interzisă în temeiul dreptului Uniunii, în special în cazul în care datele de ieșire influențează datele de intrare pentru operațiunile viitoare („bucle de feedback”). Prejudecățile pot fi, de exemplu, inerente seturilor de date subiacente, mai ales când sunt utilizate date istorice, sau pot fi generate în timpul implementării în condiții reale a sistemelor. Rezultatele produse de sistemele de IA ar putea fi influențate de aceste prejudecăți inerente care tind să crească treptat și astfel să perpetueze și să amplifice discriminarea existentă, în special pentru persoanele care aparțin anumitor grupuri vulnerabile, inclusiv grupuri rasiale sau etnice. Cerința ca seturile de date să fie, pe cât posibil, complete și fără erori nu ar trebui să afecteze utilizarea tehnicilor de protejare a vieții private în contextul dezvoltării și testării sistemelor de IA. În special, seturile de date ar trebui să țină seama, în măsura în care acest lucru este necesar având în vedere scopul lor preconizat, de particularitățile, caracteristicile sau elementele care sunt specifice cadrului geografic, contextual, comportamental sau funcțional în care este destinat să fie utilizat sistemul de IA. Cerințele legate de guvernanța datelor pot fi respectate prin recurgerea la părți terțe care oferă servicii de conformitate certificate, inclusiv verificarea guvernanței datelor, a integrității seturilor de date și a practicilor de antrenare, validare și testare a datelor, în măsura în care este asigurată respectarea cerințelor în materie de date din prezentul regulament.
(68)
Voor de ontwikkeling en beoordeling van AI-systemen met een hoog risico moeten bepaalde actoren, zoals aanbieders, aangemelde instanties en andere relevante entiteiten, zoals Europese digitale-innovatiehubs, test- en experimenteerfaciliteiten en onderzoekers, toegang hebben tot kwalitatief hoogwaardige datasets op de gebieden waarop deze actoren activiteiten verrichten die verband houden met deze verordening en hiervan gebruik kunnen maken. Door de Commissie vastgestelde gemeenschappelijke Europese gegevensruimten en de vergemakkelijking van de gegevensuitwisseling tussen ondernemingen en de overheid in het algemeen belang zullen erg belangrijk zijn voor een betrouwbare, toerekenbare en niet-discriminerende toegang tot kwalitatief hoogwaardige data voor het trainen, valideren en testen van AI-systemen. Op het gebied van gezondheid zal de Europese ruimte voor gezondheidsgegevens bijvoorbeeld de niet-discriminerende toegang tot gezondheidsgegevens en de training van AI-algoritmen aan de hand van deze datasets vergemakkelijken op een wijze die de privacy waarborgt en die veilig, tijdig, transparant en betrouwbaar is, met een passend institutioneel beheer. Relevante bevoegde autoriteiten, waaronder sectorale autoriteiten, die de toegang tot data verlenen of ondersteunen, kunnen ook steun verlenen voor het verstrekken van kwalitatief hoogwaardige data voor het trainen, valideren en testen van AI-systemen.
(68)
Pentru dezvoltarea și evaluarea sistemelor de IA cu grad ridicat de risc, anumiți actori, cum ar fi furnizorii, organismele notificate și alte entități relevante, cum ar fi centrele europene de inovare digitală, unitățile de testare și experimentare și cercetătorii, ar trebui să poată accesa și utiliza seturi de date de înaltă calitate în domeniile de activitate ale actorilor respectivi care sunt legate de prezentul regulament. Spațiile europene comune ale datelor instituite de Comisie și facilitarea schimbului de date între întreprinderi și cu administrațiile publice în interes public vor fi esențiale pentru a oferi un acces de încredere, responsabil și nediscriminatoriu la date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA. De exemplu, în domeniul sănătății, spațiul european al datelor privind sănătatea va facilita accesul nediscriminatoriu la datele privind sănătatea și antrenarea algoritmilor IA cu aceste seturi de date, într-un mod care protejează viața privată, sigur, prompt, transparent și fiabil și cu o guvernanță instituțională adecvată. Autoritățile competente relevante, inclusiv cele sectoriale, care furnizează sau sprijină accesul la date pot sprijini, de asemenea, furnizarea de date de înaltă calitate pentru antrenarea, validarea și testarea sistemelor de IA.
(69)
Het recht op privacy en bescherming van persoonsgegevens moet gedurende de hele levenscyclus van het AI-systeem worden gewaarborgd. In dit verband zijn bij de verwerking van persoonsgegevens de beginselen van minimale gegevensverwerking en van gegevensbescherming door ontwerp en door standaardinstellingen, zoals vastgelegd in het Unierecht inzake gegevensbescherming, van toepassing. De maatregelen die aanbieders nemen om te zorgen voor de naleving van die beginselen, moeten niet alleen anonimisering en versleuteling omvatten, maar ook het gebruik van technologie die de toepassing van algoritmen op gegevens en de training van AI-systemen mogelijk maakt zonder de uitwisseling van de ruwe of gestructureerde gegevens zelf tussen partijen of het kopiëren daarvan, onverminderd de eisen inzake datagovernance waarin deze verordening voorziet.
(69)
Dreptul la viața privată și la protecția datelor cu caracter personal trebuie să fie garantat pe parcursul întregului ciclu de viață al sistemului de IA. În acest sens, principiile reducerii la minimum a datelor și protecției datelor începând cu momentul conceperii și în mod implicit, astfel cum sunt prevăzute în dreptul Uniunii privind protecția datelor, sunt aplicabile atunci când sunt prelucrate date cu caracter personal. Măsurile luate de furnizori pentru a asigura respectarea principiilor respective pot include nu numai anonimizarea și criptarea, ci și folosirea unei tehnologii care permite să se aplice algoritmi datelor și antrenarea sistemelor de IA, fără ca aceste date să fie transmise între părți și fără ca înseși datele primare sau datele structurate să fie copiate, fără a aduce atingere cerințelor privind guvernanța datelor prevăzute în prezentul regulament.
(70)
Om het recht van anderen te beschermen tegen discriminatie die kan voortvloeien uit de vooringenomenheid (bias) in AI-systemen, moeten aanbieders, bij wijze van uitzondering, voor zover dit strikt noodzakelijk is om de opsporing en correctie van vertekeningen te waarborgen in verband met de AI-systemen met een hoog risico, mits passende waarborgen worden geboden voor de grondrechten en fundamentele vrijheden van natuurlijke personen en na toepassing van alle toepasselijke voorwaarden die in deze verordening, alsmede in de Verordeningen (EU) 2016/679 en (EU) 2018/1725 en Richtlijn (EU) 2016/680 zijn vastgelegd, ook bijzondere categorieën persoonsgegevens kunnen verwerken wanneer sprake is van een zwaarwegend algemeen belang in de zin van artikel 9, lid 2, punt g), van Verordening (EU) 2016/679 en artikel 10, lid 2, punt g), van Verordening (EU) 2018/1725.
(70)
Pentru a proteja dreptul altora împotriva discriminării care ar putea rezulta din prejudecățile inerente sistemelor de IA, furnizorii ar trebui să poată să prelucreze și categorii speciale de date cu caracter personal, ca o chestiune de interes public major în înțelesul articolului 9 alineatul (2) litera (g) din Regulamentul (UE) 2016/679 și al articolului 10 alineatul (2) litera (g) din Regulamentul (UE) 2018/1725, în mod excepțional, în măsura în care este strict necesar în scopul asigurării detectării și corectării prejudecăților în legătură cu sistemele de IA cu grad ridicat de risc, sub rezerva unor garanții adecvate pentru drepturile și libertățile fundamentale ale persoanelor fizice și în urma aplicării tuturor condițiilor prevăzute în temeiul prezentului regulament în plus față de condițiile prevăzute în Regulamentele (UE) 2016/679 și (UE) 2018/1725 și în Directiva (UE) 2016/680.
(71)
Begrijpelijke informatie over de manier waarop AI-systemen met een hoog risico zijn ontwikkeld en hoe zij gedurende hun levensduur presteren, is essentieel om de traceerbaarheid van die systemen mogelijk te maken, om de overeenstemming met de eisen van deze verordening te controleren, en om de monitoring van de werking en de monitoring na het in handel brengen mogelijk te maken. Dit vereist de registratie en de beschikbaarheid van technische documentatie die de noodzakelijke data bevat om de overeenstemming van het AI-systeem met de desbetreffende eisen te beoordelen en de monitoring na het in handel brengen te vergemakkelijken. Dergelijke informatie moet de algemene kenmerken, mogelijkheden en beperkingen van het systeem omvatten, evenals algoritmen, data en gebruikte processen voor het trainen, testen en valideren, alsook documentatie met betrekking tot het desbetreffende systeem voor risicobeheer, en moet op heldere en begrijpelijke wijze zijn gesteld. De technische documentatie moet gedurende de levensduur van het AI-systeem op gepaste wijze actueel worden gehouden. Voorts moeten AI-systemen met een hoog risico dusdanig technisch zijn vormgegeven dat gebeurtenissen gedurende de levensduur van het systeem, automatisch worden geregistreerd door middel van “logs”.
(71)
Deținerea de informații ușor de înțeles cu privire la modul în care au fost dezvoltate sistemele de IA cu grad ridicat de risc și la modul în care acestea funcționează pe toată durata lor de viață este esențială pentru a permite trasabilitatea sistemelor respective, pentru a verifica conformitatea cu cerințele prevăzute în prezentul regulament, precum și pentru monitorizarea funcționării lor și pentru monitorizarea ulterioară introducerii pe piață. Acest lucru presupune păstrarea evidențelor și disponibilitatea unei documentații tehnice care să conțină informațiile necesare pentru a evalua conformitatea sistemului de IA cu cerințele relevante și a facilita monitorizarea ulterioară introducerii pe piață. Aceste informații ar trebui să includă caracteristicile generale, capabilitățile și limitările sistemului, algoritmii, datele, procesele de antrenare, testare și validare utilizate, precum și documentația privind sistemul relevant de gestionare a riscurilor și ar trebui să fie redactate într-o formă clară și cuprinzătoare. Documentația tehnică ar trebui să fie actualizată permanent și în mod adecvat pe toată durata de viață a sistemului de IA. În plus, sistemele de IA cu grad ridicat de risc ar trebui să permită din punct de vedere tehnic înregistrarea automată a evenimentelor, prin intermediul unor fișiere de jurnalizare, de-a lungul duratei de viață a sistemului.
(72)
Om problemen in verband met de ondoorzichtigheid en complexiteit van bepaalde AI-systemen aan te pakken en gebruiksverantwoordelijken te helpen hun verplichtingen uit hoofde van deze verordening na te komen, moet transparantie vereist zijn voor AI-systemen met een hoog risico voordat zij in de handel worden gebracht of in gebruik worden gesteld. AI-systemen met een hoog risico moeten zodanig zijn ontworpen dat gebruiksverantwoordelijken kunnen begrijpen hoe het AI-systeem werkt, de werking ervan kunnen evalueren en de sterke punten en beperkingen ervan kunnen begrijpen. AI-systemen met een hoog risico moeten vergezeld gaan van relevante documentatie in de vorm van gebruiksaanwijzingen. Deze informatie moet de kenmerken, mogelijkheden en beperkingen van de prestaties van het AI-systeem bevatten. Die elementen zouden informatie omvatten over mogelijke bekende en te voorziene omstandigheden in verband met het gebruik van het AI-systeem met een hoog risico, waaronder handelingen van de gebruiksverantwoordelijke die van invloed kunnen zijn op het gedrag en de prestaties van het systeem, op grond waarvan het AI-systeem risico’s kan veroorzaken voor de gezondheid, veiligheid en grondrechten, over de wijzigingen die vooraf zijn bepaald en beoordeeld met het oog op conformiteit door de aanbieder, en over de relevante maatregelen voor menselijk toezicht, waaronder de maatregelen om de interpretatie van de output van het AI-systeem door de gebruiksverantwoordelijken te vergemakkelijken. Transparantie, met inbegrip van de bijbehorende gebruiksaanwijzingen, moet gebruiksverantwoordelijken helpen bij het gebruik van het systeem, en hen helpen onderbouwde beslissingen te nemen. De gebruiksverantwoordelijken moeten onder meer beter in staat zijn om het juiste systeem te kiezen dat zij voornemens zijn te gebruiken in het licht van de verplichtingen die op hen van toepassing zijn, om te worden geïnformeerd over het beoogde en uitgesloten gebruik, en om het AI-systeem correct en op passende wijze te gebruiken. Om de leesbaarheid en toegankelijkheid van de informatie in de gebruiksaanwijzingen te verbeteren, moeten, waar passend, illustratieve voorbeelden worden opgenomen, bijvoorbeeld over de beperkingen en het beoogde en uitgesloten gebruik van het AI-systeem. De aanbieders moeten ervoor zorgen dat alle documentatie, met inbegrip van de gebruiksaanwijzingen, zinvolle, volledige, toegankelijke en begrijpelijke informatie bevat, die rekening houdt met de behoeften en de te verwachten kennis van de beoogde gebruiksverantwoordelijken. De gebruiksaanwijzingen moeten beschikbaar worden gesteld in een taal die de beoogde gebruiksverantwoordelijken gemakkelijk kunnen begrijpen, welke de betrokken lidstaat bepaalt.
(72)
Pentru a răspunde preocupărilor legate de opacitatea și complexitatea anumitor sisteme de IA și pentru a-i ajuta pe implementatori să își îndeplinească obligațiile care le revin în temeiul prezentului regulament, ar trebui să fie impusă transparența pentru sistemele de IA cu grad ridicat de risc înainte ca acestea să fie introduse pe piață sau puse în funcțiune. Sistemele de IA cu grad ridicat de risc ar trebui să fie proiectate astfel încât să le permită implementatorilor să înțeleagă modul în care funcționează sistemul de IA, să îi evalueze funcționalitatea și să îi înțeleagă punctele forte și limitările. Sistemele de IA cu grad ridicat de risc ar trebui să fie însoțite de informații adecvate sub formă de instrucțiuni de utilizare. Astfel de informații ar trebui să includă caracteristicile, capabilitățile și limitările performanței sistemului de IA. Acestea ar acoperi informații privind posibile circumstanțe cunoscute și previzibile legate de utilizarea sistemului de IA cu grad ridicat de risc, inclusiv acțiuni ale implementatorului care pot influența comportamentul și performanța sistemului, din cauza cărora sistemul de IA poate genera riscuri pentru sănătate, siguranță și drepturile fundamentale, privind modificările care au fost prestabilite și evaluate din punctul de vedere al conformității de către furnizor și privind măsurile relevante de supraveghere umană, inclusiv măsurile de facilitare a interpretării rezultatelor sistemului de IA de către implementatori. Transparența, inclusiv instrucțiunile de utilizare însoțitoare, ar trebui să ajute implementatorii să utilizeze sistemul și să îi sprijine să ia decizii în cunoștință de cauză. Printre altele, implementatorii ar trebui să fie mai în măsură să aleagă corect sistemul pe care intenționează să îl utilizeze, având în vedere obligațiile care le sunt aplicabile, să fie informați despre utilizările preconizate și interzise și să utilizeze sistemul de IA în mod corect și adecvat. Pentru a spori lizibilitatea și accesibilitatea informațiilor incluse în instrucțiunile de utilizare, ar trebui să fie incluse, după caz, exemple ilustrative, de exemplu privind limitările și utilizările preconizate și interzise ale sistemului de IA. Furnizorii ar trebui să se asigure că toată documentația, inclusiv instrucțiunile de utilizare, conține informații semnificative, cuprinzătoare, accesibile și ușor de înțeles, ținând seama de nevoile și cunoștințele previzibile ale implementatorilor vizați. Instrucțiunile de utilizare ar trebui să fie puse la dispoziție într-o limbă ușor de înțeles de către implementatorii vizați, astfel cum se stabilește de statul membru în cauză.
(73)
AI-systemen met een hoog risico moeten op zodanige wijze worden ontworpen en ontwikkeld dat natuurlijke personen toezicht kunnen houden op de werking ervan en dat zij zoals beoogd worden gebruikt, en dat de gevolgen ervan gedurende de levenscyclus van het systeem worden aangepakt. Daartoe moeten passende maatregelen voor menselijk toezicht worden bepaald door de aanbieder van het systeem voordat het in de handel wordt gebracht of in gebruik wordt gesteld. Dergelijke maatregelen moeten, waar passend, met name waarborgen dat voor het systeem ingebouwde operationele beperkingen gelden die niet door het systeem zelf kunnen worden omzeild, dat het systeem reageert op de menselijke operator en dat de natuurlijke personen aan wie de taak van het menselijk toezicht is toegewezen, beschikken over de noodzakelijke competenties, opleiding en autoriteit om deze taak uit te voeren. Het is in voorkomend geval ook van essentieel belang dat AI-systemen met een hoog risico mechanismen bevatten om een natuurlijke persoon aan wie de taak van het menselijk toezicht is toegewezen, te begeleiden en te informeren zodat deze persoon geïnformeerd kan beslissen of, wanneer en hoe moet worden ingegrepen om negatieve gevolgen of risico’s te voorkomen, of om het systeem stop te zetten als het niet naar behoren functioneert. Gezien de aanzienlijke gevolgen voor personen in geval van een onjuiste match door bepaalde systemen voor biometrische identificatie, is het passend te voorzien in een voorschrift voor verscherpt menselijk toezicht voor die systemen, zodat er door de gebruiksverantwoordelijke geen maatregelen of beslissingen kunnen worden genomen op basis van de identificatie door het systeem, tenzij deze identificatie door ten minste twee natuurlijke personen afzonderlijk is geverifieerd en bevestigd. Deze personen kunnen afkomstig zijn van een of meer entiteiten en deze functie kan worden vervuld door de persoon die het systeem exploiteert of gebruikt. Deze eis mag geen onnodige lasten of vertragingen met zich meebrengen en het kan volstaan dat de afzonderlijke verificaties door de verschillende personen automatisch worden geregistreerd in de logbestanden die door het systeem worden gegenereerd. Gezien de specifieke kenmerken van rechtshandhaving, migratie, grenstoezicht en asiel, mag deze eis niet van toepassing zijn wanneer het Unierecht of het nationale recht de toepassing van dat vereiste onevenredig acht.
(73)
Sistemele de IA cu grad ridicat de risc ar trebui să fie concepute și dezvoltate astfel încât persoanele fizice să poată supraveghea funcționarea lor și să se poată asigura că ele sunt utilizate conform destinației lor și că impactul lor este abordat pe parcursul întregului ciclu de viață al sistemului. În acest scop, furnizorul sistemului ar trebui să identifice măsuri adecvate de supraveghere umană înainte de introducerea sa pe piață sau de punerea sa în funcțiune. În special, după caz, astfel de măsuri ar trebui să garanteze că sistemul este supus unor constrângeri operaționale integrate care nu pot fi dezactivate de sistem și care sunt receptive la operatorul uman și că persoanele fizice cărora le-a fost încredințată supravegherea umană au competența, pregătirea și autoritatea necesare pentru îndeplinirea acestui rol. De asemenea, este esențial, după caz, să se asigure faptul că sistemele de IA cu grad ridicat de risc includ mecanisme de ghidare și informare a unei persoane fizice căreia i-a fost încredințată supravegherea umană pentru a lua decizii în cunoștință de cauză pentru a stabili dacă, când și cum să intervină pentru a evita consecințele negative sau riscurile sau pentru a opri sistemul dacă nu funcționează astfel cum s-a prevăzut. Având în vedere consecințele semnificative pentru persoane în cazul unei concordanțe incorecte generate de anumite sisteme de identificare biometrică, este oportun să se prevadă o cerință de supraveghere umană mai strictă pentru sistemele respective, astfel încât implementatorul să nu poată lua nicio măsură sau decizie pe baza identificării rezultate din sistem, decât dacă acest lucru a fost verificat și confirmat separat de cel puțin două persoane fizice. Aceste persoane ar putea proveni de la una sau mai multe entități și ar putea include persoana care operează sau utilizează sistemul. Această cerință nu ar trebui să reprezinte o povară inutilă sau să genereze întârzieri inutile și ar putea fi suficient ca verificările separate efectuate de diferite persoane să fie înregistrate automat în fișierele de jurnalizare generate de sistem. Având în vedere particularitățile din domeniile aplicării legii, migrației, controlului la frontiere și azilului, această cerință nu ar trebui să se aplice în cazul în care dreptul Uniunii sau dreptul intern consideră că aplicarea cerinței respective este disproporționată.
(74)
AI-systemen met een hoog risico moeten gedurende hun levenscyclus consistent presteren en een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging behalen in het licht van het beoogde doel ervan en overeenstemming met de algemeen erkende stand van de techniek. De Commissie en relevante organisaties en belanghebbenden worden aangemoedigd om terdege rekening te houden met de beperking van risico’s en de negatieve gevolgen van het AI-systeem. Het verwachte prestatieniveau moet in de bijbehorende gebruiksaanwijzingen worden vermeld. Aanbieders wordt verzocht die informatie aan de gebruiksverantwoordelijken mee te delen op een manier die duidelijk en gemakkelijk te begrijpen is en die geen misleidende opmerkingen bevat of ruimte biedt voor misverstanden. Het Unierecht inzake wettelijke metrologie, waaronder de Richtlijnen 2014/31/EU (35) en 2014/32/EU (36) van het Europees Parlement en de Raad, heeft tot doel de nauwkeurigheid van metingen te waarborgen en de transparantie en eerlijkheid van handelstransacties te bevorderen. In dat verband moet de Commissie, in samenwerking met relevante belanghebbenden en organisaties, zoals metrologie- en benchmarkingautoriteiten, waar passend, de ontwikkeling van benchmarks en meetmethoden voor AI-systemen aanmoedigen. Daarbij moet de Commissie nota nemen en samenwerken met internationale partners die werken rond metrologie en relevante meetindicatoren met betrekking tot AI.
(74)
Sistemele de IA cu grad ridicat de risc ar trebui să funcționeze în mod consecvent pe parcursul întregului lor ciclu de viață și să atingă un nivel adecvat de acuratețe, robustețe și securitate cibernetică, având în vedere scopul lor preconizat și în conformitate cu stadiul de avansare al tehnologiei general recunoscut. Comisia și organizațiile și părțile interesate relevante sunt încurajate să țină seama în mod corespunzător de atenuarea riscurilor și a impacturilor negative ale sistemului de IA. Nivelul preconizat al indicatorilor de performanță ar trebui să fie declarat în instrucțiunile de utilizare însoțitoare. Furnizorii sunt îndemnați să comunice aceste informații implementatorilor într-un mod clar și ușor de înțeles, fără induceri în eroare sau declarații înșelătoare. Dreptul Uniunii privind metrologia legală, inclusiv Directivele 2014/31/UE (35) și 2014/32/UE (36) ale Parlamentului European și ale Consiliului, urmărește să asigure acuratețea măsurătorilor și să contribuie la transparența și echitatea tranzacțiilor comerciale. În acest context, în cooperare cu părțile interesate și organizațiile relevante, cum ar fi autoritățile din domeniul metrologiei și al etalonării, Comisia ar trebui să încurajeze, după caz, elaborarea unor valori de referință și a unor metodologii de măsurare pentru sistemele de IA. În acest sens, Comisia ar trebui să țină seama de partenerii internaționali care lucrează în domeniul metrologiei și al indicatorilor de măsurare relevanți referitori la IA și să colaboreze cu partenerii respectivi.
(75)
Technische robuustheid is een essentiële eis voor AI-systemen met een hoog risico. Deze systemen moeten bestand zijn tegen schadelijk of anderszins ongewenst gedrag dat kan voortvloeien uit de beperkingen binnen de systemen of de omgeving waarin de systemen opereren (bv. fouten, onregelmatigheden, onverwachte situaties). Daarom moeten technische en organisatorische maatregelen worden getroffen om de robuustheid van AI-systemen met een hoog risico te waarborgen, bijvoorbeeld door passende technische oplossingen te ontwerpen en te ontwikkelen om schadelijk of anderszins ongewenst gedrag te voorkomen of tot een minimum te beperken. Deze technische oplossing kan bijvoorbeeld bestaan uit mechanismen die het systeem in staat stellen zijn werking veilig te onderbreken (storingsbeveiligingsplannen) wanneer zich bepaalde anomalieën voordoen of wanneer de werking buiten bepaalde vooraf bepaalde grenzen plaatsvindt. Wanneer niet tegen deze risico’s wordt beschermd, kan dit leiden tot veiligheidseffecten of negatieve gevolgen voor de grondrechten, bijvoorbeeld als gevolg van foutieve beslissingen of een onjuiste of vertekende output die door het AI-systeem wordt gegenereerd.
(75)
Robustețea tehnică este o cerință esențială pentru sistemele de IA cu grad ridicat de risc. Acestea ar trebui să fie reziliente în raport cu comportamentul prejudiciabil sau altfel indezirabil, care poate rezulta din limitările din cadrul sistemelor sau al mediului în care funcționează sistemele (de exemplu, erori, defecțiuni, inconsecvențe, situații neprevăzute). Prin urmare, ar trebui să fie luate măsuri tehnice și organizatorice pentru a asigura robustețea sistemelor de IA cu grad ridicat de risc, de exemplu prin proiectarea și dezvoltarea de soluții tehnice adecvate pentru a preveni sau a reduce la minimum comportamentul prejudiciabil sau altfel indezirabil în alt mod. Soluțiile tehnice respective pot include, de exemplu, mecanisme care permit sistemului să își întrerupă funcționarea în condiții de siguranță (planuri de autoprotecție) în prezența anumitor anomalii sau atunci când funcționarea are loc în afara anumitor limite prestabilite. Incapacitatea de a asigura protecția împotriva acestor riscuri ar putea avea un impact asupra siguranței sau ar putea afecta în mod negativ drepturile fundamentale, de exemplu din cauza unor decizii eronate sau a unor rezultate greșite sau distorsionate de prejudecăți generate de sistemul de IA.
(76)
Cyberbeveiliging is cruciaal om te waarborgen dat AI-systemen bestand zijn tegen pogingen van kwaadwillige derden die gebruikmaken van de kwetsbaarheden van het systeem om het gebruik, het gedrag of de prestaties ervan te wijzigen of de veiligheidskenmerken ervan in gevaar te brengen. Bij cyberaanvallen tegen AI-systemen kunnen AI-specifieke activa worden gebruikt, zoals trainingsdatasets (bv. datavervuiling) of getrainde modellen (bv. vijandige aanvallen of membership inference), of kwetsbaarheden in de digitale activa van het AI-systeem of de onderliggende ICT-infrastructuur worden benut. Om te zorgen voor een niveau van cyberbeveiliging dat aansluit op de risico’s, moeten aanbieders van AI-systemen met een hoog risico derhalve passende maatregelen zoals veiligheidscontroles nemen, waarbij ook op passende wijze rekening wordt gehouden met de onderliggende ICT-infrastructuur.
(76)
Securitatea cibernetică joacă un rol esențial în asigurarea rezilienței sistemelor de IA împotriva încercărilor de modificare a utilizării, a comportamentului, a performanței sau de compromitere a proprietăților lor de securitate de către părți terțe răuvoitoare care exploatează vulnerabilitățile sistemului. Atacurile cibernetice împotriva sistemelor de IA se pot folosi de active specifice de IA, cum ar fi seturi de date de antrenament (de exemplu, otrăvirea datelor) sau modele antrenate (de exemplu, atacuri contradictorii sau inferențe din datele membrilor – membership inference), sau pot exploata vulnerabilitățile activelor digitale ale sistemului de IA sau ale infrastructurii TIC subiacente. Pentru a asigura un nivel de securitate cibernetică adecvat riscurilor, furnizorii de sisteme de IA cu grad ridicat de risc ar trebui, prin urmare, să ia măsuri adecvate, cum ar fi controalele de securitate, ținând seama, după caz, și de infrastructura TIC subiacentă.
(77)
Onverminderd de bij deze verordening vastgestelde eisen met betrekking tot robuustheid en nauwkeurigheid kunnen AI-systemen met een hoog risico die onder het toepassingsgebied van een verordening van het Europees Parlement en de Raad betreffende horizontale cyberbeveiligingsvereisten voor producten met digitale elementen vallen, overeenkomstig die verordening de naleving van de cyberbeveiligingseisen van onderhavige verordening aantonen door te voldoen aan de essentiële cyberbeveiligingseisen van die verordening. Wanneer AI-systemen met een hoog risico voldoen aan de essentiële eisen van een verordening van het Europees Parlement en de Raad betreffende horizontale cyberbeveiligingsvereisten voor producten met digitale elementen, moeten zij worden geacht in overeenstemming te zijn met de cyberbeveiligingseisen van deze verordening, voor zover de naleving van die eisen wordt aangetoond in de EU-conformiteitsverklaring of delen daarvan die is afgegeven op grond van die verordening. Daartoe moet bij de beoordeling van de cyberbeveiligingsrisico’s die verbonden zijn aan een product met digitale elementen dat overeenkomstig deze verordening als AI-systeem met een hoog risico is geclassificeerd, welke wordt uitgevoerd uit hoofde van een verordening van het Europees Parlement en de Raad betreffende horizontale cyberbeveiligingsvereisten voor producten met digitale elementen, rekening worden gehouden met risico’s voor de cyberweerbaarheid van een AI-systeem tegen pogingen van ongeautoriseerde derden om het gebruik, het gedrag of de prestaties ervan te wijzigen, en met AI-specifieke kwetsbaarheden zoals datavervuiling of vijandige aanvallen, alsook, voor zover relevant, risico’s voor de grondrechten zoals op grond van deze verordening is vereist.
(77)
Fără a aduce atingere cerințelor legate de robustețe și acuratețe prevăzute în prezentul regulament, sistemele de IA cu grad ridicat de risc care intră în domeniul de aplicare al Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale, în conformitate cu regulamentul respectiv, pot demonstra conformitatea cu cerințele de securitate cibernetică prevăzute în prezentul regulament prin îndeplinirea cerințelor esențiale de securitate cibernetică prevăzute în regulamentul respectiv. Atunci când îndeplinesc cerințele esențiale ale Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale, sistemele de IA cu grad ridicat de risc ar trebui să fie considerate conforme cu cerințele de securitate cibernetică prevăzute în prezentul regulament, în măsura în care îndeplinirea cerințelor respective este demonstrată în declarația de conformitate UE sau în părți ale acesteia emise în temeiul regulamentului respectiv. În acest scop, evaluarea riscurilor în materie de securitate cibernetică asociate unui produs cu elemente digitale clasificat drept sistem de IA cu grad ridicat de risc în conformitate cu prezentul regulament, efectuată în temeiul Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale, ar trebui să ia în considerare riscurile la adresa rezilienței cibernetice a unui sistem de IA în ceea ce privește încercările unor părți terțe neautorizate de a-i modifica utilizarea, comportamentul sau performanța, inclusiv vulnerabilitățile specifice IA, cum ar fi otrăvirea datelor sau atacurile contradictorii, precum și, după caz, riscurile la adresa drepturilor fundamentale, astfel cum se prevede în prezentul regulament.
(78)
De conformiteitsbeoordelingsprocedure waarin deze verordening voorziet, moet van toepassing zijn op de essentiële cyberbeveiligingseisen van een product met digitale elementen dat onder een verordening van het Europees Parlement en de Raad betreffende horizontale cyberbeveiligingsvereisten voor producten met digitale elementen valt en op grond van deze verordening als AI-systeem met een hoog risico is geclassificeerd. Deze regel mag echter niet leiden tot een verlaging van het vereiste betrouwbaarheidsniveau voor kritieke producten met digitale elementen die onder een verordening van het Europees Parlement en de Raad betreffende horizontale cyberbeveiligingsvereisten voor producten met digitale elementen vallen. In afwijking van deze regel zijn AI-systemen met een hoog risico die onder het toepassingsgebied van deze verordening vallen en eveneens op grond van een verordening van het Europees Parlement en de Raad betreffende horizontale cyberbeveiligingsvereisten voor producten met digitale elementen als belangrijke en kritieke producten met digitale elementen zijn geclassificeerd en waarop de in een bijlage bij deze verordening vastgelegde conformiteitsbeoordelingsprocedure op basis van interne controle van toepassing is, derhalve onderworpen aan de conformiteitsbeoordelingsbepalingen van een verordening van het Europees Parlement en de Raad betreffende horizontale cyberbeveiligingsvereisten voor producten met digitale elementen voor zover het de essentiële cyberbeveiligingseisen van die verordening betreft. In dat geval moeten de in een bijlage bij deze verordening vastgelegde respectieve bepalingen inzake conformiteitsbeoordeling op basis van interne controle van toepassing zijn op alle andere aspecten die onder die verordening vallen. Voortbouwend op de kennis en deskundigheid van Enisa inzake het cyberbeveiligingsbeleid en de taken die krachtens Verordening (EU) 2019/881 van het Europees Parlement en de Raad (37) aan Enisa zijn toegewezen, moet de Commissie op het gebied van kwesties in verband met de cyberbeveiliging van AI-systemen samenwerken met Enisa.
(78)
Procedura de evaluare a conformității prevăzută de prezentul regulament ar trebui să se aplice în ceea ce privește cerințele esențiale în materie de securitate cibernetică ale unui produs cu elemente digitale care intră sub incidența Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale și clasificat drept sistem de IA cu grad ridicat de risc în temeiul prezentului regulament. Totuși, această regulă nu ar trebui să conducă la reducerea nivelului necesar de asigurare pentru produsele critice cu elemente digitale care intră sub incidența Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale. Prin urmare, prin derogare de la această regulă, sistemele de IA cu grad ridicat de risc care intră în domeniul de aplicare al prezentului regulament și care sunt calificate, de asemenea, drept produse importante și critice cu elemente digitale în temeiul Regulamentului Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale și cărora li se aplică procedura de evaluare a conformității bazată pe control intern prevăzută într-o anexă la prezentul regulament fac obiectul dispozițiilor privind evaluarea conformității din Regulamentul Parlamentului European și al Consiliului privind cerințele orizontale în materie de securitate cibernetică pentru produsele cu elemente digitale în ceea ce privește cerințele esențiale în materie de securitate cibernetică din regulamentul respectiv. În acest caz, pentru toate celelalte aspecte reglementate de prezentul regulament ar trebui să se aplice dispozițiile respective privind evaluarea conformității bazate pe control intern prevăzute într-o anexă la prezentul regulament. Valorificând cunoașterea și cunoștințele de specialitate din ENISA în ceea ce privește politica în materie de securitate cibernetică și sarcinile atribuite ENISA în temeiul Regulamentului (UE) 2019/881 al Parlamentului European și al Consiliului (37), Comisia ar trebui să coopereze cu ENISA în ceea ce privește aspectele legate de securitatea cibernetică a sistemelor de IA.
(79)
Het is passend dat een specifieke natuurlijke of rechtspersoon, die als aanbieder wordt aangemerkt, de verantwoordelijkheid neemt voor het in de handel brengen of in gebruik stellen van een AI-systeem met een hoog risico, ongeacht of deze natuurlijke of rechtspersoon de persoon is die het systeem heeft ontworpen of ontwikkeld.
(79)
Este oportun ca o anumită persoană fizică sau juridică, definită drept furnizor, să își asume responsabilitatea pentru introducerea pe piață sau punerea în funcțiune a unui sistem de IA cu grad ridicat de risc, indiferent dacă persoana fizică sau juridică respectivă este persoana care a proiectat sau a dezvoltat sistemul.
(80)
Als ondertekenaars van het Verdrag van de Verenigde Naties inzake de rechten van personen met een handicap zijn de Unie en de lidstaten wettelijk verplicht personen met een handicap te beschermen tegen discriminatie en hun gelijkheid te bevorderen, ervoor te zorgen dat personen met een handicap op voet van gelijkheid met anderen toegang hebben tot informatie- en communicatietechnologieën en -systemen, en de eerbiediging van de privacy van personen met een handicap te waarborgen. Gezien het toenemende belang en gebruik van AI-systemen moet de toepassing van universele ontwerpbeginselen op alle nieuwe technologieën en diensten zorgen voor volledige en gelijke toegang voor iedereen die mogelijk gevolgen ondervindt van of gebruikmaakt van AI-technologieën, met inbegrip van personen met een handicap, op een manier waarbij ten volle rekening wordt gehouden met hun inherente waardigheid en diversiteit. Het is daarom van essentieel belang dat aanbieders ervoor zorgen dat zij voldoen aan de toegankelijkheidseisen, alsook aan de Richtlijnen (EU) 2016/2102 van het Europees Parlement en de Raad (38) en (EU) 2019/882. Aanbieders moeten ervoor zorgen dat door ontwerp aan deze eisen wordt voldaan. De nodige maatregelen moeten daarom zo goed mogelijk in het ontwerp van AI-systemen met een hoog risico worden geïntegreerd.
(80)
În calitate de semnatare ale Convenției Națiunilor Unite privind drepturile persoanelor cu dizabilități, Uniunea și statele membre sunt obligate din punct de vedere juridic să protejeze persoanele cu dizabilități împotriva discriminării și să promoveze egalitatea acestora, să se asigure că persoanele cu dizabilități au acces, în condiții de egalitate cu ceilalți, la tehnologiile și sistemele informației și comunicațiilor și să garanteze respectarea vieții private a persoanelor cu dizabilități. Având în vedere importanța și utilizarea în creștere a sistemelor de IA, aplicarea principiilor proiectării universale la toate noile tehnologii și servicii ar trebui să asigure accesul deplin și egal al tuturor persoanelor potențial afectate de tehnologiile IA sau care utilizează aceste tehnologii, inclusiv al persoanelor cu dizabilități, într-un mod care să țină seama pe deplin de demnitatea și diversitatea lor inerentă. Prin urmare, este esențial ca furnizorii să asigure conformitatea deplină cu cerințele de accesibilitate, inclusiv cu Directiva (UE) 2016/2102 a Parlamentului European și a Consiliului (38) și cu Directiva (UE) 2019/882. Furnizorii ar trebui să asigure conformitatea cu aceste cerințe din faza de proiectare. Prin urmare, măsurile necesare ar trebui să fie integrate cât mai mult posibil în proiectarea sistemului de IA cu grad ridicat de risc.
(81)
De aanbieder moet een gedegen systeem voor kwaliteitsbeheer vaststellen, zorgen voor het doorlopen van de vereiste conformiteitsbeoordelingsprocedure, de relevante documentatie opstellen en een robuust systeem vaststellen voor monitoring na het in de handel brengen. Aanbieders van AI-systemen met een hoog risico die onderworpen zijn aan verplichtingen met betrekking tot kwaliteitsbeheersystemen uit hoofde van het desbetreffende sectorale Unierecht, moeten de mogelijkheid hebben om de elementen van het kwaliteitsbeheersysteem waarin deze verordening voorziet, op te nemen als onderdeel van het bestaande kwaliteitsbeheersysteem waarin dat andere sectorale Unierecht voorziet. Bij toekomstige normalisatieactiviteiten of in richtsnoeren van de Commissie moet ook rekening worden gehouden met de complementariteit tussen deze verordening en het bestaande sectorale Unierecht. Overheidsinstanties die AI-systemen met een hoog risico in gebruik stellen voor eigen gebruik mogen de regels voor het systeem voor kwaliteitsbeheer goedkeuren en uitvoeren als onderdeel van het systeem voor kwaliteitsbeheer dat, naargelang het geval, op nationaal of regionaal niveau is goedgekeurd, rekening houdend met de specifieke kenmerken van de sector en de competenties en organisatie van de overheidsinstantie in kwestie.
(81)
Furnizorul ar trebui să instituie un sistem bine pus la punct de management al calității, să asigure realizarea procedurii necesare de evaluare a conformității, să întocmească documentația relevantă și să instituie un sistem solid de monitorizare după introducerea pe piață. Furnizorii de sisteme de IA cu grad ridicat de risc care fac obiectul unor obligații privind sistemele de management al calității în temeiul dreptului sectorial relevant al Uniunii ar trebui să aibă posibilitatea de a include elementele sistemului de management al calității prevăzut în prezentul regulament ca parte a sistemului existent de management al calității prevăzut în respectivul drept sectorial al Uniunii. Complementaritatea dintre prezentul regulament și dreptul sectorial existent al Uniunii ar trebui, de asemenea, să fie luată în considerare în viitoarele activități de standardizare sau orientări adoptate de Comisie. Autoritățile publice care pun în funcțiune sisteme de IA cu grad ridicat de risc pentru uzul propriu pot adopta și pune în aplicare norme privind sistemul de management al calității ca parte a sistemului de management al calității adoptat la nivel național sau regional, după caz, ținând seama de particularitățile sectorului și de competențele și organizarea autorității publice în cauză.
(82)
Om de handhaving van deze verordening mogelijk te maken en te zorgen voor een gelijk speelveld voor operatoren en rekening houdend met de verschillende vormen waarin digitale producten beschikbaar kunnen worden gesteld, is het van belang dat onder alle omstandigheden wordt gewaarborgd dat een persoon die in de Unie is gevestigd de autoriteiten alle noodzakelijke informatie kan verstrekken over de conformiteit van een AI-systeem. Voordat zij hun AI-systemen beschikbaar stellen in de Unie, moeten aanbieders die in derde landen zijn gevestigd derhalve per schriftelijke machtiging een gemachtigde aanwijzen die is gevestigd in de Unie. Deze gemachtigde vervult een spilfunctie bij de waarborging van de conformiteit van de door niet in de Unie gevestigde aanbieders in de handel gebrachte of in gebruik gestelde AI-systemen met een hoog risico en in zijn hoedanigheid van hun in de Unie gevestigde contactpersoon.
(82)
Pentru a permite aplicarea prezentului regulament și pentru a crea condiții de concurență echitabile pentru operatori și ținând seama de diferitele forme de punere la dispoziție a produselor digitale, este important să se asigure că, în toate circumstanțele, o persoană stabilită în Uniune poate furniza autorităților toate informațiile necesare cu privire la conformitatea unui sistem de IA. Prin urmare, înainte de a-și pune la dispoziție sistemele de IA în Uniune, furnizorii stabiliți în țări terțe ar trebui să desemneze, prin mandat scris, un reprezentant autorizat stabilit în Uniune. Respectivul reprezentant autorizat joacă un rol central în asigurarea conformității sistemelor de IA cu grad ridicat de risc introduse pe piață sau puse în funcțiune în Uniune de furnizorii respectivi care nu sunt stabiliți în Uniune și în îndeplinirea rolului de persoană de contact a acestora stabilită în Uniune.
(83)
Gezien de aard en complexiteit van de waardeketen voor AI-systemen en in lijn met het nieuwe wetgevingskader is het van essentieel belang rechtszekerheid te waarborgen en de naleving van deze verordening te vergemakkelijken. Daarom is het van belang de rol en de specifieke verplichtingen van betrokken operatoren in die hele waardeketen, zoals importeurs en distributeurs die kunnen bijdragen tot de ontwikkeling van AI-systemen, te verduidelijken. In bepaalde situaties kunnen deze operatoren in meer dan één rol tegelijkertijd optreden en moeten zij derhalve alle relevante verplichtingen die aan die rollen zijn verbonden, samen vervullen. Een operator kan bijvoorbeeld tegelijkertijd als distributeur en als importeur optreden.
(83)
Având în vedere natura și complexitatea lanțului valoric pentru sistemele de IA și în conformitate cu noul cadru legislativ, este esențial să se asigure securitatea juridică și să se faciliteze respectarea prezentului regulament. Prin urmare, este necesar să se clarifice rolul și obligațiile specifice ale operatorilor relevanți de-a lungul lanțului valoric respectiv, cum ar fi importatorii și distribuitorii care pot contribui la dezvoltarea sistemelor de IA. În anumite situații, operatorii respectivi ar putea acționa în mai multe roluri în același timp și, prin urmare, ar trebui să îndeplinească în mod cumulativ toate obligațiile relevante asociate rolurilor respective. De exemplu, un operator ar putea acționa în același timp ca distribuitor și ca importator.
(84)
Om rechtszekerheid te waarborgen, moet worden verduidelijkt dat, onder bepaalde specifieke voorwaarden, om het even welke distributeur, importeur, gebruiksverantwoordelijke of andere derde moet worden beschouwd als aanbieder van een AI-systeem met een hoog risico en deze derhalve alle relevante verplichtingen moet nakomen. Dit zou het geval zijn als die partij haar naam of merk op een reeds in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico zet, onverminderd contractuele regelingen waarin wordt bepaald dat de verplichtingen anders worden toegewezen. Dit zou ook het geval zijn als die partij een substantiële wijziging aanbrengt aan een reeds in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico en dit op zodanige wijze doet dat het een AI-systeem met een hoog risico overeenkomstig deze verordening blijft, of als zij het beoogde doel van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, dat niet als een AI-systeem met een hoog risico is geclassificeerd en reeds in de handel is gebracht of in gebruik is gesteld, op zodanige wijze wijzigt dat het AI-systeem een AI-systeem met een hoog risico overeenkomstig deze verordening wordt. Die bepalingen moeten van toepassing zijn onverminderd specifiekere bepalingen in bepaalde harmonisatiewetgeving van de Unie op basis van het nieuwe wetgevingskader waarmee deze verordening gezamenlijk moet worden toegepast. Zo moet artikel 16, lid 2, van Verordening (EU) 2017/745, waarin is bepaald dat bepaalde wijzigingen niet mogen worden beschouwd als een wijziging van een hulpmiddel die gevolgen kan hebben voor de naleving van de toepasselijke eisen, van toepassing blijven op AI-systemen met een hoog risico die medische hulpmiddelen zijn in de zin van die verordening.
(84)
Pentru a se asigura securitatea juridică, este necesar să se clarifice că, în anumite condiții specifice, orice distribuitor, importator, implementator sau altă parte terță ar trebui să fie considerat drept furnizor al unui sistem de IA cu grad ridicat de risc și, prin urmare, să își asume toate obligațiile relevante. Acest lucru ar fi valabil dacă partea respectivă își pune numele sau marca comercială pe un sistem de IA cu grad ridicat de risc deja introdus pe piață sau pus în funcțiune, fără a aduce atingere dispozițiilor contractuale care prevăd că obligațiile sunt alocate în alt mod. Acest lucru ar fi valabil și dacă partea respectivă aduce o modificare substanțială unui sistem de IA cu grad ridicat de risc care a fost deja introdus pe piață sau a fost deja pus în funcțiune și într-un mod în care acesta rămâne un sistem de IA cu grad ridicat de risc în conformitate cu prezentul regulament sau dacă modifică scopul preconizat al unui sistem de IA, inclusiv al unui sistem de IA de uz general, care nu a fost clasificat ca prezentând un grad ridicat de risc și care a fost deja introdus pe piață sau pus în funcțiune, într-un mod în care sistemul de IA devine un sistem de IA cu grad ridicat de risc în conformitate cu prezentul regulament. Aceste dispoziții ar trebui să se aplice fără a aduce atingere dispozițiilor mai specifice stabilite în anumite acte legislative de armonizare ale Uniunii întemeiate pe noul cadru legislativ, împreună cu care ar trebui să se aplice prezentul regulament. De exemplu, articolul 16 alineatul (2) din Regulamentul (UE) 2017/745, care stabilește că anumite modificări nu ar trebui să fie considerate modificări ale unui dispozitiv care ar putea afecta conformitatea acestuia cu cerințele aplicabile, ar trebui să se aplice în continuare sistemelor de IA cu grad ridicat de risc care sunt dispozitive medicale în sensul regulamentului respectiv.
(85)
AI-systemen voor algemene doeleinden kunnen worden gebruikt als standalone AI-systeem met een hoog risico of als component van AI-systemen met een hoog risico. Daarom moeten de aanbieders van deze systemen vanwege de specifieke aard ervan en om een eerlijke verdeling van verantwoordelijkheden in de AI-waardeketen te waarborgen, ongeacht of zij als AI-systemen met een hoog risico als zodanig door andere aanbieders of als componenten van AI-systemen met een hoog risico kunnen worden gebruikt en tenzij in deze verordening anders is bepaald, nauw samenwerken met de aanbieders van de betrokken AI-systemen met een hoog risico, om hun naleving van de verplichtingen uit hoofde van deze verordening mogelijk te maken, en met de bevoegde autoriteiten zoals vastgelegd in deze verordening.
(85)
Sistemele de IA de uz general pot fi utilizate în sine ca sisteme de IA cu grad ridicat de risc sau pot fi componente ale altor sisteme de IA cu grad ridicat de risc. Prin urmare, având în vedere natura lor specifică și pentru a asigura o partajare echitabilă a responsabilităților de-a lungul lanțului valoric al IA, furnizorii de astfel de sisteme ar trebui, indiferent dacă pot fi utilizate ca sisteme de IA cu grad ridicat de risc ca atare de alți furnizori sau drept componente ale unor sisteme de IA cu grad ridicat de risc și cu excepția cazului în care se prevede altfel în prezentul regulament, să coopereze îndeaproape cu furnizorii sistemelor de IA cu grad ridicat de risc relevante pentru a permite respectarea de către acestea a obligațiilor relevante în temeiul prezentului regulament și cu autoritățile competente instituite în temeiul prezentului regulament.
(86)
Wanneer, onder de in deze verordening vastgelegde voorwaarden, de aanbieder die het AI-systeem oorspronkelijk in de handel heeft gebracht of in gebruik heeft gesteld, voor de toepassing van deze verordening niet langer als de aanbieder mag worden beschouwd, en indien die aanbieder de wijziging van het AI-systeem in een AI-systeem met een hoog risico niet uitdrukkelijk heeft uitgesloten, moet de eerstgenoemde aanbieder niettemin nauw samenwerken en de nodige informatie beschikbaar stellen, en de redelijkerwijs te verwachten technische toegang en andere bijstand verstrekken die nodig is voor de naleving van de bij deze verordening vastgestelde verplichtingen, met name wat betreft de naleving van de conformiteitsbeoordeling van AI-systemen met een hoog risico.
(86)
În cazul în care, în condițiile prevăzute în prezentul regulament, furnizorul care a introdus inițial sistemul de IA pe piață sau l-a pus în funcțiune nu ar mai trebui să fie considerat furnizor în sensul prezentului regulament și în cazul în care furnizorul respectiv nu a exclus în mod expres schimbarea sistemului de IA într-un sistem de IA cu grad ridicat de risc, primul furnizor ar trebui totuși să coopereze îndeaproape, să pună la dispoziție informațiile necesare și să furnizeze accesul tehnic și alte tipuri de asistență preconizate în mod rezonabil care sunt necesare pentru îndeplinirea obligațiilor prevăzute în prezentul regulament, în special în ceea ce privește respectarea cerințelor privind evaluarea conformității sistemelor de IA cu grad ridicat de risc.
(87)
Wanneer een AI-systeem met een hoog risico dat een veiligheidscomponent is van een product dat valt onder het toepassingsgebied van de harmonisatiewetgeving van de Unie op basis van het nieuwe wetgevingskader, niet onafhankelijk van het product in de handel wordt gebracht of in gebruik wordt gesteld, moet de productfabrikant, zoals gedefinieerd in die wetgeving, voorts de verplichtingen van de aanbieder naleven, zoals vastgelegd in deze verordening, en moet hij er met name voor zorgen dat het AI-systeem dat is opgenomen in het eindproduct in overeenstemming is met de eisen van deze verordening.
(87)
În plus, în cazul în care un sistem de IA cu grad ridicat de risc care este o componentă de siguranță a unui produs care intră în domeniul de aplicare al legislației de armonizare a Uniunii întemeiate pe noul cadru legislativ nu este introdus pe piață sau pus în funcțiune independent de produs, fabricantul produsului definit în legislația respectivă ar trebui să respecte obligațiile furnizorului stabilite în prezentul regulament și ar trebui, în special, să se asigure că sistemul de IA încorporat în produsul final respectă cerințele prezentului regulament.
(88)
In de hele de AI-waardeketen worden vaak door meerdere partijen AI-systemen, instrumenten en diensten geleverd, alsook onderdelen of processen, die door de aanbieder in het AI-systeem worden geïntegreerd, een en ander met verscheidene doelstellingen, waaronder het (opnieuw) trainen, testen en evalueren van modellen, de integratie in software, of andere aspecten van modelontwikkeling. Die partijen hebben een belangrijke rol te spelen in de waardeketen ten aanzien van de aanbieder van het AI-systeem met een hoog risico waarin hun AI-systemen, instrumenten, diensten, componenten of processen zijn geïntegreerd, en moeten deze aanbieder bij schriftelijke overeenkomst de nodige informatie, capaciteiten, technische toegang en andere bijstand verstrekken op basis van de algemeen erkende stand van de techniek, teneinde de aanbieder in staat te stellen volledig te voldoen aan de verplichtingen van deze verordening, zonder afbreuk te doen aan hun eigen intellectuele-eigendomsrechten of bedrijfsgeheimen.
(88)
De-a lungul lanțului valoric al IA, numeroase părți furnizează adesea sisteme, instrumente și servicii de IA, dar și componente sau procese care sunt încorporate de furnizor în sistemul de IA, cu diferite obiective, inclusiv antrenarea modelelor, reconversia modelelor, testarea și evaluarea modelelor, integrarea în software sau alte aspecte ale dezvoltării de modele. Respectivele părți au un rol important în lanțul valoric față de furnizorul sistemului de IA cu grad ridicat de risc în care sunt integrate sistemele, instrumentele, serviciile, componentele sau procesele lor de IA și ar trebui să îi ofere acestui furnizor, printr-un acord scris, informațiile, capabilitățile, accesul tehnic și alte tipuri de asistență necesare bazate pe stadiul de avansare al tehnologiei general recunoscut, pentru a permite furnizorului să respecte pe deplin obligațiile prevăzute în prezentul regulament, fără a-și compromite propriile drepturi de proprietate intelectuală sau secrete comerciale.
(89)
Derden die andere instrumenten, diensten, processen of AI-componenten dan AI-modellen voor algemene doeleinden toegankelijk maken voor het publiek, mogen niet worden verplicht te voldoen aan eisen die gericht zijn op de verantwoordelijkheden in de AI-waardeketen, met name ten aanzien van de aanbieder die deze heeft gebruikt of geïntegreerd, wanneer die instrumenten, diensten, processen of AI-componenten onder een vrije en opensource licentie toegankelijk worden gemaakt. Ontwikkelaars van vrije en opensource-AI-componenten, diensten, processen of andere AI-componenten dan AI-modellen voor algemene doeleinden moeten echter worden aangemoedigd om algemeen aanvaarde documentatiepraktijken, zoals model- en gegevenskaarten, toe te passen als een manier om de uitwisseling van informatie in de hele AI-waardeketen te versnellen, in het kader van de bevordering van betrouwbare AI-systemen in de Unie.
(89)
Părțile terțe care pun la dispoziția publicului instrumente, servicii, procese sau componente de IA, altele decât modelele de IA de uz general, ar trebui să nu fie obligate să respecte cerințe care vizează responsabilitățile de-a lungul lanțului valoric al IA, în special față de furnizorul care le-a utilizat sau le-a integrat, atunci când aceste instrumente, servicii, procese sau componente de IA sunt puse la dispoziție sub licență liberă și deschisă. Dezvoltatorii de instrumente, servicii, procese sau componente de IA libere și cu sursă deschisă, altele decât modelele de IA de uz general, ar trebui să fie încurajați să pună în aplicare practici de documentare adoptate pe scară largă, cum ar fi carduri însoțitoare ale modelelor și fișe de date, ca modalitate de a accelera schimbul de informații de-a lungul lanțului valoric al IA, permițând promovarea unor sisteme de IA fiabile în Uniune.
(90)
De Commissie kan vrijwillige modelcontractvoorwaarden ontwikkelen en aanbevelen tussen aanbieders van AI-systemen met een hoog risico en derden die instrumenten, diensten, componenten of processen leveren die worden gebruikt of geïntegreerd in AI-systemen met een hoog risico, teneinde de samenwerking in de hele waardeketen te vergemakkelijken. Bij de ontwikkeling van vrijwillige modelcontractvoorwaarden moet de Commissie tevens rekening houden met de contractuele eisen die kunnen gelden in specifieke sectoren of businesscases.
(90)
Comisia ar putea elabora și recomanda un model voluntar de clauze contractuale între furnizorii de sisteme de IA cu grad ridicat de risc și părțile terțe care furnizează instrumente, servicii, componente sau procese care sunt utilizate sau integrate în sistemele de IA cu grad ridicat de risc, pentru a facilita cooperarea de-a lungul lanțului valoric. Atunci când elaborează modelul voluntar de clauze contractuale, Comisia ar trebui să ia în considerare și eventualele cerințe contractuale aplicabile în anumite sectoare sau situații economice.
(91)
Gezien de aard van AI-systemen en de risico’s voor de veiligheid en de grondrechten waarmee het gebruik ervan mogelijk gepaard gaat, onder meer wat betreft de noodzaak van een behoorlijke monitoring van de prestaties van een AI-systeem in de praktijk, is het passend om specifieke verantwoordelijkheden voor gebruiksverantwoordelijken vast te stellen. Met name moeten gebruiksverantwoordelijken passende technische en organisatorische maatregelen treffen om ervoor te zorgen dat hun gebruik van AI-systemen met een hoog risico in overeenstemming is met de gebruiksaanwijzingen en voorts moeten er, waar passend, bepaalde andere verplichtingen worden vastgesteld met betrekking tot de monitoring van de werking van AI-systemen en met betrekking tot de registratie. Ook moeten gebruiksverantwoordelijken ervoor zorgen dat de personen die zijn aangewezen voor de uitvoering van de bij deze verordening vastgestelde gebruiksinstructies en menselijk toezicht, over de nodige bekwaamheid beschikken, met name over afdoende AI-geletterdheid, opleiding en autoriteit om die taken naar behoren uit te voeren. Die verplichtingen mogen geen afbreuk doen aan andere verplichtingen van gebruiksverantwoordelijken met betrekking tot AI-systemen met een hoog risico uit hoofde van het Unierecht of het nationale recht.
(91)
Având în vedere natura sistemelor de IA și riscurile la adresa siguranței și a drepturilor fundamentale care pot fi asociate cu utilizarea lor, inclusiv în ceea ce privește necesitatea de a asigura o monitorizare adecvată a performanței unui sistem de IA într-un context real, este oportun să se stabilească responsabilități specifice pentru implementatori. Implementatorii ar trebui, în special, să ia măsurile tehnice și organizatorice adecvate pentru a se asigura că utilizează sisteme de IA cu grad ridicat de risc în conformitate cu instrucțiunile de utilizare și ar trebui să fie prevăzute și alte obligații în ceea ce privește monitorizarea funcționării sistemelor de IA și păstrarea evidențelor, după caz. În plus, implementatorii ar trebui să se asigure că persoanele desemnate să pună în aplicare instrucțiunile de utilizare și supravegherea umană, astfel cum sunt prevăzute în prezentul regulament, au competența necesară, în special un nivel adecvat de alfabetizare, formare și autoritate în domeniul IA pentru a îndeplini în mod corespunzător sarcinile respective. Respectivele obligații nu ar trebui să aducă atingere altor obligații ale implementatorilor în ceea ce privește sistemele de IA cu grad ridicat de risc în temeiul dreptului Uniunii sau al dreptului intern.
(92)
Deze verordening doet geen afbreuk aan de verplichtingen van werkgevers op grond van het Unierecht of de nationale wetgeving en praktijk, met inbegrip van Richtlijn 2002/14/EG van het Europees Parlement en de Raad (39), om werknemers of hun vertegenwoordigers te informeren, of te informeren en te raadplegen, over besluiten om AI-systemen in gebruik te stellen of aan te wenden. Ook indien de voorwaarden voor deze informerings- of deze informerings- en raadplegingsverplichtingen uit hoofde van andere rechtsinstrumenten niet vervuld zijn, blijft het noodzakelijk om werknemers en hun vertegenwoordigers over het geplande inzetten van AI-systemen met een hoog risico op de werkplek te informeren. Bovendien is het recht te worden geïnformeerd aanvullend en noodzakelijk voor de aan deze verordening ten grondslag liggende doelstelling van bescherming van de grondrechten. Om die reden moet deze verordening een informeringsvereiste bevatten, die evenwel geen afbreuk mag doen aan de bestaande rechten van werknemers.
(92)
Prezentul regulament nu aduce atingere obligațiilor angajatorilor de a informa sau de a informa și consulta lucrătorii sau reprezentanții acestora în temeiul dreptului și al practicilor Uniunii sau naționale, inclusiv al Directivei 2002/14/CE a Parlamentului European și a Consiliului (39), cu privire la deciziile de punere în funcțiune sau de utilizare a sistemelor de IA. Este în continuare necesar să se asigure informarea lucrătorilor și a reprezentanților acestora cu privire la implementarea planificată a sistemelor de IA cu grad ridicat de risc la locul de muncă în cazul în care nu sunt îndeplinite condițiile pentru respectivele obligații de informare sau de informare și consultare prevăzute în alte instrumente juridice. În plus, un astfel de drept la informare este auxiliar și necesar în raport cu obiectivul de protecție a drepturilor fundamentale care stă la baza prezentului regulament. Prin urmare, prezentul regulament ar trebui să prevadă o cerință de informare în acest sens, fără a afecta drepturile existente ale lucrătorilor.
(93)
Hoewel aan AI-systemen verbonden risico’s kunnen voortvloeien uit de manier waarop deze systemen zijn vormgegeven, kunnen de risico’s ook het gevolg zijn van de manier waarop ze worden gebruikt. Gebruiksverantwoordelijken van AI-systemen met een hoog risico spelen daarom een cruciale rol bij het waarborgen van de bescherming van de grondrechten, in aanvulling op de verplichtingen van aanbieders bij de ontwikkeling van het AI-systeem. Gebruiksverantwoordelijken zijn het best in staat om te begrijpen hoe het AI-systeem met een hoog risico concreet zal worden gebruikt en kunnen derhalve potentiële aanzienlijke risico’s identificeren die niet in de ontwikkelingsfase voorzien werden, want zij hebben preciezere kennis van de gebruikscontext, de personen of groepen personen die waarschijnlijk zullen worden geraakt, met inbegrip van kwetsbare groepen. De in een bijlage bij deze verordening opgenomen gebruiksverantwoordelijken van AI-systemen met een hoog risico zijn ook cruciaal voor de informering van natuurlijke personen en moeten, wanneer zij besluiten met betrekking tot natuurlijke personen nemen of helpen dergelijke besluiten te nemen, de natuurlijke personen in voorkomend geval te informeren dat zij aan het gebruik van het AI-systeem met een hoog risico zijn onderworpen. Deze informatie dient tevens het beoogde doel en het soort besluitvorming te omvatten waarvoor het systeem wordt gebruikt. De gebruiksverantwoordelijke dient de natuurlijke personen ook te informeren over hun recht op uitleg krachtens deze verordening. Als het om AI-systemen met een hoog risico gaat die voor rechtshandhavingsdoeleinden worden gebruikt, moet die verplichting worden uitgevoerd overeenkomstig artikel 13 van Richtlijn (EU) 2016/680.
(93)
Deși riscurile legate de sistemele de IA pot rezulta din modul în care sunt proiectate sistemele respective, pot decurge riscuri și din modul în care aceste sisteme de IA sunt utilizate. Prin urmare, implementatorii sistemelor de IA cu grad ridicat de risc joacă un rol esențial în garantarea faptului că drepturile fundamentale sunt protejate, completând obligațiile furnizorului la dezvoltarea sistemului de IA. Implementatorii sunt cei mai în măsură să înțeleagă modul în care sistemul de IA cu grad ridicat de risc va fi utilizat concret și, prin urmare, pot identifica potențialele riscuri semnificative care nu au fost prevăzute în faza de dezvoltare, datorită cunoașterii mai exacte a contextului de utilizare, a persoanelor sau a grupurilor de persoane care ar putea fi afectate, inclusiv a grupurilor vulnerabile. Implementatorii de sisteme de IA cu grad ridicat de risc enumerate într-o anexă la prezentul regulament joacă, de asemenea, un rol esențial în informarea persoanelor fizice și ar trebui, atunci când iau decizii sau contribuie la luarea deciziilor referitoare la persoane fizice, după caz, să informeze persoanele fizice că fac obiectul utilizării sistemului de IA cu grad ridicat de risc. Aceste informații ar trebui să includă scopul urmărit și tipul de decizii luate. Implementatorul ar trebui, de asemenea, să informeze persoanele fizice cu privire la dreptul lor la o explicație furnizată în temeiul prezentului regulament. În ceea ce privește sistemele de IA cu grad ridicat de risc utilizate în scopul aplicării legii, această obligație ar trebui să fie pusă în aplicare în conformitate cu articolul 13 din Directiva (UE) 2016/680.
(94)
Elke vorm van verwerking van biometrische gegevens voor rechtshandhavingsdoeleinden door AI-systemen voor biometrische identificatie, moet in overeenstemming zijn met artikel 10 van Richtlijn (EU) 2016/680, op grond waarvan verwerking uitsluitend is toegestaan indien die strikt noodzakelijk is, in welk geval er passende waarborgen voor de rechten en vrijheden van de betrokkene moeten worden geboden, alsmede indien het Unierecht of het lidstatelijk recht in een dergelijke verwerking voorziet. Een dergelijk gebruik moet, indien toegestaan, tevens voldoen aan de beginselen van artikel 4, lid 1, van Richtlijn (EU) 2016/680, waaronder rechtmatigheid, billijkheid en transparantie, doelbinding, nauwkeurigheid en opslagbeperking.
(94)
Orice prelucrare a datelor biometrice implicate în utilizarea sistemelor de IA pentru identificarea biometrică în scopul aplicării legii trebuie să respecte articolul 10 din Directiva (UE) 2016/680, care permite o astfel de prelucrare numai atunci când este strict necesară, sub rezerva unor garanții adecvate pentru drepturile și libertățile persoanei vizate, și atunci când este autorizată de dreptul Uniunii sau de dreptul intern. O astfel de utilizare, atunci când este autorizată, trebuie, de asemenea, să respecte principiile prevăzute la articolul 4 alineatul (1) din Directiva (UE) 2016/680, inclusiv legalitatea, echitatea și transparența, limitarea scopului, exactitatea și limitarea stocării.
(95)
Het gebruik van systemen voor biometrische identificatie op afstand achteraf moet onverminderd het toepasselijke Unierecht en dan met name Verordening (EU) 2016/679 en Richtlijn (EU) 2016/680, gezien de indringende aard van deze systemen, worden onderworpen aan waarborgen. Systemen voor biometrische identificatie op afstand achteraf moeten te allen tijde worden gebruikt op een evenredige, legitieme en strikt noodzakelijke wijze, hetgeen betekent dat ze specifiek gericht moeten worden op de te identificeren personen en de locatie, binnen een beperkte tijdspanne, met gebruikmaking van een gesloten reeks wettelijk verkregen videobeelden. Systemen voor biometrische identificatie op afstand achteraf in het kader van rechtshandhaving mogen in geen geval gebruikt worden op een wijze die tot algemene surveillance leidt. De voorwaarden voor biometrische identificatie op afstand achteraf mogen onder geen enkel beding ruimte bieden voor omzeiling van de voorwaarden van het verbod, noch van de strikte uitzonderingen voor realtime biometrische identificatie op afstand.
(95)
Fără a aduce atingere dreptului aplicabil al Uniunii, în special Regulamentului (UE) 2016/679 și Directivei (UE) 2016/680, având în vedere caracterul intruziv al sistemelor de identificare biometrică la distanță ulterioară, utilizarea sistemelor de identificare biometrică la distanță ulterioară ar trebui să facă obiectul unor garanții. Sistemele de identificare biometrică la distanță ulterioară ar trebui să fie utilizate întotdeauna într-un mod proporțional, legitim și strict necesar și, prin urmare, adaptat, în ceea ce privește persoanele care urmează să fie identificate, localizarea, acoperirea temporală și pe baza unui set de date închis de înregistrări video obținute în mod legal. În orice caz, sistemele de identificare biometrică la distanță ulterioară nu ar trebui să fie utilizate în cadrul aplicării legii pentru a conduce la o supraveghere arbitrară. Condițiile pentru identificarea biometrică la distanță ulterioară nu ar trebui, în niciun caz, să ofere o bază pentru a eluda condițiile interdicției și excepțiile stricte pentru identificarea biometrică la distanță în timp real.
(96)
Om efficiënt te waarborgen dat de grondrechten worden beschermd, moeten gebruiksverantwoordelijken van AI-systemen met een hoog risico die een publiekrechtelijk orgaan, of openbare diensten verlenende particuliere entiteiten en gebruiksverantwoordelijken van bepaalde in een bijlage bij deze verordening vermelde AI-systemen met een hoog risico, zoals bank- of verzekeringsentiteiten, een effectbeoordeling op het gebied van de grondrechten uitvoeren alvorens deze systemen in gebruik te stellen. Voor personen belangrijke diensten die van openbare aard zijn, kunnen tevens door particuliere entiteiten worden verleend. Particuliere entiteiten die dergelijke openbare diensten aanbieden, houden verband met taken van algemeen belang op het gebied van onder meer onderwijs, gezondheidszorg, sociale diensten, huisvesting en rechtsbedeling. Doel van de effectbeoordeling op het gebied van de grondrechten is dat de gebruiksverantwoordelijke de specifieke risico’s voor de rechten van personen of groepen personen die waarschijnlijk zullen worden getroffen, in kaart brengt, en dat hij bepaalt welke maatregelen er nodig zijn in het geval die risico’s zich voordoen. De effectbeoordeling moet worden verricht voordat het AI-systeem met een hoog risico wordt ingezet en moet worden geactualiseerd in het geval de gebruiksverantwoordelijke van mening is dat een van de relevante factoren is veranderd. De effectbeoordeling moet in kaart brengen in welke relevante processen van de gebruiksverantwoordelijke het AI-systeem met een hoog risico in overeenstemming met het beoogde doel ervan zal worden gebruikt, en moet voorts een beschrijving bevatten van de periode waarin en de frequentie waarmee het systeem zal worden gebruikt, alsmede van de specifieke categorieën natuurlijke personen en groepen die in de specifieke gebruikscontext waarschijnlijk gevolgen zullen ondervinden. In de beoordeling moet tevens worden geïnventariseerd welke specifieke risico’s op schade gevolgen kunnen hebben voor de grondrechten van die personen of groepen. De gebruiksverantwoordelijke moet bij de beoordeling informatie gebruiken die relevant is voor een behoorlijke effectbeoordeling, waaronder door de aanbieder van het AI-systeem met een hoog risico in de gebruiksaanwijzing verstrekte informatie. Gebruiksverantwoordelijken moeten aan de hand van de vastgestelde risico’s bepalen welke maatregelen er getroffen moeten worden in het geval die risico’s zich voordoen, zoals governanceregelingen in die specifieke gebruikscontext in de vorm van onder meer regelingen voor menselijk toezicht overeenkomstig de gebruiksaanwijzing of in de vorm van klachten- en beroepsprocedures, omdat deze een cruciale rol kunnen spelen bij de beperking van risico’s voor de grondrechten in concrete gebruiksgevallen. Na uitvoering van die effectbeoordeling moet de gebruiksverantwoordelijke de relevante markttoezichtautoriteit daarvan in kennis stellen. Gebruiksverantwoordelijken van AI-systemen met een hoog risico kunnen bij de uitvoering van de effectbeoordeling en het ontwerpen van maatregelen voor het geval de risico’s werkelijkheid worden, met name bij gebruik van AI-systemen in de publieke sector, zich voor de inwinning van relevante informatie voor de effectbeoordeling in voorkomend geval tot relevante belanghebbenden wenden, zoals de vertegenwoordigers van groepen personen die waarschijnlijk gevolgen van het AI-systeem zullen ondervinden, alsmede tot onafhankelijke deskundigen en maatschappelijke organisaties. Het Europees Bureau voor artificiële intelligentie (“AI-bureau”) moet een model-vragenlijst ontwikkelen om naleving te vergemakkelijken en de administratieve lasten voor gebruiksverantwoordelijken te verminderen.
(96)
Pentru a se asigura în mod eficient că drepturile fundamentale sunt protejate, implementatorii de sisteme de IA cu grad ridicat de risc care sunt organisme de drept public sau entitățile private care furnizează servicii publice și implementatorii care implementează anumite sisteme de IA cu grad ridicat de risc enumerate într-o anexă la prezentul regulament, cum ar fi entitățile bancare sau de asigurări, ar trebui să efectueze o evaluare a impactului asupra drepturilor fundamentale înainte de a pune aceste sisteme în funcțiune. Serviciile importante pentru persoanele fizice care sunt de natură publică pot fi furnizate și de entități private. Entitățile private care furnizează astfel de servicii publice sunt legați de sarcini de interes public, cum ar fi în domeniul educației, al îngrijirilor de sănătate, al serviciilor sociale, al locuințelor, al administrării justiției. Scopul evaluării impactului asupra drepturilor fundamentale este ca implementatorul să identifice riscurile specifice pentru drepturile persoanelor sau ale grupurilor de persoane care ar putea fi afectate și să identifice măsurile care trebuie luate în cazul materializării riscurilor respective. Evaluarea impactului ar trebui să fie efectuată înainte de implementarea sistemului de IA cu grad ridicat de risc și ar trebui să fie actualizată atunci când implementatorul consideră că oricare dintre factorii relevanți s-au schimbat. Evaluarea impactului ar trebui să identifice procesele relevante ale implementatorului în care sistemul de IA cu grad ridicat de risc va fi utilizat în conformitate cu scopul său preconizat și ar trebui să includă o descriere a perioadei de timp și a frecvenței în care se intenționează utilizarea sistemului, precum și a categoriilor specifice de persoane fizice și grupuri care sunt susceptibile de a fi afectate în contextul specific de utilizare. Evaluarea ar trebui să includă, de asemenea, identificarea riscurilor specifice de prejudiciu care ar putea avea un impact asupra drepturilor fundamentale ale persoanelor sau grupurilor respective. Atunci când efectuează această evaluare, implementatorul ar trebui să țină seama de informațiile relevante pentru o evaluare adecvată a impactului, inclusiv de informațiile furnizate de furnizorul sistemului de IA cu grad ridicat de risc în instrucțiunile de utilizare, dar fără a se limita la aceste informații. Având în vedere riscurile identificate, implementatorii ar trebui să stabilească măsurile care trebuie luate în cazul materializării acestor riscuri, inclusiv, de exemplu, mecanisme de guvernanță în acest context specific de utilizare, cum ar fi mecanisme de supraveghere umană în conformitate cu instrucțiunile de utilizare sau proceduri de tratare a plângerilor și proceduri aferente măsurilor reparatorii, deoarece acestea ar putea fi esențiale pentru atenuarea riscurilor la adresa drepturilor fundamentale în cazuri concrete de utilizare. După efectuarea respectivei evaluări a impactului, implementatorul ar trebui să îi notifice acest lucru autorității relevante de supraveghere a pieței. După caz, pentru a colecta informațiile relevante necesare pentru efectuarea evaluării impactului, implementatorii de sisteme de IA cu grad ridicat de risc, în special atunci când sistemele de IA sunt utilizate în sectorul public, ar putea implica părțile interesate relevante, inclusiv reprezentanții grupurilor de persoane susceptibile de a fi afectate de sistemul de IA, experții independenți și organizațiile societății civile în efectuarea unor astfel de evaluări ale impactului și în conceperea măsurilor care trebuie luate în cazul materializării riscurilor. Oficiul european pentru inteligența artificială (Oficiul pentru IA) ar trebui să elaboreze un model de chestionar pentru a facilita conformitatea și a reduce sarcina administrativă pentru implementatori.
(97)
Het begrip “AI-model voor algemene doeleinden” moet met het oog op de rechtszekerheid duidelijk worden gedefinieerd en worden gescheiden van het begrip “AI-systeem”. De definitie moet gebaseerd zijn op de belangrijkste eigenschappen en kenmerken van AI-modellen voor algemene doeleinden, met name het algemene karakter en het vermogen om op competente wijze een breed scala aan onderscheiden taken uit te voeren. Dit soort modellen wordt getraind met grote hoeveelheden gegevens, via uiteenlopende methoden als self-supervised, unsupervised of reinforcement learning. AI-modellen voor algemene doeleinden kunnen op verschillende manieren in de handel worden gebracht, onder meer via bibliotheken en applicatie-programma-interfaces (API’s), of als rechtstreekse download of fysieke kopie. Deze modellen kunnen nader worden gewijzigd of verfijnd tot nieuwe modellen. AI-modellen zijn weliswaar een essentieel onderdeel van AI-systemen, maar vormen geen AI-systemen op zich. Om een AI-systeem te worden, moeten er aan AI-modellen nog andere componenten worden toegevoegd, bijvoorbeeld een gebruikersinterface. AI-modellen worden doorgaans geïntegreerd in en vormen een onderdeel van AI-systemen. Deze verordening voorziet in specifieke regels voor AI-modellen voor algemene doeleinden en voor AI-modellen voor algemene doeleinden die systeemrisico’s inhouden, hetgeen ook van toepassing dient te zijn als deze modellen geïntegreerd zijn in of deel uitmaken van een AI-systeem. De verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden behoren van toepassing te zijn zodra een AI-model voor algemene doeleinden in de handel wordt gebracht. In het geval een aanbieder van een AI-model voor algemene doeleinden in een eigen AI-systeem dat op de markt wordt aangeboden of in gebruik wordt gesteld, een eigen model integreert, moet dat model worden geacht in de handel te zijn gebracht en dienen de verplichtingen krachtens deze verordening voor modellen derhalve van toepassing blijven naast die voor AI-systemen. De verplichtingen voor modellen behoren evenwel niet van toepassing te zijn indien een eigen model gebruikt wordt voor zuiver interne processen die niet essentieel zijn voor de levering van een product of een dienst aan derden en indien er geen rechten van natuurlijke personen in het geding zijn. AI-modellen voor algemene doeleinden met een systeemrisico moeten gezien hun in potentie aanzienlijk negatieve effecten altijd onderworpen zijn aan de relevante verplichtingen uit hoofde van deze verordening. De definitie mag geen betrekking hebben op AI-modellen die louter voor onderzoeks-, ontwikkelings- en prototypingdoeleinden worden gebruikt alvorens zij in de handel worden gebracht. Dit laat onverlet dat eenmaal een model na gebruik voor voornoemde doeleinden in de handel wordt gebracht, aan deze verordening moet worden voldaan.
(97)
Noțiunea de modele de IA de uz general ar trebui să fie definită în mod clar și separată de noțiunea de sisteme de IA pentru a asigura securitatea juridică. Definiția ar trebui să se bazeze pe caracteristicile funcționale esențiale ale unui model de IA de uz general, în special pe generalitate și pe capabilitatea de a îndeplini în mod competent o gamă largă de sarcini distincte. Aceste modele sunt, de regulă, antrenate pe volume mari de date, prin diverse metode, cum ar fi învățarea autosupravegheată, nesupravegheată sau prin întărire. Modelele de IA de uz general pot fi introduse pe piață în diferite moduri, inclusiv prin biblioteci, interfețe de programare a aplicațiilor (API), sub formă de descărcare directă sau sub formă de copie fizică. Aceste modele pot fi modificate suplimentar sau calibrate și astfel transformate în modele noi. Deși modelele de IA sunt componente esențiale ale sistemelor de IA, ele nu constituie sisteme de IA în sine. Modelele de IA necesită adăugarea de componente suplimentare, cum ar fi, de exemplu, o interfață cu utilizatorul, pentru a deveni sisteme de IA. Modelele de IA sunt, de regulă, integrate în sistemele de IA și fac parte din acestea. Prezentul regulament prevede norme specifice pentru modelele de IA de uz general și pentru modelele de IA de uz general care prezintă riscuri sistemice, norme care ar trebui să se aplice și atunci când aceste modele sunt integrate sau fac parte dintr-un sistem de IA. Ar trebui să se înțeleagă că obligațiile furnizorilor de modele de IA de uz general ar trebui să se aplice odată ce modelele de IA de uz general sunt introduse pe piață. Atunci când furnizorul unui model de IA de uz general integrează un model propriu în propriul sistem de IA care este pus la dispoziție pe piață sau pus în funcțiune, modelul respectiv ar trebui să fie considerat ca fiind introdus pe piață și, prin urmare, obligațiile prevăzute în prezentul regulament pentru modele ar trebui să se aplice în continuare în plus față de cele pentru sistemele de IA. Obligațiile stabilite pentru modele nu ar trebui în niciun caz să se aplice atunci când un model propriu este utilizat pentru procese pur interne care nu sunt esențiale pentru furnizarea unui produs sau a unui serviciu către terți, iar drepturile persoanelor fizice nu sunt afectate. Având în vedere potențialele lor efecte negative semnificative, modelele de IA de uz general cu risc sistemic ar trebui să facă întotdeauna obiectul obligațiilor relevante în temeiul prezentului regulament. Definiția nu ar trebui să acopere modelele de IA utilizate înainte de introducerea lor pe piață în scopul unic al activităților de cercetare, dezvoltare și creare de prototipuri. Acest lucru nu aduce atingere obligației de a se conforma prezentului regulament atunci când, în urma unor astfel de activități, se introduce pe piață un model.
(98)
Hoewel het algemene karakter van een model, onder meer, ook aan de hand van het aantal parameters kan worden bepaald, moeten modellen met ten minste een miljard parameters die via grootschalig self-supervised leren getraind zijn met grote hoeveelheden gegevens, geacht worden een aanzienlijke algemeenheid te vertonen en op competente wijze een breed scala aan onderscheidende taken te kunnen uitvoeren.
(98)
În timp ce generalitatea unui model ar putea fi determinată, printre altele, și de o serie de parametri, ar trebui să se considere că modelele cu cel puțin un miliard de parametri și antrenate cu un volum mare de date utilizând autosupravegherea la scară largă prezintă o generalitate semnificativă și îndeplinesc în mod competent o gamă largă de sarcini distincte.
(99)
Grote generatieve AI-modellen zijn een typisch voorbeeld van AI-modellen voor algemene doeleinden, aangezien ze op flexibele wijze content kunnen genereren in de vorm van bijvoorbeeld tekst, audio, beelden of video, waarmee eenvoudig een breed scala aan onderscheiden taken kan worden uitgevoerd.
(99)
Modelele de IA generative de mari dimensiuni sunt un exemplu tipic de model de IA de uz general, având în vedere că permit generarea flexibilă de conținut, cum ar fi sub formă de text, audio, imagini sau video, care pot răspunde cu ușurință unei game largi de sarcini distincte.
(100)
Indien een AI-model voor algemene doeleinden is geïntegreerd in of deel uitmaakt van een AI-systeem, moet dit systeem als AI-systeem voor algemene doeleinden worden aangemerkt indien het dankzij deze integratie aangewend kan worden voor uiteenlopende doeleinden. Een AI-systeem voor algemene doeleinden kan rechtstreeks worden gebruikt of kan worden geïntegreerd in meerdere andere AI-systemen.
(100)
Atunci când un model de IA de uz general este integrat într-un sistem de IA sau face parte dintr-un astfel de sistem, acest sistem ar trebui să fie considerat a fi un sistem de IA de uz general atunci când, în urma acestei integrări, acest sistem are capabilitatea de a servi unei varietăți de scopuri. Un sistem de IA de uz general poate fi utilizat direct sau poate fi integrat în alte sisteme de IA.
(101)
Aanbieders van AI-modellen voor algemene doeleinden hebben een bijzondere rol en verantwoordelijkheid binnen de AI-waardeketen, aangezien de modellen die zij leveren de basis kunnen vormen voor een reeks systemen verder in de AI-waardeketen, veelal aangeboden door aanbieders verder in de AI-waardeketen, hetgeen om een goed inzicht in de modellen en hun capaciteiten vraagt, zowel qua integratie van de modellen in hun producten als qua naleving van hun verplichtingen uit hoofde van deze of andere verordeningen. Er zijn derhalve evenredige transparantiemaatregelen nodig, zoals opstelling en bijwerking van documentatie en verstrekking van informatie over het AI-model voor algemeen gebruik door de aanbieders verder in de AI-waardeketen. De aanbieder van het AI-model voor algemene doeleinden dient technische documentatie op te stellen en bij te werken om deze op verzoek te kunnen overleggen aan het AI-bureau en de nationale bevoegde autoriteiten. De minimaal in de documentatie op te nemen elementen moeten worden vastgelegd in specifieke bijlagen bij deze verordening. De Commissie moet de bevoegdheid krijgen om die bijlagen in het licht van de technologische ontwikkelingen bij gedelegeerde handelingen te wijzigen.
(101)
Furnizorii de modele de IA de uz general au un rol și o responsabilitate deosebite de-a lungul lanțului valoric al IA, deoarece modelele pe care le furnizează pot constitui baza pentru o serie de sisteme din aval, adesea furnizate de furnizori din aval care au nevoie de o bună înțelegere a modelelor și a capabilităților acestora, atât pentru a permite integrarea unor astfel de modele în produsele lor, cât și pentru a-și îndeplini obligațiile care le revin în temeiul prezentului regulament sau al altor regulamente. Prin urmare, ar trebui să fie stabilite măsuri proporționale de transparență, inclusiv întocmirea și ținerea la zi a documentației, precum și furnizarea de informații privind modelul de IA de uz general pentru utilizarea sa de către furnizorii din aval. Documentația tehnică ar trebui să fie pregătită și ținută la zi de către furnizorul modelului de IA de uz general în scopul de a o pune, la cerere, la dispoziția Oficiului pentru IA și a autorităților naționale competente. Setul minim de elemente care trebuie incluse în această documentație ar trebui să fie stabilit în anexele specifice la prezentul regulament. Comisia ar trebui să fie împuternicită să modifice anexele respective prin intermediul unor acte delegate în funcție de evoluțiile tehnologice.
(102)
Software en gegevens, met inbegrip van modellen, vrijgegeven in het kader van een vrije en opensource licentie op basis waarvan ze vrijelijk kunnen worden gedeeld en gebruikers ze in al dan niet gewijzigde vorm vrijelijk kunnen raadplegen, gebruiken, wijzigen en herdistribueren, kunnen bijdragen tot onderzoek en innovatie op de markt en aanzienlijke groeikansen bieden voor de economie van de Unie. In het kader van vrije en opensource licenties vrijgegeven AI-modellen voor algemene doeleinden moeten worden aangemerkt als hoge transparantie en openheid waarborgend, indien de parameters ervan, met inbegrip van de wegingen, de informatie over de modelarchitectuur en de informatie over het gebruik van het model, openbaar worden gemaakt. Een licentie moet eveneens als vrij en open source worden aangemerkt ingeval gebruikers op basis ervan software en gegevens kunnen exploiteren, kopiëren, verspreiden, bestuderen, wijzigen en verbeteren, met inbegrip van modellen, mits de oorspronkelijke aanbieder van het model vermeld wordt en er identieke of vergelijkbare distributievoorwaarden in acht worden genomen.
(102)
Software-ul și datele, inclusiv modelele, lansate sub licență liberă și cu sursă deschisă care le permite să fie partajate în mod deschis și pe care utilizatorii le pot accesa, utiliza, modifica și redistribui liber sau versiuni modificate ale acestora, pot contribui la cercetare și inovare pe piață și pot oferi oportunități semnificative de creștere pentru economia Uniunii. Ar trebui să se considere că modelele de IA de uz general lansate sub licențe libere și cu sursă deschisă asigură niveluri ridicate de transparență și deschidere dacă parametrii lor, inclusiv ponderile, informațiile privind arhitectura modelului și informațiile privind utilizarea modelului, sunt puși la dispoziția publicului. Licența ar trebui să fie considerată ca fiind liberă și cu sursă deschisă și atunci când le permite utilizatorilor să ruleze, să copieze, să distribuie, să studieze, să modifice și să îmbunătățească software-ul și datele, inclusiv modelele, cu condiția ca furnizorul inițial al modelului să fie menționat și ca termenii de distribuție identici sau comparabili să fie respectați.
(103)
“Vrije en opensource-AI-componenten” staat voor de software en de gegevens, met inbegrip van de modellen en AI-modellen, -instrumenten, -diensten of -processen voor algemene doeleinden van een AI-systeem. Vrije en opensource-AI-componenten kunnen via verschillende kanalen worden aangeboden, inclusief via ontwikkeling op open dataopslagplaatsen. AI-componenten die worden verstrekt tegen betaling of anderszins te gelde worden gemaakt via onder meer verlening van technische ondersteuning of andere diensten met betrekking tot de AI-component, waaronder op een softwareplatform, of via het gebruik van persoonsgegevens om andere redenen dan uitsluitend ter verbetering van de beveiliging, compatibiliteit of interoperabiliteit van de software, met uitzondering van transacties tussen micro-ondernemingen, mogen voor de toepassing van deze verordening niet in aanmerking komen voor de uitzonderingen op vrije en opensource-AI-componenten. Het loutere beschikbaar stellen van AI-componenten via open registers mag niet als tegeldemaking worden aangemerkt.
(103)
Componentele de IA libere și cu sursă deschisă acoperă software-ul și datele, inclusiv modelele și modelele, instrumentele, serviciile sau procesele de IA de uz general ale unui sistem de IA. Componentele de IA libere și cu sursă deschisă pot fi furnizate prin diferite canale, inclusiv prin dezvoltarea lor în depozite deschise. În sensul prezentului regulament, componentele de IA care sunt furnizate contra unui preț sau monetizate în alt mod, inclusiv prin furnizarea de sprijin tehnic sau de alte servicii, inclusiv prin intermediul unei platforme software, legate de componenta de IA, sau utilizarea datelor cu caracter personal din alte motive decât în scopul exclusiv de îmbunătățire a securității, a compatibilității sau a interoperabilității software-ului, cu excepția tranzacțiilor dintre microîntreprinderi, nu ar trebui să beneficieze de excepțiile prevăzute pentru componentele de IA libere și cu sursă deschisă. Punerea la dispoziție a componentelor de IA prin intermediul depozitelor deschise nu ar trebui, în sine, să constituie o monetizare.
(104)
De aanbieders van AI-modellen voor algemene doeleinden die worden vrijgegeven in het kader van een vrije en opensource-licentie en waarvan de parameters, met inbegrip van de wegingen, de informatie over de modelarchitectuur en de informatie over het gebruik van het model, openbaar worden gemaakt, moeten worden onderworpen aan uitzonderingen met betrekking tot de transparantievereisten voor AI-modellen voor algemene doeleinden, tenzij zij geacht kunnen worden een systeemrisico te vertegenwoordigen. In dat geval mag de omstandigheid dat het model transparant is en vergezeld gaat van een opensource-licentie niet als voldoende reden worden aangemerkt om de verplichtingen uit hoofde van deze verordening niet na te leven. Aangezien het geen vanzelfsprekendheid is dat er bij de beschikbaarstelling van AI-modellen voor algemene doeleinden middels vrije en opensource-licenties substantiële informatie beschikbaar komt over de voor de training of verfijning van het model gebruikte datasets of over de wijze waarop daarbij gezorgd is voor naleving van het auteursrecht, mag de uitzondering voor AI-modellen voor algemene doeleinden wat betreft de naleving van de transparantievereisten in elk geval geen betrekking hebben op de verplichting om een samenvatting op te stellen van de content die voor de training van het model is gebruikt en ook niet op de verplichting tot invoering van een beleid ter naleving van het Unierecht inzake auteursrechten en dan met name ter vaststelling en naleving van het voorbehoud van rechten op grond van artikel 4, lid 3, van Richtlijn (EU) 2019/790 van het Europees Parlement en de Raad (40).
(104)
Furnizorii de modele de IA de uz general care sunt lansate sub licență liberă și cu sursă deschisă și ai căror parametri, inclusiv ponderile, informațiile privind arhitectura modelului și informațiile privind utilizarea modelului, sunt puși la dispoziția publicului ar trebui să facă obiectul unor excepții în ceea ce privește cerințele legate de transparență impuse modelelor de IA de uz general, cu excepția cazului în care se poate considera că prezintă un risc sistemic, caz în care circumstanța că modelul este transparent și însoțit de o licență cu sursă deschisă nu ar trebui să fie considerată un motiv suficient pentru a exclude respectarea obligațiilor prevăzute în prezentul regulament. În orice caz, având în vedere că lansarea modelelor de IA de uz general sub licență liberă și cu sursă deschisă nu dezvăluie neapărat informații substanțiale cu privire la setul de date utilizat pentru antrenarea sau calibrarea modelului și la modul în care a fost astfel asigurată conformitatea cu dreptul privind drepturile de autor, excepția prevăzută pentru modelele de IA de uz general de la respectarea cerințelor legate de transparență nu ar trebui să se refere la obligația de a prezenta un rezumat cu privire la conținutul utilizat pentru antrenarea modelelor și la obligația de a institui o politică de respectare a dreptului Uniunii privind drepturile de autor, în special pentru a identifica și a respecta rezervarea drepturilor în temeiul articolului 4 alineatul (3) din Directiva (UE) 2019/790 a Parlamentului European și a Consiliului (40).
(105)
AI-modellen voor algemeen gebruik, met name grote generatieve AI-modellen, die tekst, beelden en andere content kunnen genereren, bieden unieke innovatiemogelijkheden, maar leiden ook tot uitdagingen voor kunstenaars, auteurs en andere makers en de manier waarop hun creatieve content wordt gecreëerd, verspreid, gebruikt en geconsumeerd. Voor de ontwikkeling en opleiding van dergelijke modellen is toegang nodig tot enorme hoeveelheden tekst, afbeeldingen, video’s en andere data. In dit verband kan voor het vergaren en analyseren van die mogelijkerwijs door het auteursrecht en naburige rechten beschermde content, op grote schaal tekst- en dataminingtechnieken worden gebruikt. Voor elk gebruik van auteursrechtelijk beschermde content is toestemming van de betrokken rechthebbende vereist, tenzij er relevante uitzonderingen en beperkingen op het auteursrecht gelden. Bij Richtlijn (EU) 2019/790 zijn uitzonderingen en beperkingen ingevoerd die onder bepaalde voorwaarden toestaan dat werken of andere materialen voor doeleinden van tekst- en datamining worden gereproduceerd of geëxtraheerd. Op grond van deze regels kunnen rechthebbenden ervoor kiezen hun rechten op hun werken of andere materialen voor te behouden teneinde tekst- en datamining te voorkomen, tenzij dit gebeurt voor doeleinden van wetenschappelijk onderzoek. Indien opt-outrechten uitdrukkelijk en op passende wijze zijn voorbehouden, dient een aanbieder van AI-modellen voor algemene doeleinden indien hij de werken voor tekst- en datamining wil gebruiken, toestemming aan de rechthebbenden te vragen.
(105)
Modelele de IA de uz general, în special modelele de IA generative de mari dimensiuni, capabile să genereze text, imagini și alte conținuturi, prezintă oportunități unice de inovare, dar și provocări pentru artiști, autori și alți creatori și pentru modul în care conținutul lor creativ este creat, distribuit, utilizat și consumat. Dezvoltarea și antrenarea unor astfel de modele necesită acces la volume mari de text, imagini, materiale video și alte date. Tehnicile de extragere a textului și a datelor pot fi utilizate pe scară largă în acest context pentru obținerea și analizarea unui astfel de conținut, care poate fi protejat prin drepturi de autor și drepturi conexe. Orice utilizare a unui conținut protejat prin drepturi de autor necesită autorizare din partea titularului de drepturi în cauză, cu excepția cazului în care se aplică excepții și limitări relevante ale drepturilor de autor. Directiva (UE) 2019/790 a introdus excepții și limitări care permit reproduceri și extrageri ale operelor sau ale altor obiecte protejate, în scopul extragerii de text și de date, în anumite condiții. În temeiul acestor norme, titularii de drepturi pot alege să își rezerve drepturile asupra operelor lor sau asupra altor obiecte protejate ale lor pentru a preveni extragerea de text și de date, cu excepția cazului în care acest lucru se face în scopul cercetării științifice. În cazul în care drepturile de neparticipare au fost rezervate în mod expres într-un mod adecvat, furnizorii de modele de IA de uz general trebuie să obțină o autorizație din partea titularilor de drepturi dacă doresc să efectueze extragere de text și de date din astfel de opere.
(106)
Aanbieders die AI-modellen voor algemene doeleinden in de Unie in de handel brengen, zijn gehouden de naleving van de desbetreffende verplichtingen in deze verordening te waarborgen. Zij moeten daartoe een beleid invoeren ter naleving van het Unierecht inzake auteursrechten en naburige rechten, met name om kennis te hebben van het door rechthebbenden geuite voorbehoud van rechten op grond van artikel 4, lid 3, van Richtlijn (EU) 2019/790 en dit na te leven. Aanbieders die in de Unie een AI-model voor algemene doeleinden in de handel brengen, zijn hiertoe verplicht, ongeacht de jurisdictie waarin de auteursrechtelijke relevante handelingen plaatsvinden die helpen die AI-modellen voor algemene doeleinden te trainen. Alleen op deze manier kan gezorgd worden voor een gelijk speelveld voor aanbieders van AI-modellen voor algemene doeleinden, waar geen enkele aanbieder zich een concurrentievoordeel op de Uniemarkt mag kunnen verschaffen met lagere auteursrechtelijke normen dan de in de Unie toepasselijke normen.
(106)
Furnizorii care introduc modele de IA de uz general pe piața Uniunii ar trebui să asigure respectarea obligațiilor relevante prevăzute în prezentul regulament. În acest scop, furnizorii de modele de IA de uz general ar trebui să instituie o politică de respectare a dreptului Uniunii privind drepturile de autor și drepturile conexe, în special pentru a identifica și a respecta rezervarea drepturilor exprimată de titularii de drepturi în temeiul articolului 4 alineatul (3) din Directiva (UE) 2019/790. Orice furnizor care introduce un model de IA de uz general pe piața Uniunii ar trebui să respecte această obligație, indiferent de jurisdicția în care au loc actele relevante pentru drepturile de autor care stau la baza antrenării respectivelor modele de IA de uz general. Acest lucru este necesar pentru a asigura condiții de concurență echitabile între furnizorii de modele de IA de uz general, în care niciun furnizor nu ar trebui să poată obține un avantaj competitiv pe piața Uniunii prin aplicarea unor standarde privind drepturile de autor mai scăzute decât cele prevăzute în Uniune.
(107)
Voor een grotere transparantie ten aanzien van de bij de pre-training en training van AI-modellen voor algemene doeleinden gebruikte data, met inbegrip van door het auteursrecht beschermde tekst en data, is het passend dat aanbieders van dergelijke modellen een voldoende gedetailleerde samenvatting maken en publiceren van de voor de training van het AI-model voor algemene doeleinden gebruikte content. Terdege rekening houdend met de noodzaak tot bescherming van bedrijfsgeheimen en vertrouwelijke bedrijfsinformatie moet deze samenvatting breed van karakter zijn in plaats van technisch gedetailleerd, teneinde partijen met legitieme belangen, waaronder houders van auteursrechten, in staat te stellen hun rechten uit hoofde van het Unierecht uit te oefenen en te handhaven. Zo kan er bijvoorbeeld een opsomming worden gegeven van de belangrijkste gegevensverzamelingen of -reeksen waarmee het model is getraind, zoals grote particuliere of openbare databanken of gegevensarchieven, en kan een uitleg in de vorm van een relaas worden gegeven over andere gebruikte gegevensbronnen. Het is passend dat het AI-bureau een model voor die samenvatting verstrekt, dat een eenvoudig en doeltreffend model dient te zijn waarmee de aanbieder de vereiste samenvatting in de vorm van een relaas verstrekken kan.
(107)
Pentru a spori transparența datelor utilizate în preantrenarea și antrenarea modelelor de IA de uz general, inclusiv a textului și a datelor protejate de dreptul privind drepturile de autor, este adecvat ca furnizorii de astfel de modele să elaboreze și să pună la dispoziția publicului un rezumat suficient de detaliat al conținutului utilizat pentru antrenarea modelului de IA de uz general. Ținând seama în mod corespunzător de necesitatea de a proteja secretele comerciale și informațiile comerciale confidențiale, acest rezumat ar trebui să aibă un domeniu de aplicare în general cuprinzător, în loc să fie detaliat din punct de vedere tehnic, pentru a facilita părților cu interese legitime, inclusiv titularilor de drepturi de autor, să își exercite drepturile și să asigure respectarea drepturilor lor în temeiul dreptului Uniunii, de exemplu prin enumerarea principalelor colecții sau seturi de date folosite la antrenarea modelului, cum ar fi bazele de date sau arhivele de date de mari dimensiuni, private sau publice, și prin furnizarea unei explicații narative cu privire la alte surse de date utilizate. Este oportun ca Oficiul pentru IA să furnizeze un model pentru rezumat, care ar trebui să fie simplu, eficace și să permită furnizorului să furnizeze rezumatul solicitat sub formă narativă.
(108)
Wat betreft de verplichtingen van aanbieders van AI-modellen voor algemene doeleinden om een beleid in te voeren om aan het recht van de Unie inzake auteursrecht te voldoen en om een samenvatting van de voor de training gebruikte content te publiceren, moet het AI-bureau controleren of de aanbieder aan die verplichtingen voldoet, zonder evenwel geval voor geval de trainingsdata te controleren of te beoordelen qua naleving van het auteursrecht. Deze verordening doet geen afbreuk aan de handhaving van de auteursrechtregels krachtens het Unierecht.
(108)
În ceea ce privește obligațiile impuse furnizorilor de modele de IA de uz general de a institui o politică de respectare a dreptul Uniunii privind drepturile de autor și de a pune la dispoziția publicului un rezumat al conținutului utilizat pentru antrenare, Oficiul pentru IA ar trebui să monitorizeze dacă furnizorul și-a îndeplinit obligațiile respective fără a verifica sau a efectua o evaluare operă cu operă a datelor de antrenament în ceea ce privește respectarea drepturilor de autor. Prezentul regulament nu aduce atingere aplicării normelor în materie de drepturi de autor prevăzute în dreptul Uniunii.
(109)
De naleving van de verplichtingen van aanbieders van AI-modellen voor algemene doeleinden moet evenredig zijn aan en in verhouding staan tot het soort modelaanbieder, waarbij personen die modellen ontwikkelen of gebruiken voor niet-professioneel of wetenschappelijk onderzoek, van de verplichtingen zijn uitgesloten maar wel moeten worden aangemoedigd deze verplichtingen vrijwillig te omarmen. Onverminderd het recht van de Unie inzake auteursrechten moet qua naleving van die verplichtingen terdege rekening worden gehouden met de omvang van de aanbieder en moeten er voor kmo’s, waaronder start-ups, vereenvoudigde wijzen van naleving mogelijk zijn die geen buitensporige kosten mogen meebrengen en het gebruik van dergelijke modellen niet mogen ontmoedigen. Bij wijziging of verfijning van een model moeten de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden beperkt blijven tot die wijziging of verfijning, bijvoorbeeld door voor te schrijven dat de reeds bestaande technische documentatie louter aangevuld wordt met informatie over de wijzigingen, met inbegrip van nieuwe trainingsdatabronnen, als middel om te voldoen aan de waardeketenverplichtingen krachtens deze verordening.
(109)
Respectarea obligațiilor aplicabile furnizorilor de modele de IA de uz general ar trebui să fie corespunzătoare și proporțională cu tipul de furnizor de model, excluzând necesitatea respectării pentru persoanele care dezvoltă sau utilizează modele în alte scopuri decât cele profesionale sau de cercetare științifică, care ar trebui totuși să fie încurajate să respecte în mod voluntar aceste cerințe. Fără a aduce atingere dreptului Uniunii privind drepturile de autor, respectarea obligațiilor respective ar trebui să țină seama în mod corespunzător de dimensiunea furnizorului și să permită modalități simplificate de asigurare a respectării cerințelor pentru IMM-uri, inclusiv pentru întreprinderile nou-înființate, care nu ar trebui să reprezinte un cost excesiv și să descurajeze utilizarea unor astfel de modele. În cazul unei modificări sau calibrări a unui model, obligațiile furnizorilor de modele de IA de uz general ar trebui să se limiteze la modificarea sau calibrarea respectivă, de exemplu prin completarea documentației tehnice deja existente cu informații privind modificările, inclusiv noi surse de date de antrenament, ca mijloc de respectare a obligațiilor privind lanțul valoric prevăzute în prezentul regulament.
(110)
AI-modellen voor algemene doeleinden kunnen systeemrisico’s met zich meebrengen, waaronder feitelijke of redelijkerwijs te voorziene negatieve effecten die verband houden met zware ongevallen, verstoringen van kritieke sectoren en ernstige gevolgen voor de volksgezondheid en de openbare veiligheid, allerhande feitelijke of redelijkerwijs voorzienbare negatieve effecten op democratische processen en de openbare en economische veiligheid, alsmede de verspreiding van illegale, valse of discriminerende content. Systeemrisico’s nemen logischerwijs toe naargelang de capaciteiten en het bereik van een model groter zijn, kunnen zich voordoen gedurende de gehele levenscyclus van het model en worden beïnvloed door elementen als misbruik van het model, de betrouwbaarheid, billijkheid, beveiliging en mate van autonomie ervan, alsmede door de toegang van het model tot instrumenten, nieuwe of gecombineerde modaliteiten, introductie- en distributiestrategieën, en door het potentieel om waarborgen te omzeilen en andere factoren. Internationaal is bij de aanpak van de problematiek tot dusver met name gebleken dat aandacht moet worden besteed aan de risico’s die voortvloeien uit mogelijk opzettelijk misbruik of uit onbedoelde problemen met de controle op de afstemming op wat de mens met het model beoogt; chemische, biologische, radiologische en nucleaire risico’s, zoals de manieren waarop belemmeringen op de toegang kunnen worden verlaagd, onder meer voor doeleinden van wapenontwikkeling, van verwerving van wapenontwerpen, en van wapengebruik, offensieve cybercapaciteiten, zoals manieren om kwetsbaarheden op te sporen, te exploiteren of operationeel te gebruiken; de effecten van interactie en het gebruik van instrumenten, waaronder bijvoorbeeld de capaciteit om fysieke systemen te controleren en kritieke infrastructuur te verstoren; het risico dat modellen kopieën van zichzelf maken, zichzelf repliceren, of andere modellen trainen; de manieren waarop modellen kunnen leiden tot schadelijke vooringenomenheid en discriminatie, met alle risico’s voor individuen, gemeenschappen of samenlevingen van dien; de facilitering van desinformatie of privacyschendingen die een bedreiging vormen voor de democratische rechtsorde en de mensenrechten; het risico dat een bepaalde gebeurtenis kan leiden tot een kettingreactie met aanzienlijke negatieve effecten op een hele stad, een heel vakgebied of een hele gemeenschap.
(110)
Modelele de IA de uz general ar putea prezenta riscuri sistemice care includ, printre altele, orice efecte negative reale sau previzibile în mod rezonabil în legătură cu accidente majore, perturbări ale sectoarelor critice și consecințe grave pentru sănătatea și siguranța publică, orice efecte negative reale sau previzibile în mod rezonabil asupra proceselor democratice, asupra securității publice și economice, diseminarea de conținut ilegal, fals sau discriminatoriu. Riscurile sistemice ar trebui să fie înțelese ca crescând odată cu capabilitățile modelului și cu amploarea modelului, pot apărea de-a lungul întregului ciclu de viață al modelului și sunt influențate de condițiile de utilizare necorespunzătoare, de fiabilitatea modelului, de echitatea modelului și de securitatea modelului, de nivelul de autonomie a modelului, de accesul său la instrumente, de modalitățile noi sau combinate, de strategiile de lansare și distribuție, de potențialul de eliminare a mecanismelor de protecție și de alți factori. În special, abordările internaționale au identificat până în prezent necesitatea de a acorda atenție riscurilor generate de potențialele utilizări necorespunzătoare intenționate sau de problemele neintenționate de control legate de alinierea la intenția umană; riscurilor chimice, biologice, radiologice și nucleare, cum ar fi modalitățile de reducere a barierelor la intrare, inclusiv pentru dezvoltarea, proiectarea, achiziționarea sau utilizarea de arme; capabilităților cibernetice ofensive, cum ar fi modalitățile care permit descoperirea, exploatarea sau utilizarea operațională a vulnerabilităților; efectelor interacțiunii și ale utilizării instrumentelor, inclusiv, de exemplu, capacitatea de a controla sistemele fizice și de a interfera cu infrastructura critică; riscurilor legate de posibilitatea ca modelele să facă copii după ele însele sau să se „autoreproducă” ori să antreneze alte modele; modurilor în care modelele pot da naștere unor prejudecăți dăunătoare și discriminării cu riscuri pentru indivizi, comunități sau societăți; facilitării dezinformării sau prejudicierii vieții private cu amenințări la adresa valorilor democratice și a drepturilor omului; riscului ca un anumit eveniment să conducă la o reacție în lanț cu efecte negative considerabile care ar putea afecta până la un întreg oraș, o întreagă activitate de domeniu sau o întreagă comunitate.
(111)
Het strekt tot aanbeveling een methodiek te ontwikkelen voor de classificatie van AI-modellen voor algemene doeleinden als AI-model voor algemene doeleinden met een systeemrisico. Systeemrisico’s zijn het gevolg van bijzonder hoge capaciteiten, reden waarom een AI-model voor algemene doeleinden geacht moet worden systeemrisico’s te vertegenwoordigen indien het capaciteiten met een grote impact heeft, dewelke als zodanig wordt vastgesteld op basis van passende technische instrumenten en methodieken, of indien het vanwege zijn bereik aanzienlijke gevolgen heeft voor de interne markt. “Capaciteiten met een grote impact” in AI-modellen voor algemene doeleinden: capaciteiten die overeenkomen met of groter zijn dan de capaciteiten die worden opgetekend bij de meest geavanceerde AI-modellen voor algemene doeleinden; het volledige scala aan mogelijkheden binnen een model wordt pas duidelijker eenmaal het in de handel is gebracht of gebruiksverantwoordelijken met het model werken. Volgens de stand van de techniek op het moment van inwerkingtreding van deze verordening is de voor de training van het AI-model voor algemene doeleinden gebruikte cumulatieve rekeninput, gemeten in zwevendekommabewerkingen, een van de relevante benaderingen voor modelcapaciteiten. De voor het trainen gebruikte cumulatieve rekeninput bevat het totaal aan voor de activiteiten en methoden ter verbetering van de capaciteiten van het model gebruikte rekeninput voorafgaand aan het inzetten ervan, zoals pre-training, het genereren van synthetische gegevens en verfijning. Er moet derhalve een initiële drempel voor zwevendekommabewerkingen worden vastgesteld, die, indien een AI-model voor algemene doeleinden daaraan voldoet, leidt tot de aanname dat het model een AI-model voor algemene doeleinden met systeemrisico’s is. Deze drempel moet in de loop van de tijd worden aangepast aan de technologische en industriële vooruitgang, zoals betere algoritmes of efficiëntere hardware, en moet worden aangevuld met modelcapaciteit-benchmarks en -indicatoren. Om deze vooruitgang te kennen, moet het AI-bureau samenwerken met de wetenschappelijke gemeenschap, het bedrijfsleven, het maatschappelijk middenveld en andere deskundigen. Drempelwaarden en ook instrumenten en benchmarks ter beoordeling van capaciteiten met een grote impact, moeten gedegen kunnen voorspellen in hoeverre een AI-model voor algemene doeleinden van algemene aard is, wat de capaciteiten ervan zijn en welk systeemrisico aan het model kleeft. Daarnaast zouden de drempelwaarden en de instrumenten en benchmarks ter beoordeling van capaciteiten met een grote impact, rekening kunnen houden met de wijze waarop het model in de handel zal worden gebracht of het aantal gebruikers waarvoor het gevolgen kan hebben. Ter aanvulling van dit systeem moet de Commissie de mogelijkheid hebben om individuele besluiten te nemen tot aanmerking van een dergelijk model als AI-model voor algemene doeleinden met een systeemrisico, in het geval wordt vastgesteld dat een AI-model voor algemene doeleinden mogelijkheden of een effect heeft dat gelijkwaardig is aan die welke onder de vastgestelde drempel vallen. Dat besluit moet worden genomen op basis van een algemene beoordeling van de in een bijlage bij deze verordening vastgestelde criteria voor de aanwijzing van een AI-model voor algemene doeleinden met een systeemrisico, zoals de kwaliteit of omvang van de trainingsdataset, het aantal zakelijke en eindgebruikers van het model, de input- en outputmodaliteiten ervan, de mate van autonomie en schaalbaarheid ervan, of de instrumenten waartoe het toegang heeft. Als een aanbieder wiens model is aangewezen als AI-model voor algemene doeleinden met een systeemrisico een met redenen omkleed verzoek indient, dient de Commissie daarmee rekening te houden en kan zij besluiten opnieuw te beoordelen of het AI-model voor algemene doeleinden nog steeds wordt beschouwd als een AI-model dat systeemrisico’s vertoont.
(111)
Este oportun să se stabilească o metodologie pentru clasificarea modelelor de IA de uz general ca modele de IA de uz general cu riscuri sistemice. Întrucât riscurile sistemice rezultă din capabilități deosebit de ridicate, ar trebui să se considere că un model de IA de uz general prezintă riscuri sistemice dacă are capabilități cu impact ridicat, evaluate pe baza unor instrumente și metodologii tehnice adecvate sau dacă are un impact semnificativ asupra pieței interne din cauza amplorii sale. Capabilități cu impact ridicat în modelele de IA de uz general înseamnă capabilități care corespund capabilităților înregistrate în cele mai avansate modele de IA de uz general sau depășesc capabilitățile respective. Întreaga gamă de capabilități ale unui model ar putea fi mai bine înțeleasă după introducerea sa pe piață sau atunci când implementatorii interacționează cu modelul. În conformitate cu stadiul actual al tehnologiei la momentul intrării în vigoare a prezentului regulament, volumul cumulat de calcul utilizat pentru antrenarea modelului de IA de uz general măsurat în operații în virgulă mobilă este una dintre aproximările relevante pentru capabilitățile modelului. Volumul cumulat de calcul utilizat pentru antrenare include calculul utilizat pentru toate activitățile și metodele menite să consolideze capabilitățile modelului înainte de implementare, cum ar fi preantrenarea, generarea de date sintetice și calibrarea. Prin urmare, ar trebui să fie stabilit un prag inițial de operații în virgulă mobilă, care, dacă este atins de un model de IA de uz general, conduce la prezumția că modelul este un model de IA de uz general cu riscuri sistemice. Acest prag ar trebui să fie ajustat în timp pentru a reflecta schimbările tehnologice și industriale, cum ar fi îmbunătățirile algoritmice sau eficiența hardware sporită, și ar trebui să fie completat cu valori de referință și indicatori pentru capabilitatea modelului. În acest scop, Oficiul pentru IA ar trebui să colaboreze cu comunitatea științifică, cu industria, cu societatea civilă și cu alți experți. Pragurile, precum și instrumentele și valorile de referință pentru evaluarea capabilităților cu impact ridicat ar trebui să fie indicatori puternici ai generalității, ai capabilităților modelului și ai riscului sistemic asociat modelelor de IA de uz general și ar putea lua în considerare modul în care modelul va fi introdus pe piață sau numărul de utilizatori pe care îi poate afecta. Pentru a completa acest sistem, Comisia ar trebui să aibă posibilitatea de a lua decizii individuale de desemnare a unui model de IA de uz general ca model de IA de uz general cu risc sistemic dacă se constată că un astfel de model are capabilități sau un impact echivalent cu cele acoperite de pragul stabilit. Decizia respectivă ar trebui luată pe baza unei evaluări globale a criteriilor pentru desemnarea unui model de IA de uz general cu risc sistemic prevăzute într-o anexă la prezentul regulament, cum ar fi calitatea sau dimensiunea setului de date de antrenament, numărul de utilizatori comerciali și finali, modalitățile referitoare la datele de intrare și de ieșire ale modelului, nivelul său de autonomie și de scalabilitate sau instrumentele la care are acces. La cererea motivată a unui furnizor al cărui model a fost desemnat drept model de IA de uz general cu risc sistemic, Comisia ar trebui să țină seama de cerere și poate decide să reevalueze dacă modelul de IA de uz general poate fi considerat în continuare ca prezentând riscuri sistemice.
(112)
Het is tevens noodzakelijk tot een procedure te komen voor de classificatie van AI-modellen voor algemene doeleinden met een systeemrisico. Een AI-model voor algemeen gebruik dat aan de toepasselijke drempel voor capaciteiten met een grote impact voldoet, dient als AI-model voor algemene doeleinden met een systeemrisico te worden aangemerkt. De aanbieder behoort uiterlijk twee weken nadat aan de vereisten is voldaan of nadat bekend is geworden dat een AI-model voor algemene doeleinden voldoet aan de vereisten die tot het vermoeden leiden, het AI-bureau daarvan in kennis te stellen. Dit is met name relevant met betrekking tot de drempel van zwevendekommabewerkingen, omdat de training van AI-modellen voor algemene doeleinden uitgebreide planning vergt met onder meer voorafgaande toewijzing van rekeninputmiddelen, waardoor aanbieders van AI-modellen voor algemene doeleinden reeds vóór voltooiing van de training weten kunnen of hun model aan de drempel zal voldoen. In het kader van die kennisgeving moet de aanbieder kunnen aantonen dat een AI-model voor algemene doeleinden dankzij zijn specifieke kenmerken bij wijze van uitzondering geen systeemrisico’s meebrengt en dat het dus niet als AI-model voor algemene doeleinden met systeemrisico’s mag worden aangemerkt. Het AI-bureau kan dankzij die informatie anticiperen op het in de handel brengen van AI-modellen voor algemene doeleinden met systeemrisico’s, en de aanbieders kunnen reeds in een vroeg stadium met het AI-bureau in contact treden. Die informatie is met name van belang met betrekking tot AI-modellen voor algemene doeleinden waarvan het de bedoeling is deze als open source vrij te geven, want eenmaal als het opensourcemodel is vrijgegeven, kan het moeilijker zijn de nodige maatregelen ter naleving van de verplichtingen uit hoofde van deze verordening te treffen.
(112)
De asemenea, este necesar să se clarifice o procedură pentru clasificarea unui model de IA de uz general cu riscuri sistemice. Un model de IA de uz general care respectă pragul aplicabil pentru capabilitățile cu impact ridicat ar trebui să fie prezumat ca fiind un model de IA de uz general cu risc sistemic. Furnizorul ar trebui să notifice Oficiul pentru IA în termen de cel mult două săptămâni de la îndeplinirea cerințelor sau de la data la care devine cunoscut faptul că un model de IA de uz general va îndeplini cerințele care conduc la prezumția respectivă. Acest lucru este deosebit de relevant în legătură cu pragul de operații în virgulă mobilă, deoarece antrenarea modelelor de IA de uz general necesită o planificare considerabilă, care include alocarea în avans a resurselor de calcul și, prin urmare, furnizorii de modele de IA de uz general sunt în măsură să știe dacă modelul lor ar atinge pragul înainte de finalizarea antrenării. În contextul notificării respective, furnizorul ar trebui să poată demonstra că, având în vedere caracteristicile sale specifice, un model de IA de uz general nu prezintă, în mod excepțional, riscuri sistemice și că, prin urmare, nu ar trebui să fie clasificat drept model de IA de uz general cu riscuri sistemice. Aceste informații sunt valoroase deoarece Oficiul pentru IA poate să anticipeze introducerea pe piață a modelelor de IA de uz general cu riscuri sistemice, iar furnizorii pot începe să colaboreze cu Oficiul pentru IA din timp. Aceste informații sunt deosebit de importante în ceea ce privește modelele de IA de uz general care sunt planificate să fie lansate ca sursă deschisă, având în vedere că, după lansarea modelului cu sursă deschisă, măsurile necesare pentru a asigura respectarea obligațiilor prevăzute în prezentul regulament pot fi mai dificil de pus în aplicare.
(113)
Indien de Commissie kennis krijgt van het feit dat een AI-model voor algemene doeleinden voldoet aan de vereisten om als AI-model voor algemene doeleinden met een systeemrisico te worden aangemerkt, terwijl dat eerder niet bekend was of de betrokken aanbieder de Commissie kennisgeving had gedaan, moet de Commissie de bevoegdheid hebben dit model alsnog als zodanig aan te merken. Naast de monitoringactiviteiten van het AI-bureau moet er een systeem van gekwalificeerde waarschuwingen komen dat ervoor zorgt dat het AI-bureau door het wetenschappelijk panel in kennis wordt gesteld van AI-modellen voor algemene doeleinden die mogelijk als AI-modellen voor algemene doeleinden met een systeemrisico moeten worden geclassificeerd.
(113)
În cazul în care Comisia constată că un model de IA de uz general îndeplinește cerințele de clasificare ca model de IA de uz general cu risc sistemic, lucru care anterior fie nu fusese cunoscut, fie nu fusese notificat Comisiei de furnizorul relevant, Comisia ar trebui să fie împuternicită să îl desemneze ca atare. Un sistem de alerte calificate ar trebui să asigure faptul că Oficiul pentru IA este informat de către grupul științific cu privire la modele de IA de uz general care ar putea fi clasificate drept modele de IA de uz general cu risc sistemic, pe lângă activitățile de monitorizare ale Oficiului pentru IA.
(114)
De aanbieders van AI-modellen voor algemene doeleinden die systeemrisico’s inhouden, moeten, naast de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden, onderworpen worden aan verplichtingen die gericht zijn op het identificeren en beperken van die risico’s en op waarborging van een passend niveau van cyberbeveiliging, ongeacht of het model een op zichzelf staand model is of ingebed in een AI-systeem of in een product. Aanbieders moeten met het oog op verwezenlijking van deze doelstellingen, bij deze verordening verplicht worden de nodige modelevaluaties uit te voeren, met name voordat een model voor het eerst in de handel wordt gebracht, in het kader waarvan onder meer tests gericht op het ontdekken van kwetsbaarheden in het model moeten worden uitgevoerd, alsmede, in voorkomend geval, uiteenlopende interne of onafhankelijke externe tests. Daarnaast moeten aanbieders van AI-modellen voor algemene doeleinden met systeemrisico’s die systeemrisico’s voortdurend analyseren en binnen de perken houden via onder meer beleid voor risicobeheer in de vorm van bijvoorbeeld verantwoordings- en governanceprocessen, monitoring na het in de handel brengen van het model, passende maatregelen gedurende de gehele levenscyclus, en samenwerking met relevante actoren in de AI-waardeketen.
(114)
Furnizorii de modele de IA de uz general care prezintă riscuri sistemice ar trebui să facă obiectul, pe lângă obligațiile prevăzute pentru furnizorii de modele de IA de uz general, unor obligații menite să identifice și să atenueze riscurile respective și să asigure un nivel adecvat de protecție în materie de securitate cibernetică, indiferent dacă este furnizat ca model de sine stătător sau încorporat într-un sistem sau într-un produs de IA. Pentru a atinge obiectivele respective, prezentul regulament ar trebui să impună furnizorilor să efectueze evaluările necesare ale modelelor, în special înainte de prima lor introducere pe piață, inclusiv efectuarea și documentarea testării contradictorii a modelelor, inclusiv, după caz, prin testări interne sau externe independente. În plus, furnizorii de modele de IA de uz general cu riscuri sistemice ar trebui să evalueze și să atenueze în permanență riscurile sistemice, inclusiv, de exemplu, prin instituirea unor politici de gestionare a riscurilor, cum ar fi procesele de asigurare a răspunderii și de guvernanță, prin punerea în aplicare a monitorizării ulterioare introducerii pe piață, prin luarea de măsuri adecvate de-a lungul întregului ciclu de viață al modelului și prin cooperarea cu actorii relevanți de-a lungul lanțului valoric al IA.
(115)
Aanbieders van AI-modellen voor algemene doeleinden met systeemrisico’s dienen mogelijke systeemrisico’s te beoordelen en te beperken. Indien er zich als gevolg van de ontwikkeling of het gebruik van een AI-model voor algemene doeleinden die systeemrisico’s kan inhouden een ernstig incident voordoet, ondanks inspanningen om met het model verband houdende risico’s te identificeren en te voorkomen, moet de aanbieder van het AI-model voor algemene doeleinden onverwijld het verdere verloop van het incident beginnen te volgen en de Commissie en de nationale bevoegde autoriteiten alle relevante informatie en mogelijke corrigerende maatregelen melden. Bovendien moeten aanbieders zorgen voor een passend niveau van cyberbeveiliging voor het model en de fysieke infrastructuur ervan, indien van toepassing, gedurende de gehele levenscyclus van het model. Bij de cyberbeveiliging in verband met systeemrisico’s als gevolg van kwaadwillig gebruik of aanvallen, moet terdege rekening worden gehouden met onopzettelijke modellekken, ongeoorloofde vrijgave, omzeiling van veiligheidsmaatregelen, alsmede met bescherming tegen cyberaanvallen, ongeoorloofde toegang, en modeldiefstal. Die bescherming kan worden geboden door modelwegingen, algoritmen, servers en datasets te beveiligen, bijvoorbeeld met operationele beveiligingsmaatregelen voor informatie, specifiek cyberbeveiligingsbeleid, passende technische en bewezen oplossingen, alsmede met controles op cyber- en fysieke toegang, afgestemd op de relevante omstandigheden en risico’s.
(115)
Furnizorii de modele de IA de uz general cu riscuri sistemice ar trebui să evalueze și să atenueze posibilele riscuri sistemice. Dacă, în pofida eforturilor de identificare și prevenire a riscurilor legate de un model de IA de uz general care poate prezenta riscuri sistemice, dezvoltarea sau utilizarea modelului cauzează un incident grav, furnizorul modelului de IA de uz general ar trebui să urmărească fără întârzieri nejustificate incidentul și să raporteze Comisiei și autorităților naționale competente orice informații relevante și posibile măsuri corective. În plus, furnizorii ar trebui să asigure un nivel adecvat de protecție în materie de securitate cibernetică pentru model și infrastructura fizică a acestuia, dacă este cazul, de-a lungul întregului ciclu de viață al modelului. Protecția în materie de securitate cibernetică legată de riscurile sistemice asociate utilizării răuvoitoare sau atacurilor ar trebui să ia în considerare în mod corespunzător scurgerile accidentale de modele, lansările neautorizate, eludarea măsurilor de siguranță și apărarea împotriva atacurilor cibernetice, a accesului neautorizat sau a furtului de modele. Această protecție ar putea fi facilitată prin securizarea ponderilor modelelor, a algoritmilor, a serverelor și a seturilor de date, de exemplu prin măsuri de securitate operațională pentru securitatea informațiilor, politici specifice în materie de securitate cibernetică, soluții tehnice și consacrate adecvate și controale ale accesului cibernetic și fizic, adecvate circumstanțelor relevante și riscurilor implicate.
(116)
Het AI-bureau moet de opstelling, evaluatie en aanpassing van praktijkcodes aanmoedigen en vergemakkelijken, rekening houdend met internationale manieren van aanpak. Alle aanbieders van AI-modellen voor algemene doeleinden kunnen worden uitgenodigd eraan deel te nemen. Om ervoor te zorgen dat de praktijkcodes aansluiten op de stand van de techniek en ze terdege rekening houden met een brede waaier aan perspectieven, moet het AI-bureau samenwerken met de relevante nationale bevoegde autoriteiten en kan het, in voorkomend geval, ter opstelling van de praktijkcodes overleg voeren met maatschappelijke organisaties en andere relevante belanghebbenden en deskundigen, waaronder het wetenschappelijk panel. De praktijkcodes moeten betrekking hebben op verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden en van AI-modellen voor algemene doeleinden die systeemrisico’s inhouden. Wat systeemrisico’s betreft, moeten praktijkcodes bovendien bijdragen tot de vaststelling van een taxonomie van de soorten systeemrisico’s op het niveau van de Unie, voorzien van de kenmerken en bronnen van deze risico’s. Voorts moeten praktijkcodes gericht zijn op specifieke risicobeoordelings- en risicobeperkende maatregelen.
(116)
Oficiul pentru IA ar trebui să încurajeze și să faciliteze elaborarea, revizuirea și adaptarea unor coduri de bune practici, ținând seama de abordările internaționale. Toți furnizorii de modele de IA de uz general ar putea fi invitați să participe. Pentru a se asigura că codurile de bune practici reflectă stadiul actual al tehnologiei și țin seama în mod corespunzător de un set divers de perspective, Oficiul pentru IA ar trebui să colaboreze cu autoritățile naționale competente relevante și ar putea, după caz, să se consulte cu organizațiile societății civile și cu alte părți interesate și experți relevanți, inclusiv cu grupul științific, pentru elaborarea unor astfel de coduri. Codurile de bune practici ar trebui să se refere la obligațiile furnizorilor de modele de IA de uz general și de modele de IA de uz general care prezintă riscuri sistemice. În plus, în ceea ce privește riscurile sistemice, codurile de bune practici ar trebui să contribuie la stabilirea unei taxonomii a tipurilor și naturii riscurilor sistemice la nivelul Uniunii, inclusiv a surselor acestora. Codurile de bune practici ar trebui să se axeze, de asemenea, pe măsuri specifice de evaluare și de atenuare a riscurilor.
(117)
De praktijkcodes moeten een centraal instrument zijn voor de correcte naleving van de verplichtingen van aanbieders van AI-modellen voor algemene doeleinden uit hoofde van deze verordening. Aanbieders moeten voor het staven van hun naleving van de verplichtingen kunnen vertrouwen op praktijkcodes. De Commissie kan bij uitvoeringshandelingen een gedragscode vaststellen en deze binnen de Unie een algemene geldigheid verlenen, of anderszins gemeenschappelijke regels vaststellen voor de uitvoering van de desbetreffende verplichtingen, indien er op het moment dat deze verordening van toepassing wordt nog geen gedragscode voorhanden is of het AI-bureau de wel reeds voorhanden zijnde gedragscode ontoereikend acht. Zodra een geharmoniseerde norm gepubliceerd is en het AI-bureau deze in het licht van de relevante verplichtingen geschikt heeft bevonden, moet naleving van een Europese geharmoniseerde norm aanbieders het vermoeden van conformiteit bieden. Aanbieders van AI-modellen voor algemene doeleinden moeten ook met alternatieve geschikte middelen kunnen aantonen dat zij aan de relevante verplichtingen voldoen in het geval er geen praktijkcodes of geharmoniseerde normen beschikbaar zijn, of wanneer zij ervoor kiezen geen beroep op die codes of normen te doen.
(117)
Codurile de bune practici ar trebui să reprezinte un instrument central pentru respectarea corespunzătoare a obligațiilor prevăzute în prezentul regulament pentru furnizorii de modele de IA de uz general. Furnizorii ar trebui să se poată baza pe coduri de bune practici pentru a demonstra respectarea obligațiilor. Prin intermediul unor acte de punere în aplicare, Comisia poate decide să aprobe un cod de bune practici și să îi acorde o valabilitate generală în Uniune sau, alternativ, să prevadă norme comune pentru punerea în aplicare a obligațiilor relevante, în cazul în care, până la momentul în care prezentul regulament devine aplicabil, un cod de bune practici nu poate fi finalizat sau nu este considerat adecvat de către Oficiul pentru IA. Odată ce un standard armonizat este publicat și evaluat ca fiind adecvat pentru a acoperi obligațiile relevante de către Oficiul pentru IA, furnizorii ar trebui să beneficieze de prezumția de conformitate în cazul în care respectă un standard european armonizat. În plus, furnizorii de modele de IA de uz general ar trebui să poată demonstra conformitatea utilizând mijloace alternative adecvate, dacă nu sunt disponibile coduri de bune practici sau standarde armonizate sau dacă aleg să nu se bazeze pe acestea.
(118)
Deze verordening reguleert AI-systemen en AI-modellen door relevante marktdeelnemers die deze in de Unie in de handel brengen, in gebruik stellen of in gebruik nemen bepaalde eisen en verplichtingen op te leggen, en vormt een aanvulling op de verplichtingen voor aanbieders van tussenhandelsdiensten die dit soort systemen of modellen in hun bij Verordening (EU) 2022/2065 gereguleerde diensten integreren. Voor zover dergelijke systemen of modellen zijn ingebed in als zeer groot aangemerkte onlineplatforms of onlinezoekmachines, vallen zij onder het kader voor risicobeheer krachtens Verordening (EU) 2022/2065. Bijgevolg moeten de overeenkomstige verplichtingen van deze verordening als vervuld worden beschouwd, tenzij er in dergelijke modellen aanzienlijke systeemrisico’s worden geconstateerd die niet onder Verordening (EU) 2022/2065 vallen. Binnen dit kader zijn aanbieders van zeer grote onlineplatforms en zeer grote onlinezoekmachines verplicht te beoordelen welke systeemrisico’s er potentieel uit het ontwerp, de werking en het gebruik van hun diensten voortvloeien, met inbegrip van de wijze waarop het ontwerp van de in de dienst gebruikte algoritmische systemen die tot dergelijke risico’s kunnen bijdragen, alsmede welke systeemrisico’s er kunnen optreden bij misbruik. Deze aanbieders zijn ook verplicht passende risicobeperkende maatregelen te treffen, met inachtneming van de grondrechten.
(118)
Prezentul regulament reglementează sistemele de IA și modelele de IA prin impunerea anumitor cerințe și obligații pentru actorii relevanți de pe piață care le introduc pe piață, le pun în funcțiune sau le utilizează în Uniune, completând astfel obligațiile pentru furnizorii de servicii intermediare care încorporează astfel de sisteme sau modele în serviciile lor reglementate de Regulamentul (UE) 2022/2065. În măsura în care astfel de sisteme sau modele sunt încorporate în platforme online foarte mari sau în motoare de căutare online foarte mari desemnate, acestea fac obiectul cadrului de gestionare a riscurilor prevăzut în Regulamentul (UE) 2022/2065. În consecință, ar trebui să se presupună că obligațiile corespunzătoare din prezentul regulament sunt îndeplinite, cu excepția cazului în care apar riscuri sistemice semnificative care nu intră sub incidența Regulamentului (UE) 2022/2065 și sunt identificate în astfel de modele. În acest cadru, furnizorii de platforme online foarte mari și de motoare de căutare online foarte mari sunt obligați să evalueze potențialele riscuri sistemice care decurg din proiectarea, funcționarea și utilizarea serviciilor lor, inclusiv modul în care proiectarea sistemelor algoritmice utilizate în cadrul serviciului poate contribui la astfel de riscuri, precum și riscurile sistemice care decurg din potențialele utilizări necorespunzătoare. Acești furnizori sunt, de asemenea, obligați să ia măsuri adecvate de atenuare, cu respectarea drepturilor fundamentale.
(119)
Gezien het snelle innovatietempo en de technologische ontwikkeling van de digitale diensten die onder het toepassingsgebied van verschillende Unierechtelijke instrumenten vallen en met name rekening houdend met het gebruik en de perceptie van de afnemers van die diensten, kunnen de onder deze verordening vallende AI-systemen worden aangeboden als tussenhandelsdiensten of delen daarvan in de zin van Verordening (EU) 2022/2065, die op technologieneutrale wijze moet worden geïnterpreteerd. AI-systemen kunnen bijvoorbeeld worden gebruikt om onlinezoekmachines aan te bieden, en wel dusdanig dat een AI-systeem zoals een online-chatbot in beginsel alle websites doorzoekt, om de zoekresultaten vervolgens in zijn bestaande kennis op te nemen en dan de bijgewerkte kennis te gebruiken voor het genereren van één enkele output waarin informatie uit verschillende bronnen wordt gecombineerd.
(119)
Având în vedere ritmul rapid al inovării și al evoluției tehnologice a serviciilor digitale care intră în domeniul de aplicare al diferitelor instrumente din dreptul Uniunii, în special având în vedere utilizarea și percepția destinatarilor lor, sistemele de IA care fac obiectul prezentului regulament pot fi furnizate ca servicii intermediare sau ca părți ale acestora în sensul Regulamentului (UE) 2022/2065, care ar trebui să fie interpretat într-un mod neutru din punct de vedere tehnologic. De exemplu, sistemele de IA pot fi utilizate pentru a furniza motoare de căutare online, în special în măsura în care un sistem de IA, cum ar fi un chatbot online, efectuează căutări, în principiu, pe toate site-urile web, apoi încorporează rezultatele în cunoștințele sale existente și utilizează cunoștințele actualizate pentru a genera un singur rezultat care combină diferite surse de informații.
(120)
Voorts zijn de verplichtingen die in deze verordening aan aanbieders en gebruiksverantwoordelijken van bepaalde AI-systemen worden opgelegd om opsporing mogelijk te maken, evenals de bekendmaking dat de outputs van die systemen kunstmatig worden gegenereerd of gemanipuleerd, bijzonder relevant voor het vergemakkelijken van de doeltreffende uitvoering van Verordening (EU) 2022/2065. Dit geldt met name voor de verplichtingen van aanbieders van zeer grote onlineplatforms of zeer grote onlinezoekmachines om systeemrisico’s die kunnen voortvloeien uit de verspreiding van kunstmatig gegenereerde of gemanipuleerde content te identificeren en te beperken, en dan met name het risico op feitelijke of voorzienbare negatieve effecten op democratische processen, het maatschappelijk debat en verkiezingsprocessen, onder meer van desinformatie.
(120)
În plus, obligațiile impuse prin prezentul regulament furnizorilor și implementatorilor anumitor sisteme de IA pentru a permite detectarea și divulgarea faptului că rezultatele sistemelor respective sunt generate sau manipulate artificial sunt deosebit de relevante pentru a facilita punerea în aplicare efectivă a Regulamentului (UE) 2022/2065. Acest lucru este valabil în special în ceea ce privește obligațiile furnizorilor de platforme online foarte mari sau de motoare de căutare online foarte mari de a identifica și a atenua riscurile sistemice care pot apărea în urma diseminării conținutului care a fost generat sau manipulat artificial, în special riscul privind efectele negative reale sau previzibile asupra proceselor democratice, asupra discursului civic și asupra proceselor electorale, inclusiv prin dezinformare.
(121)
Normalisatie moet een belangrijke rol spelen bij de levering van technische oplossingen aan aanbieders om de naleving van deze verordening te waarborgen, in overeenstemming met de stand van de techniek, opdat de innovatie, het concurrentievermogen en ook de groei op de eengemaakte markt kunnen worden bevorderd. De naleving van geharmoniseerde normen, zoals gedefinieerd in artikel 2, lid 1, punt c), van Verordening (EU) nr. 1025/2012 van het Europees Parlement en de Raad (41), die normaal gesproken de stand van de techniek moet weerspiegelen, moet een middel zijn voor aanbieders om de overeenstemming met de voorschriften van deze verordening aan te tonen. Het is daarom zaak aan te sturen op evenwichtige belangenvertegenwoordiging door overeenkomstig de artikelen 5 en 6 van Verordening (EU) nr. 1025/2012 alle relevante belanghebbenden te betrekken bij de ontwikkeling van normen, met name kmo’s, consumentenorganisaties en belanghebbenden op sociaal gebied en dat van milieu. De Commissie moet voor een soepelere naleving de normalisatieverzoeken zonder onnodige vertraging afgeven. Bij het opstellen van normalisatieverzoeken moet de Commissie de nodige expertise inwinnen bij het adviesforum voor AI en de AI-board. Bij ontstentenis van relevante verwijzingen naar geharmoniseerde normen moet de Commissie evenwel gemeenschappelijke specificaties voor bepaalde eisen uit hoofde van deze verordening kunnen vaststellen, bij uitvoeringshandeling en na raadpleging van het adviesforum. De gemeenschappelijke specificaties moeten een uitzonderlijke achtervang zijn om de aanbieder te kunnen laten voldoen aan de eisen van deze verordening ingeval het normalisatieverzoek door geen van de Europese normalisatieorganisaties is aanvaard, ingeval de relevante geharmoniseerde normen onvoldoende tegemoetkomen aan problemen op het gebied van de grondrechten, ingeval de geharmoniseerde normen niet aan het verzoek voldoen, of ingeval er vertraging is ontstaan bij de vaststelling van een passende geharmoniseerde norm. Indien een dergelijke vertraging bij de vaststelling van een geharmoniseerde norm te wijten is aan de technische complexiteit van die norm, moet de Commissie hier rekening mee houden alvorens te overwegen gemeenschappelijke specificaties vast te stellen. De Commissie wordt aangemoedigd om bij de ontwikkeling van gemeenschappelijke specificaties samen te werken met internationale partners en internationale normalisatie-instellingen.
(121)
Standardizarea ar trebui să joace un rol esențial în furnizarea de soluții tehnice furnizorilor pentru a asigura conformitatea cu prezentul regulament, în conformitate cu stadiul actual al tehnologiei, pentru a promova inovarea, precum și competitivitatea și creșterea pe piața unică. Conformitatea cu standardele armonizate, astfel cum sunt definite la articolul 2 punctul 1 litera (c) din Regulamentul (UE) nr. 1025/2012 al Parlamentului European și al Consiliului (41), care ar trebui, în mod normal, să reflecte stadiul actual al tehnologiei, ar trebui să fie un mijloc prin care furnizorii să demonstreze conformitatea cu cerințele prezentului regulament. Prin urmare, ar trebui să fie încurajată o reprezentare echilibrată a intereselor, care să implice toate părțile interesate relevante în elaborarea standardelor, în special IMM-urile, organizațiile consumatorilor și părțile interesate din domeniul mediului și din domeniul social, în conformitate cu articolele 5 și 6 din Regulamentul (UE) nr. 1025/2012. Pentru a facilita conformitatea, solicitările de standardizare ar trebui să fie emise de Comisie fără întârzieri nejustificate. Atunci când elaborează solicitarea de standardizare, Comisia ar trebui să consulte forumul consultativ și Consiliul IA pentru a colecta cunoștințele de specialitate relevante. Cu toate acestea, în absența unor trimiteri relevante la standardele armonizate, Comisia ar trebui să poată stabili, prin intermediul unor acte de punere în aplicare și după consultarea forumului consultativ, specificații comune pentru anumite cerințe în temeiul prezentului regulament. Specificația comună ar trebui să constituie o soluție excepțională de rezervă, pentru a facilita obligația furnizorului de a respecta cerințele prezentului regulament, atunci când solicitarea de standardizare nu a fost acceptată de niciuna dintre organizațiile de standardizare europene sau când standardele armonizate relevante abordează insuficient preocupările în materie de drepturi fundamentale ori când standardele armonizate nu corespund solicitării sau atunci când există întârzieri în adoptarea unui standard armonizat adecvat. În cazul în care o astfel de întârziere în adoptarea unui standard armonizat se datorează complexității tehnice a standardului respectiv, acest lucru ar trebui să fie luat în considerare de Comisie înainte de a avea în vedere stabilirea unor specificații comune. Atunci când elaborează specificații comune, Comisia este încurajată să coopereze cu partenerii internaționali și cu organismele de standardizare internaționale.
(122)
Het is onverminderd het gebruik van geharmoniseerde normen en gemeenschappelijke specificaties passend dat aanbieders van een AI-systeem met een hoog risico dat getraind en getest is op data met betrekking tot de specifieke geografische, gedrags-, contextuele of functionele omgeving waarin het de bedoeling is het systeem te gebruiken, verondersteld worden aan de desbetreffende maatregel krachtens de bij deze verordening vastgestelde datagovernancevereiste te voldoen. Onverminderd de bij deze verordening vastgestelde vereisten met betrekking tot robuustheid en nauwkeurigheid, moeten overeenkomstig artikel 54, lid 3, van Verordening (EU) 2019/881, gecertificeerde AI-systemen met een hoog risico of AI-systemen met een hoog risico waarvoor in het kader van een cyberbeveiligingsregeling uit hoofde van die verordening een conformiteitsverklaring is afgegeven en waarvan de referenties in het Publicatieblad van de Europese Unie zijn bekendgemaakt, worden geacht aan het cyberbeveiligingsvereiste van deze verordening te voldoen, voor zover het cyberbeveiligingscertificaat of de conformiteitsverklaring of delen daarvan het cyberbeveiligingsvereiste van deze verordening bestrijken. Dit doet geen afbreuk aan het vrijwillige karakter van die cyberbeveiligingsregeling.
(122)
Este oportun ca, fără a aduce atingere utilizării standardelor armonizate și a specificațiilor comune, să se prezume că furnizorii unui sistem de IA cu grad ridicat de risc care a fost antrenat și testat pe baza unor date care reflectă cadrul geografic, comportamental, contextual sau funcțional specific în care se intenționează utilizarea sistemului de IA respectă măsura relevantă prevăzută în temeiul cerinței privind guvernanța datelor stabilită în prezentul regulament. Fără a aduce atingere cerințelor legate de robustețe și acuratețe prevăzute în prezentul regulament, în conformitate cu articolul 54 alineatul (3) din Regulamentul (UE) 2019/881, ar trebui să se prezume că sistemele de IA cu grad ridicat de risc care au fost certificate sau pentru care a fost emisă o declarație de conformitate în cadrul unui sistem de securitate cibernetică în temeiul regulamentului respectiv, iar referințele aferente au fost publicate în Jurnalul Oficial al Uniunii Europene, respectă cerința de securitate cibernetică menționată în prezentul regulament, în măsura în care certificatul de securitate cibernetică sau declarația de conformitate sau părți ale acestora acoperă cerința de securitate cibernetică din prezentul regulament. Acest lucru nu aduce atingere caracterului voluntar al respectivului sistem de securitate cibernetică.
(123)
Om te zorgen voor een hoog niveau van betrouwbaarheid van AI-systemen met een hoog risico, moeten deze systemen worden onderworpen aan een conformiteitsbeoordeling voordat zij in de handel worden gebracht of in gebruik worden gesteld.
(123)
Pentru a asigura un nivel ridicat de fiabilitate a sistemelor de IA cu grad ridicat de risc, aceste sisteme ar trebui să facă obiectul unei evaluări a conformității înainte de introducerea lor pe piață sau de punerea lor în funcțiune.
(124)
Teneinde de lasten voor operatoren tot een minimum te beperken en eventuele mogelijke overlappingen te voorkomen, moet de overeenstemming van AI-systemen met een hoog risico die verband houden met producten die vallen onder bestaande harmonisatiewetgeving van de Unie volgens het nieuwe wetgevingskader met de voorschriften van deze verordening, worden beoordeeld als onderdeel van de conformiteitsbeoordeling waarin bij die wetgeving reeds is voorzien. De toepasselijkheid van de voorschriften van deze verordening mag dus geen gevolgen hebben voor de specifieke logica, methode of algemene structuur van de conformiteitsbeoordeling uit hoofde van de desbetreffende harmonisatiewetgeving van de Unie.
(124)
Este oportun ca, pentru a reduce la minimum sarcina impusă operatorilor și pentru a evita eventualele suprapuneri, pentru sistemele de IA cu grad ridicat de risc legate de produse care fac obiectul legislației de armonizare existente a Uniunii bazate pe noul cadru legislativ, conformitatea acestor sisteme de IA cu cerințele prezentului regulament să fie evaluată ca parte a evaluării conformității prevăzute deja în legislația respectivă. Aplicabilitatea cerințelor prezentului regulament nu ar trebui, prin urmare, să afecteze logica specifică, metodologia sau structura generală a evaluării conformității în temeiul legislației de armonizare relevante a Uniunii.
(125)
Gezien de complexiteit van AI-systemen met een hoog risico en de aan die systemen verbonden risico’s, is het belangrijk een adequate conformiteitsbeoordelingsprocedure voor AI-systemen met een hoog risico te ontwikkelen en daar aangemelde instanties bij te betrekken, de zogeheten conformiteitsbeoordeling door derden. Gezien de huidige ervaring van personen die professionele certificeringen vóór het in de handel brengen uitvoeren op het gebied van productveiligheid en de andere aard van de risico’s waarmee dat gepaard gaat, is het echter passend om, in ieder geval in een eerste fase van de toepassing van deze verordening, het toepassingsgebied van conformiteitsbeoordelingen door derden van AI-systemen met een hoog risico die geen verband houden met producten, te beperken. Daarom moet de conformiteitsbeoordeling van dergelijke systemen in de regel onder eigen verantwoordelijkheid door de aanbieder worden uitgevoerd, met als enige uitzondering AI-systemen die bedoeld zijn om voor biometrie te worden gebruikt.
(125)
Având în vedere complexitatea sistemelor de IA cu grad ridicat de risc și riscurile asociate acestora, este important să se dezvolte o procedură adecvată de evaluare a conformității pentru sistemele de IA cu grad ridicat de risc care implică organisme notificate, așa-numita evaluare a conformității de către terți. Cu toate acestea, având în vedere experiența actuală a organismelor profesionale de certificare înainte de introducerea pe piață în domeniul siguranței produselor și natura diferită a riscurilor implicate, este oportun să se limiteze, cel puțin într-o fază inițială de aplicare a prezentului regulament, domeniul de aplicare al evaluării conformității de către terți pentru sistemele de IA cu grad ridicat de risc, altele decât cele legate de produse. Prin urmare, evaluarea conformității unor astfel de sisteme ar trebui să fie efectuată, ca regulă generală, de către furnizor pe propria răspundere, cu singura excepție a sistemelor de IA destinate a fi utilizate pentru biometrie.
(126)
Met het oog op de uitvoering van conformiteitsbeoordelingen door derden, wanneer deze vereist zijn, moeten de nationale bevoegde autoriteiten aangemelde instanties aanmelden op grond van deze verordening, mits deze instanties voldoen aan een reeks voorschriften, met name met betrekking tot de onafhankelijkheid, competenties, afwezigheid van belangenconflicten en passende voorschriften inzake cyberbeveiliging. De aanmelding van die instanties moet door de nationale bevoegde autoriteiten aan de Commissie en de andere lidstaten worden gezonden via het op grond van artikel R23 van bijlage I bij Besluit 768/2008/EG door de Commissie ontwikkelde en beheerde elektronische aanmeldingssysteem.
(126)
În vederea efectuării de evaluări ale conformității de către terți atunci când este necesar, autoritățile naționale competente ar trebui să comunice lista organismelor notificate în temeiul prezentului regulament, cu condiția ca acestea să îndeplinească un set de cerințe, în special în ceea ce privește independența, competența, absența conflictelor de interese și cerințele minime de securitate cibernetică. Lista acestor organisme notificate ar trebui să fie trimisă de autoritățile naționale competente Comisiei și celorlalte state membre prin intermediul instrumentului de notificare electronică dezvoltat și gestionat de Comisie în temeiul articolului R23 din anexa I la Decizia nr. 768/2008/CE.
(127)
Het is in overeenstemming met de verbintenissen van de Unie in het kader van de WTO-overeenkomst inzake technische handelsbelemmeringen, passend om de wederzijdse erkenning van door bevoegde conformiteitsbeoordelingsinstanties voortgebrachte conformiteitsbeoordelingsresultaten te bevorderen, ongeacht het grondgebied waar deze instanties zijn gevestigd, met dien verstande dat die naar het recht van een derde land opgerichte instanties voldoen aan de toepasselijke eisen van deze verordening en de Unie daartoe een overeenkomst heeft gesloten. In dit verband moet de Commissie actief op zoek gaan naar mogelijke internationale instrumenten daartoe en zich met name inzetten voor de sluiting van overeenkomsten inzake wederzijdse erkenning met derde landen.
(127)
În conformitate cu angajamentele asumate de Uniune în temeiul Acordului Organizației Mondiale a Comerțului privind barierele tehnice în calea comerțului, este adecvat să se faciliteze recunoașterea reciprocă a rezultatelor evaluării conformității obținute de organismele competente de evaluare a conformității, indiferent de teritoriul pe care sunt stabilite acestea, cu condiția ca respectivele organisme de evaluare a conformității instituite în temeiul dreptului unei țări terțe să îndeplinească cerințele aplicabile ale prezentului regulament, iar Uniunea să fi încheiat un acord în acest sens. În acest context, Comisia ar trebui să analizeze în mod activ posibile instrumente internaționale adecvate acestui scop și, în special, să urmărească încheierea de acorduri de recunoaștere reciprocă cu țări terțe.
(128)
In lijn met het algemeen erkende begrip van substantiële wijziging van producten die vallen onder de harmonisatiewetgeving van de Unie, is het passend dat, indien zich een verandering voordoet die gevolgen kan hebben voor de overeenstemming van een AI-systeem met een hoog risico met deze verordening (bijvoorbeeld een verandering van het besturingssysteem of de softwarearchitectuur) of indien het beoogde doel van het systeem verandert, dat AI-systeem wordt beschouwd als een nieuw AI-systeem dat aan een nieuwe conformiteitsbeoordeling moet worden onderworpen. Wijzigingen met betrekking tot het algoritme en de prestaties van AI-systemen die blijven “leren” nadat zij in de handel zijn gebracht of in gebruik gesteld, die met name automatisch aanpassen hoe taken worden uitgevoerd, mogen echter geen substantiële wijziging vormen, mits die wijzigingen vooraf door de aanbieder zijn bepaald en op het moment van de conformiteitsbeoordeling zijn beoordeeld.
(128)
În conformitate cu noțiunea stabilită de comun acord de modificare substanțială pentru produsele reglementate de legislația de armonizare a Uniunii, este oportun ca, ori de câte ori se produce o modificare care poate afecta respectarea prezentului regulament de către un sistem de IA cu grad ridicat de risc (de exemplu, modificarea sistemului de operare sau a arhitecturii software) sau atunci când scopul preconizat al sistemului se modifică, respectivul sistem de IA să fie considerat a fi un sistem de IA nou care ar trebui să facă obiectul unei noi evaluări a conformității. Cu toate acestea, modificările care afectează algoritmul și performanța sistemelor de IA care continuă să „învețe” după ce au fost introduse pe piață sau puse în funcțiune și anume, adaptarea automată a modului în care sunt îndeplinite funcțiile nu ar trebui să constituie o modificare substanțială, cu condiția ca modificările respective să fi fost prestabilite de furnizor și evaluate în momentul evaluării conformității.
(129)
Op AI-systemen met een hoog risico moet de CE-markering worden aangebracht om aan te geven dat zij in overeenstemming zijn met deze verordening, zodat het vrije verkeer ervan op de interne markt mogelijk is. Op AI-systemen met een hoog risico die in een product zijn geïntegreerd moet een fysieke CE-markering worden aangebracht, die kan worden aangevuld met een digitale CE-markering. Voor AI-systemen met een hoog risico die alleen digitaal worden verstrekt, moet een digitale CE-markering worden gebruikt. De lidstaten mogen het in de handel brengen en het in gebruik stellen van AI-systemen met een hoog risico die aan de in deze verordening vastgelegde eisen voldoen en waarop de CE-markering is aangebracht, niet op ongerechtvaardigde wijze belemmeren.
(129)
Sistemele de IA cu grad ridicat de risc ar trebui să poarte marcajul CE pentru a indica conformitatea lor cu prezentul regulament, astfel încât să poată circula liber în cadrul pieței interne. Pentru sistemele de IA cu grad ridicat de risc încorporate într-un produs ar trebui să fie aplicat un marcaj CE fizic care poate fi completat de un marcaj CE digital. Pentru sistemele de IA cu grad ridicat de risc furnizate exclusiv digital, ar trebui să fie utilizat un marcaj CE digital. Statele membre ar trebui să nu genereze obstacole nejustificate în calea introducerii pe piață sau a punerii în funcțiune a sistemelor de IA cu grad ridicat de risc care sunt conforme cu cerințele prevăzute în prezentul regulament și care poartă marcajul CE.
(130)
In bepaalde omstandigheden kan de snelle beschikbaarheid van innovatieve technologieën cruciaal zijn voor de gezondheid en veiligheid van personen, de bescherming van het milieu en de klimaatverandering, en de samenleving in haar geheel. Het is derhalve passend dat de markttoezichtautoriteiten om uitzonderlijke redenen in verband met de openbare veiligheid of de bescherming van het leven en de gezondheid van natuurlijke personen, de bescherming van het milieu en de bescherming van essentiële industriële en infrastructurele activa toestemming kunnen verlenen voor het in de handel brengen of in gebruik stellen van AI-systemen die nog niet aan een conformiteitsbeoordeling zijn onderworpen. In naar behoren gemotiveerde situaties, zoals voorzien in deze verordening, kunnen rechtshandhavingsinstanties of civielebeschermingsautoriteiten zonder toestemming van de markttoezichtautoriteit een specifiek AI-systeem met een hoog risico in gebruik stellen, op voorwaarde dat tijdens of na het gebruik onverwijld om een dergelijke toestemming wordt verzocht.
(130)
În anumite condiții, disponibilitatea rapidă a tehnologiilor inovatoare poate fi esențială pentru sănătatea și siguranța persoanelor, pentru protecția mediului și combaterea schimbărilor climatice și pentru societate în ansamblu. Prin urmare, este oportun ca, din motive excepționale de siguranță publică sau de protecție a vieții și a sănătății persoanelor fizice, de protecție a mediului și de protecție a activelor industriale și de infrastructură esențiale, autoritățile de supraveghere a pieței să poată autoriza introducerea pe piață sau punerea în funcțiune a unor sisteme de IA care nu au fost supuse unei evaluări a conformității. În situații justificate în mod corespunzător, astfel cum se prevede în prezentul regulament, autoritățile de aplicare a legii sau autoritățile de protecție civilă pot pune în funcțiune un anumit sistem de IA cu grad ridicat de risc fără autorizarea autorității de supraveghere a pieței, cu condiția ca o astfel de autorizare să fie solicitată în timpul utilizării sau după utilizare, fără întârzieri nejustificate.
(131)
Om de werkzaamheden van de Commissie en de lidstaten op het gebied van AI te vergemakkelijken en om de transparantie voor het publiek te vergroten, moeten aanbieders van AI-systemen met een hoog risico die geen verband houden met producten die onder het toepassingsgebied van de desbetreffende bestaande harmonisatiewetgeving van de Unie vallen, evenals aanbieders die van mening zijn dat een in de in een bijlage bij deze verordening opgenomen gebruiksgevallen met een hoog risico vermeld AI-systeem op basis van een afwijking geen hoog risico inhoudt, worden verplicht zichzelf en informatie over hun AI-systeem te registreren in een EU-databank, die door de Commissie moet worden opgericht en beheerd. Alvorens een in de in een bijlage bij deze verordening opgenomen gebruiksgevallen met een hoog risico vermeld AI-systeem te gebruiken, moeten gebruiksverantwoordelijken van AI-systemen met een hoog risico die overheidsinstanties, -agentschappen of -organen zijn, zich bij een dergelijke databank registreren en het systeem selecteren dat zij voornemens zijn te gebruiken. Andere gebruiksverantwoordelijken moeten het recht hebben dit vrijwillig te doen. Dit deel van de EU-databank moet voor het publiek toegankelijk en kosteloos zijn, en de informatie moet gemakkelijk te doorzoeken, begrijpelijk en machineleesbaar zijn. De EU-databank moet ook gebruiksvriendelijk zijn, bijvoorbeeld door zoekfuncties aan te bieden, onder meer door middel van trefwoorden, zodat het grote publiek relevante informatie kan vinden die moet worden ingediend bij de registratie van AI-systemen met een hoog risico, evenals informatie over de gebruikssituatie van AI-systemen met een hoog risico, zoals uiteengezet in een bijlage bij deze verordening, waarmee de AI-systemen met een hoog risico overeenstemmen. Ook alle substantiële wijzigingen van AI-systemen met een hoog risico moeten in de EU-databank worden geregistreerd. Voor AI-systemen met een hoog risico op het gebied van rechtshandhaving, migratie, asiel en grenstoezichtsbeheer moeten de registratieverplichtingen worden verricht in een beveiligd niet-openbaar deel van de EU-databank. De toegang tot het beveiligde niet-openbare deel moet strikt worden beperkt tot de Commissie en, wat hun nationale deel van die databank betreft, tot markttoezichtautoriteiten. AI-systemen met een hoog risico op het gebied van kritieke infrastructuur mogen alleen op nationaal niveau worden geregistreerd. De Commissie moet de verwerkingsverantwoordelijke van de EU-databank zijn, overeenkomstig Verordening (EU) 2018/1725. Teneinde de volledige functionaliteit van de EU-databank te waarborgen, moet de procedure voor het vaststellen van de databank de uitwerking van functionele specificaties door de Commissie en een onafhankelijk auditverslag omvatten. De Commissie moet bij de uitvoering van haar taken als verwerkingsverantwoordelijke voor de EU-databank rekening houden met cyberbeveiligingsrisico’s. Om de beschikbaarheid en het gebruik van de EU-databank door het publiek te maximaliseren, moet de databank, met inbegrip van de via de EU-databank beschikbaar gestelde informatie, voldoen aan de eisen van Richtlijn (EU) 2019/882.
(131)
Pentru a facilita activitatea Comisiei și a statelor membre în domeniul IA, precum și pentru a spori transparența față de public, furnizorii de sisteme de IA cu grad ridicat de risc, altele decât cele legate de produse care intră în domeniul de aplicare al actelor legislative de armonizare relevante existente ale Uniunii, precum și furnizorii care consideră că un sistem de IA care figurează între situațiile cu grad ridicat de risc dintr-o anexă la prezentul regulament nu este, pe baza unei derogări, un sistem de IA cu grad ridicat de risc, ar trebui să aibă obligația de a se înregistra, precum și de a înregistra informații despre propriul sistem de IA într-o bază de date a UE, care urmează să fie creată și gestionată de Comisie. Înainte de a utiliza un sistem de IA care figurează între situațiile cu grad ridicat de risc dintr-o anexă la prezentul regulament, implementatorii sistemelor de IA cu grad ridicat de risc care sunt autorități, agenții sau organisme publice ar trebui să se înregistreze în baza de date respectivă și să selecteze sistemul pe care intenționează să îl utilizeze. Ceilalți implementatori ar trebui să aibă dreptul de a face acest lucru în mod voluntar. Această secțiune a bazei de date a UE ar trebui să fie accesibilă publicului, în mod gratuit, informațiile ar trebui să fie ușor de parcurs, ușor de înțeles și prelucrabile automat. Baza de date a UE ar trebui, de asemenea, să fie ușor de utilizat, de exemplu prin furnizarea de funcționalități de căutare, inclusiv prin intermediul cuvintelor-cheie, care să permită publicului larg să găsească informațiile relevante care trebuie să fie transmise la înregistrarea sistemelor de IA cu grad ridicat de risc și cu privire la cazul de utilizare a sistemelor de IA cu grad ridicat de risc, prevăzute într-o anexă la prezentul regulament, cărora le corespund sistemele de IA cu grad ridicat de risc. Orice modificare substanțială a sistemelor de IA cu grad ridicat de risc ar trebui să se înregistreze, de asemenea, în baza de date a UE. Pentru sistemele de IA cu grad ridicat de risc din domeniul aplicării legii, al migrației, al azilului și al gestionării controlului la frontiere, obligațiile de înregistrare ar trebui să fie îndeplinite în cadrul unei secțiuni securizate, care nu este accesibilă publicului, a bazei de date a UE. Accesul la secțiunea securizată care nu este accesibilă publicului ar trebui să fie strict limitat la Comisie, precum și la autoritățile de supraveghere a pieței în ceea ce privește secțiunea lor națională din baza de date respectivă. Sistemele de IA cu grad ridicat de risc din domeniul infrastructurii critice ar trebui să fie înregistrate exclusiv la nivel național. Comisia ar trebui să fie operatorul bazei de date a UE, în conformitate cu Regulamentul (UE) 2018/1725. Pentru a asigura funcționalitatea deplină a bazei de date a UE, atunci când aceasta este implementată, procedura de stabilire a bazei de date ar trebui să includă dezvoltarea de specificații funcționale de către Comisie și un raport de audit independent. Comisia ar trebui să țină seama de riscurile în materie de securitate cibernetică atunci când își îndeplinește sarcinile de operator de date în baza de date a UE. Pentru a maximiza disponibilitatea și utilizarea bazei de date a UE de către public, baza de date a UE, inclusiv informațiile puse la dispoziție prin intermediul acesteia, ar trebui să îndeplinească cerințele prevăzute în Directiva (UE) 2019/882.
(132)
Bepaalde AI-systemen die bedoeld zijn om met natuurlijke personen te interageren of om content te genereren, kunnen specifieke risico’s op imitatie of misleiding met zich meebrengen, ongeacht of zij als systeem met een hoog risico gelden. In bepaalde omstandigheden moeten voor het gebruik van deze systemen daarom specifieke transparantieverplichtingen gelden, zonder dat afbreuk wordt gedaan aan de eisen en verplichtingen voor AI-systemen met een hoog risico, en moeten zij onderworpen zijn aan gerichte uitzonderingen om rekening te houden met de bijzondere behoeften van rechtshandhaving. Met name moeten natuurlijke personen ervan in kennis worden gesteld dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geïnformeerde en redelijk opmerkzame en omzichtige natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext. Bij de toepassing van die verplichting moet rekening worden gehouden met de kenmerken van tot kwetsbare groepen horende natuurlijke personen die vanwege hun leeftijd of handicap kwetsbaar zijn, voor zover het AI-systeem bedoeld is om ook met die groepen te interageren. Bovendien moeten natuurlijke personen indien zij worden blootgesteld aan AI-systemen die, door hun biometrische gegevens te verwerken, de emoties of intenties van deze personen kunnen vaststellen of afleiden of hen in een specifieke categorie kunnen indelen, hiervan in kennis worden gesteld. Zulke specifieke categorieën kunnen betrekking hebben op aspecten zoals geslacht, leeftijd, haarkleur, oogkleur, tatoeages, persoonlijke kenmerken, etnische afkomst, persoonlijke voorkeuren en interesses. Dergelijke informatie en kennisgevingen moeten worden verstrekt in een formaat dat toegankelijk is voor personen met een handicap.
(132)
Anumite sisteme de IA destinate să interacționeze cu persoane fizice sau să genereze conținut pot prezenta riscuri specifice de uzurpare a identității sau de înșelăciune, indiferent dacă acestea se califică drept sisteme cu grad ridicat de risc sau nu. Prin urmare, în anumite circumstanțe, utilizarea acestor sisteme ar trebui să facă obiectul unor obligații specifice în materie de transparență, fără a aduce atingere cerințelor și obligațiilor pentru sistemele de IA cu grad ridicat de risc și sub rezerva unor excepții specifice pentru a ține seama de nevoia specială de a aplica legea. În special, persoanele fizice ar trebui să fie informate că interacționează cu un sistem de IA, cu excepția cazului în care acest lucru este evident din punctul de vedere al unei persoane fizice rezonabil de bine informată, de atentă și de avizată, ținând seama de circumstanțele și contextul de utilizare. La punerea în aplicare a obligației respective, caracteristicile persoanelor fizice care aparțin grupurilor vulnerabile din motive de vârstă sau dizabilitate ar trebui să fie luate în considerare în măsura în care sistemul de IA este destinat să interacționeze și cu aceste grupuri. În plus, persoanele fizice ar trebui să fie informate atunci când sunt expuse la sisteme de IA care, prin prelucrarea datelor lor biometrice, pot identifica sau deduce emoțiile sau intențiile persoanelor respective sau le pot include în categorii specifice. Astfel de categorii specifice se pot referi la aspecte precum sexul, vârsta, culoarea părului, culoarea ochilor, tatuajele, trăsăturile personale, originea etnică, preferințele și interesele personale. Astfel de informații și notificări ar trebui să fie furnizate în formate accesibile pentru persoanele cu dizabilități.
(133)
Bepaalde AI-systemen kunnen grote hoeveelheden synthetische content genereren waarbij het voor de mens steeds moeilijker wordt deze te onderscheiden van door de mens gegenereerde en authentieke content. De brede beschikbaarheid en de toenemende capaciteit van deze systemen hebben een aanzienlijke impact op de integriteit van en het vertrouwen in het informatie-ecosysteem, waardoor nieuwe risico’s op desinformatie en manipulatie op grote schaal, fraude, imitatie en consumentenbedrog ontstaan. In het licht van die effecten, het snelle technologische tempo en de behoefte aan nieuwe methoden en technieken om de oorsprong van informatie te traceren, is het passend aanbieders van die systemen voor te schrijven dat zij technische oplossingen inbouwen die markering in een machineleesbaar formaat mogelijk maken en aantonen dat de output is gegenereerd of gemanipuleerd door een AI-systeem en niet door een mens. Dergelijke technieken en methoden moeten voldoende betrouwbaar, interoperabel, doeltreffend en robuust zijn, voor zover dit technisch haalbaar is, rekening houdend met de beschikbare technieken of een combinatie van dergelijke technieken, zoals watermerken, metagegevens, cryptografische methoden voor het aantonen van de herkomst en authenticiteit van inhoud, loggingmethoden, vingerafdrukken of andere technieken, naargelang het geval. Bij de uitvoering van deze verplichting moeten aanbieders ook rekening houden met de specifieke kenmerken en beperkingen van de verschillende soorten content en de relevante technologische en marktontwikkelingen op dit gebied, zoals blijkt uit de algemeen erkende stand van de techniek. Dergelijke technieken en methoden kunnen worden toegepast op het niveau van het AI-systeem of op het niveau van het AI-model, met inbegrip van AI-modellen voor algemene doeleinden die content genereren, waardoor de aanbieder verder in de AI-waardeketen van het AI-systeem gemakkelijker aan deze verplichting kan voldoen. Met het oog op de evenredigheid, moet worden overwogen dat deze markeringsverplichting niet van toepassing mag zijn op AI-systemen die in de eerste plaats een ondersteunende functie hebben voor het uitvoeren van standaardbewerkingen of op AI-systemen die de door de gebruiksverantwoordelijke verstrekte inputdata, of de semantiek ervan, niet wezenlijk wijzigen.
(133)
O varietate de sisteme de IA poate genera cantități mari de conținut sintetic, pe care oamenii ajung să îl distingă din ce în ce mai greu de conținutul autentic, generat de om. Disponibilitatea pe scară largă și capabilitățile din ce în ce mai mari ale acestor sisteme au un impact semnificativ asupra integrității ecosistemului informațional și a încrederii în acesta, generând noi riscuri de dezinformare și manipulare la scară largă, de fraudă, de uzurpare a identității și de inducere în eroare a consumatorilor. Având în vedere impactul respectiv, ritmul tehnologic rapid și necesitatea unor noi metode și tehnici de urmărire a originii informațiilor, este oportun să se solicite furnizorilor acestor sisteme să încorporeze soluții tehnice care să permită marcarea într-un format prelucrabil automat și detectarea faptului că rezultatul a fost generat sau manipulat de un sistem de IA, și nu de un om. Aceste tehnici și metode ar trebui să fie suficient de fiabile, interoperabile, eficace și robuste, în măsura în care acest lucru este fezabil din punct de vedere tehnic, ținând seama de tehnicile disponibile sau de o combinație de astfel de tehnici, cum ar fi filigrane, identificări prin intermediul metadatelor, metode criptografice pentru a dovedi proveniența și autenticitatea conținutului, metode de înregistrare, amprente digitale sau alte tehnici, după caz. Atunci când pun în aplicare această obligație, furnizorii ar trebui, de asemenea, să țină seama de particularitățile și limitările diferitelor tipuri de conținut și de evoluțiile tehnologice și ale pieței relevante în domeniu, astfel cum se reflectă în stadiul de avansare general recunoscut al tehnologiei. Astfel de tehnici și metode pot fi puse în aplicare la nivelul sistemului de IA sau la nivelul modelului de IA, inclusiv al modelelor de IA de uz general care generează conținut, facilitând astfel îndeplinirea acestei obligații de către furnizorul din aval al sistemului de IA. Este oportun să se aibă în vedere că, pentru a rămâne proporțională, această obligație de marcare nu ar trebui să vizeze sistemele de IA care îndeplinesc în principal o funcție de asistare pentru editarea standard sau sistemele de IA care nu modifică în mod substanțial datele de intrare furnizate de implementator sau semantica acestora.
(134)
Naast de technische oplossingen die door de aanbieders van het AI-systeem worden gebruikt, moeten gebruiksverantwoordelijken die een AI-systeem gebruiken om beeld-, audio- of video-content te genereren of te manipuleren die aanzienlijk lijkt op bestaande personen, voorwerpen, plaatsen, entiteiten of gebeurtenissen en voor een persoon ten onrechte authentiek of waarachtig kunnen lijken (deepfakes), ook klaar en duidelijk kenbaar maken dat de content kunstmatig is gecreëerd of gemanipuleerd door de AI-output als zodanig aan te merken en de kunstmatige oorsprong ervan bekend te maken. Naleving van deze transparantieverplichting mag niet aldus worden uitgelegd dat het gebruik van het AI-systeem of de output ervan afbreuk doet aan het in het Handvest gewaarborgde recht op vrijheid van meningsuiting en het recht op vrijheid van kunsten en wetenschappen belemmert, met name indien de content deel uitmaakt van een werk of programma dat duidelijk creatief, satirisch, artistiek, fictief of analoog van aard is, met inachtneming van passende waarborgen voor de rechten en vrijheden van derden. In die gevallen is de in deze verordening vastgestelde transparantieverplichting voor deepfakes beperkt tot de openbaarmaking van het bestaan van dergelijke gegenereerde of gemanipuleerde content, en dit op een passende wijze die geen belemmering vormt voor de weergave of het genot van het werk, met inbegrip van de normale exploitatie en het normale gebruik ervan, met behoud van het nut en de kwaliteit van het werk. Daarnaast is het ook passend te voorzien in een soortgelijke openbaarmakingsplicht met betrekking tot door AI gegenereerde of gemanipuleerde tekst, voor zover deze wordt gepubliceerd met als doel het publiek te informeren over aangelegenheden van algemeen belang, tenzij de door AI gegenereerde content een proces van menselijke toetsing of redactionele controle heeft ondergaan en een natuurlijke of rechtspersoon redactionele verantwoordelijkheid draagt voor de publicatie van de content.
(134)
Pe lângă soluțiile tehnice utilizate de furnizorii sistemului de IA, implementatorii care utilizează un sistem de IA pentru a genera sau a manipula conținuturi de imagine, audio sau video care se aseamănă în mod apreciabil cu persoane, obiecte, locuri, entități sau evenimente existente și care ar crea unei persoane impresia falsă că sunt autentice sau adevărate (deepfake-uri), ar trebui, de asemenea, să dezvăluie în mod clar și distinct faptul că respectivul conținut a fost creat sau manipulat în mod artificial prin etichetarea în consecință a rezultatului generat de IA și divulgarea originii sale artificiale. Respectarea acestei obligații de transparență nu ar trebui să fie interpretată în sensul de a indica că utilizarea sistemului de IA sau a rezultatelor sale împiedică dreptul la libertatea de exprimare și dreptul la libertatea artelor și științelor garantate de cartă, în special atunci când conținutul face parte dintr-o lucrare sau dintr-un program în mod evident creativ, satiric, artistic, fictiv sau analog, sub rezerva unor garanții adecvate pentru drepturile și libertățile terților. În cazurile respective, obligația de transparență pentru deepfake-uri prevăzută în prezentul regulament se limitează la divulgarea existenței unui astfel de conținut generat sau manipulat într-un mod adecvat, care să nu împiedice expunerea lucrării sau posibilitatea de a beneficia de aceasta, inclusiv exploatarea și utilizarea normală a acesteia, menținând în același timp utilitatea și calitatea lucrării. În plus, este, de asemenea, oportun să se aibă în vedere o obligație similară de divulgare în ceea ce privește textul generat sau manipulat de IA, în măsura în care acesta este publicat cu scopul de a informa publicul cu privire la chestiuni de interes public, cu excepția cazului în care conținutul generat de IA a fost supus unui proces de verificare editorială sau revizuire umană și responsabilitatea editorială pentru publicarea conținutului este deținută de o persoană fizică sau juridică.
(135)
Onverminderd het verplichte karakter en de volledige toepasselijkheid van de transparantieverplichtingen, kan de Commissie ook het opstellen van praktijkcodes op het niveau van de Unie aanmoedigen en faciliteren om de doeltreffende uitvoering van de verplichtingen met betrekking tot het opsporen en het aanmerken van kunstmatig gegenereerde of gemanipuleerde content te vergemakkelijken, onder meer ter ondersteuning van praktische regelingen voor, in voorkomend geval, het toegankelijk maken van de detectiemechanismen en het faciliteren van samenwerking met andere actoren in de waardeketen, het verspreiden van content of het controleren van de authenticiteit en herkomst ervan, teneinde het publiek in staat te stellen door AI gegenereerde content doeltreffend te onderscheiden.
(135)
Fără a aduce atingere caracterului obligatoriu și aplicabilității depline a obligațiilor privind transparența, Comisia poate, de asemenea, să încurajeze și să faciliteze elaborarea de coduri de bune practici la nivelul Uniunii cu scopul de a facilita punerea în aplicare efectivă a obligațiilor privind detectarea și etichetarea conținutului generat sau manipulat artificial, inclusiv de a sprijini modalitățile practice pentru a oferi accesul, după caz, la mecanisme de detectare și pentru a facilita cooperarea cu alți actori de-a lungul lanțului valoric, pentru a disemina conținutul sau a verifica autenticitatea și proveniența acestuia, astfel încât publicul să poată distinge efectiv conținutul generat de IA.
(136)
De verplichtingen die in deze verordening aan aanbieders en gebruiksverantwoordelijken van bepaalde aI-systemen worden opgelegd om opsporing mogelijk te maken, evenals de bekendmaking dat de outputs van die systemen kunstmatig worden gegenereerd of gemanipuleerd, zijn bijzonder relevant om de doeltreffende uitvoering van Verordening (EU) 2022/2065 te vergemakkelijken. Dit geldt met name voor de verplichtingen van aanbieders van zeer grote onlineplatforms of zeer grote onlinezoekmachines om systeemrisico’s te identificeren en te beperken die kunnen voortvloeien uit de verspreiding van kunstmatig gegenereerde of gemanipuleerde content, met name het risico op feitelijke of voorzienbare negatieve effecten op democratische processen, het maatschappelijk debat en verkiezingsprocessen, onder meer door desinformatie. Het vereiste om uit hoofde van deze verordening content die door AI-systemen wordt gegenereerd, aan te merken, doet geen afbreuk aan de verplichting van artikel 16, lid 6, van Verordening (EU) 2022/2065 voor aanbieders van hostingdiensten om meldingen van illegale content te verwerken op grond van artikel 16, lid 1, van die verordening, en mag geen invloed hebben op de beoordeling van en het besluit over de onwettigheid van de specifieke content. Die beoordeling moet uitsluitend worden verricht aan de hand van de regels inzake de rechtmatigheid van de content.
(136)
Obligațiile impuse prin prezentul regulament furnizorilor și implementatorilor anumitor sisteme de IA pentru a permite detectarea și divulgarea faptului că rezultatele sistemelor respective sunt generate sau manipulate artificial sunt deosebit de relevante pentru a facilita punerea în aplicare efectivă a Regulamentului (UE) 2022/2065. Acest lucru este valabil în special în ceea ce privește obligațiile furnizorilor de platforme online foarte mari sau de motoare de căutare online foarte mari de a identifica și a atenua riscurile sistemice care pot apărea în urma diseminării conținutului care a fost generat sau manipulat artificial, în special riscul privind efectele negative reale sau previzibile asupra proceselor democratice, asupra discursului civic și asupra proceselor electorale, inclusiv prin dezinformare. Cerința de etichetare a conținutului generat de sistemele de IA în temeiul prezentului regulament nu aduce atingere obligației prevăzute la articolul 16 alineatul (6) din Regulamentul (UE) 2022/2065 pentru furnizorii de servicii de găzduire de a prelucra notificările privind conținutul ilegal primite în temeiul articolului 16 alineatul (1) din regulamentul respectiv și nu ar trebui să influențeze evaluarea și decizia privind ilegalitatea conținutului specific. Evaluarea respectivă ar trebui să fie efectuată exclusiv în raport cu normele care reglementează legalitatea conținutului.
(137)
Naleving van de bovengenoemde transparantieverplichtingen voor AI-systemen die onder deze verordening vallen, mag niet aldus worden uitgelegd dat het gebruik van het systeem of de output ervan rechtmatig is op grond van deze verordening of andere wetgeving van de Unie en de lidstaten, en moet andere in het Unierecht of het nationale recht vastgelegde transparantieverplichtingen voor gebruiksverantwoordelijken van AI-systemen onverlet laten.
(137)
Respectarea obligațiilor privind transparența pentru sistemele de IA vizate de prezentul regulament nu ar trebui să fie interpretată ca indicând faptul că utilizarea sistemului de IA sau a rezultatelor sale este legală în temeiul prezentului regulament sau al altor dispoziții din dreptul Uniunii și al statelor membre și nu ar trebui să aducă atingere altor obligații de transparență pentru implementatorii sistemelor de IA prevăzute în dreptul Uniunii sau în cel intern.
(138)
AI is een snel ontwikkelende familie van technologieën die regelgevingstoezicht en een veilige en gecontroleerde plek voor experimenteren vereist, terwijl tegelijkertijd de verantwoorde innovatie en integratie van passende waarborgen en risicobeperkende maatregelen worden gewaarborgd. Om te zorgen voor een wettelijk kader dat innovatie stimuleert, toekomstbestendig is en bestand is tegen verstoringen, moeten de lidstaten ervoor zorgen dat hun nationale bevoegde autoriteiten ten minste één AI-testomgeving voor regelgeving op nationaal niveau tot stand brengen om de ontwikkeling en het testen van innovatieve AI-systemen onder strikt regelgevingstoezicht mogelijk te maken voordat deze systemen in de handel worden gebracht of anderszins in gebruik worden gesteld. De lidstaten kunnen deze verplichting ook nakomen door deel te nemen aan reeds bestaande testomgevingen voor regelgeving of door samen met de bevoegde autoriteiten van een of meer lidstaten een testomgeving op te zetten, voor zover deze deelname de deelnemende lidstaten een gelijkwaardig niveau van nationale dekking biedt. AI-testomgevingen voor regelgeving kunnen in fysieke, digitale of hybride vorm worden opgezet en kunnen zowel fysieke als digitale producten bevatten. De autoriteiten die de AI-testomgeving hebben ontwikkeld, moeten er ook voor zorgen dat de AI-testomgevingen voor regelgeving over voldoende middelen beschikken, met inbegrip van financiële en personele middelen.
(138)
IA este o familie de tehnologii care se dezvoltă rapid și care necesită supraveghere reglementară și un spațiu sigur și controlat pentru experimentare, asigurând, în același timp, inovarea responsabilă și integrarea unor garanții adecvate și a unor măsuri de atenuare a riscurilor. Pentru a asigura un cadru juridic care promovează inovarea, adaptat exigențelor viitorului și rezistent la inovări disruptive, statele membre ar trebui să se asigure că autoritățile lor naționale competente instituie cel puțin un spațiu de testare la nivel național în materie de reglementare în domeniul IA pentru a facilita dezvoltarea și testarea sistemelor de IA inovatoare aflate sub supraveghere reglementară strictă înainte ca aceste sisteme să fie introduse pe piață sau puse în funcțiune în alt mod. Statele membre ar putea, de asemenea, să îndeplinească această obligație prin participarea la spațiile de testare în materie de reglementare deja existente sau prin instituirea unui spațiu de testare în comun cu una sau mai multe autorități competente ale statelor membre, în măsura în care această participare asigură un nivel echivalent de acoperire națională pentru statele membre participante. Spațiile de testare în materie de reglementare în domeniul IA ar putea fi instituite în formă fizică, digitală sau hibridă și pot găzdui atât produse fizice, cât și produse digitale. Autoritățile de instituire ar trebui, de asemenea, să se asigure că spațiile de testare în materie de reglementare în domeniul IA dispun de resursele adecvate pentru funcționarea lor, inclusiv de resurse financiare și umane.
(139)
De doelstellingen van AI-testomgevingen voor regelgeving moeten bestaan in het bevorderen van AI-innovatie door te zorgen voor een gecontroleerde experiment- en testomgeving in de ontwikkelingsfase en de fase vóór het in de handel brengen met het oog op het waarborgen van de overeenstemming van innovatieve AI-systemen met deze verordening en andere relevante wetgeving van de Unie en de lidstaten. Bovendien moeten de AI-testomgevingen voor regelgeving gericht zijn op het verbeteren van de rechtszekerheid voor innovatoren en het toezicht en begrip van de bevoegde autoriteiten ten aanzien van de mogelijkheden, opkomende risico’s en de effecten van het gebruik van AI, het leren van regelgeving voor autoriteiten en ondernemingen te vergemakkelijken, onder meer met het oog op toekomstige aanpassingen van het rechtskader, de samenwerking en de uitwisseling van beste praktijken met de autoriteiten die betrokken zijn bij de AI-testomgeving voor regelgeving te ondersteunen, en het versnellen van de toegang tot markten, onder meer door belemmeringen voor kmo’s, met inbegrip van start-ups, weg te nemen. AI-testomgevingen voor regelgeving moeten in de hele Unie op grote schaal beschikbaar zijn, en er moet bijzondere aandacht worden besteed aan de toegankelijkheid ervan voor kmo’s, met inbegrip van start-ups. Bij deelname aan een AI-testomgeving voor regelgeving moet de focus liggen op kwesties die leiden tot rechtsonzekerheid voor aanbieders en potentiële aanbieders met betrekking tot innovatie, experimenten met AI in de Unie en bijdragen aan het empirisch leren op het gebied van regelgeving. Toezicht op de AI-systemen in een AI-testomgeving voor regelgeving moet daarom gericht zijn op het ontwikkelen, trainen, testen en valideren van deze systemen, voordat ze in de handel worden gebracht of in gebruik worden gesteld, alsook op het begrip substantiële wijziging en het zich voordoen ervan, hetgeen een nieuwe conformiteitsbeoordelingsprocedure kan vereisen. Aanzienlijke risico’s die tijdens het ontwikkelen en testen van dergelijke AI-systemen worden vastgesteld, moeten op adequate wijze worden beperkt en bij gebreke daarvan leiden tot de opschorting van het ontwikkelings- en testproces. Waar passend moeten nationale bevoegde autoriteiten die AI-testomgevingen voor regelgeving opzetten, samenwerken met andere betrokken autoriteiten, waaronder autoriteiten die toezicht houden op de bescherming van de grondrechten, en kunnen zij toestaan dat andere actoren binnen het AI-ecosysteem hierbij betrokken worden, zoals nationale of Europese normalisatie-instellingen, aangemelde instanties, test- en experimenteerfaciliteiten, laboratoria voor onderzoek en experimenteren, Europese digitale-innnovatiehubs en relevante belanghebbenden en maatschappelijke organisaties. Teneinde de uniforme uitvoering in de gehele Unie en schaalvoordelen te waarborgen, is het passend om gemeenschappelijke regels vast te stellen voor de uitvoering van AI-testomgevingen voor regelgeving, evenals een kader voor de samenwerking tussen de relevante autoriteiten die betrokken zijn bij het toezicht op de testomgevingen. Krachtens deze verordening opgezette AI-testomgevingen voor regelgeving mogen geen afbreuk doen aan andere wetgeving op grond waarvan andere testomgevingen kunnen worden opgezet om de naleving van ander recht dan deze verordening te waarborgen. Waar passend moeten de bevoegde autoriteiten die verantwoordelijk zijn voor die andere testomgevingen voor regelgeving nagaan welke voordelen het zou opleveren als die testomgevingen ook worden gebruikt om te waarborgen dat AI-systemen in overeenstemming zijn met deze verordening. Als de nationale bevoegde autoriteiten en de deelnemers aan de AI-testomgeving voor regelgeving het hierover eens zijn, kunnen in het kader van de AI-testomgeving voor regelgeving ook testen onder reële omstandigheden worden uitgevoerd en gecontroleerd.
(139)
Obiectivele spațiilor de testare în materie de reglementare în domeniul IA ar trebui să fie promovarea inovării în domeniul IA prin instituirea unui mediu de experimentare și testare controlat în faza de dezvoltare și în faza anterioară introducerii pe piață, cu scopul de a asigura conformitatea sistemelor de IA inovatoare cu prezentul regulament și cu alte dispoziții relevante din dreptul Uniunii și dreptul intern. În plus, spațiile de testare în materie de reglementare în domeniul IA ar trebui să urmărească sporirea securității juridice pentru inovatori și supravegherea și înțelegerea de către autoritățile competente a oportunităților, a riscurilor emergente și a impactului utilizării IA, facilitarea învățării în materie de reglementare pentru autorități și întreprinderi, inclusiv în vederea viitoarelor adaptări ale cadrului juridic, sprijinirea cooperării și a schimbului de bune practici cu autoritățile implicate în spațiul de testare în materie de reglementare în domeniul IA, precum și accelerarea accesului la piețe, inclusiv prin eliminarea barierelor din calea IMM-urilor, inclusiv a întreprinderilor nou-înființate. Spațiile de testare în materie de reglementare în domeniul IA ar trebui să fie disponibile pe scară largă în întreaga Uniune și ar trebui să se acorde o atenție deosebită accesibilității acestora pentru IMM-uri, inclusiv pentru întreprinderile nou-înființate. Participarea la spațiul de testare în materie de reglementare în domeniul IA ar trebui să se concentreze pe aspecte care fac ca furnizorii și potențialii furnizori să se confrunte cu o lipsă de securitate juridică atunci când încearcă să inoveze, să experimenteze cu IA în Uniune și să contribuie la învățarea bazată pe dovezi în materie de reglementare. Supravegherea sistemelor de IA în spațiul de testare în materie de reglementare în domeniul IA ar trebui, prin urmare, să vizeze dezvoltarea, antrenarea, testarea și validarea acestora înainte ca sistemele să fie introduse pe piață sau puse în funcțiune, precum și noțiunea de modificare substanțială care ar putea necesita o nouă procedură de evaluare a conformității și ocurența unei astfel de modificări. Orice riscuri semnificative identificate în cursul dezvoltării și testării unor astfel de sisteme de IA ar trebui să conducă la o atenuare adecvată și, în cazul în care atenuarea nu este posibilă, la suspendarea procesului de dezvoltare și testare. După caz, autoritățile naționale competente care instituie spații de testare în materie de reglementare în domeniul IA ar trebui să coopereze cu alte autorități relevante, inclusiv cu cele care supraveghează protecția drepturilor fundamentale, și ar putea permite implicarea altor actori din ecosistemul de IA, cum ar fi organizațiile de standardizare naționale sau europene, organismele notificate, unitățile de testare și experimentare, laboratoarele de cercetare și experimentare, centrele europene de inovare digitală și organizațiile relevante ale părților interesate și ale societății civile. Pentru a asigura o punere în aplicare uniformă în întreaga Uniune și economii de scară, este oportun să se stabilească norme comune pentru punerea în aplicare a spațiilor de testare în materie de reglementare în domeniul IA și un cadru de cooperare între autoritățile relevante implicate în supravegherea spațiilor de testare. Spațiile de testare în materie de reglementare în domeniul IA instituite în temeiul prezentului regulament nu ar trebui să aducă atingere altor dispoziții de drept care permit instituirea altor spații de testare cu scopul de a asigura conformitatea cu alte dispoziții de drept decât prezentul regulament. După caz, autoritățile competente relevante responsabile de aceste alte spații de testare în materie de reglementare ar trebui să ia în considerare beneficiile utilizării acestor spații de testare și în scopul asigurării conformității sistemelor de IA cu prezentul regulament. Pe baza unui acord între autoritățile naționale competente și participanții la spațiul de testare în materie de reglementare în domeniul IA, testarea în condiții reale poate fi, de asemenea, efectuată și supravegheată în cadrul spațiului de testare în materie de reglementare în domeniul IA.
(140)
Deze verordening moet aanbieders en potentiële aanbieders van de AI-testomgeving voor regelgeving de rechtsgrond bieden voor het gebruik van persoonsgegevens die voor andere doeleinden zijn verzameld, met het oog op de ontwikkeling van bepaalde AI-systemen in het openbaar belang in de AI-testomgeving voor regelgeving, echter alleen onder bepaalde omstandigheden, overeenkomstig artikel 6, lid 4, en artikel 9, lid 2, punt g), van Verordening (EU) 2016/679 en de artikelen 5, 6 en 10 van Verordening (EU) 2018/1725 en onverminderd artikel 4, lid 2, en artikel 10 van Richtlijn (EU) 2016/680. Alle andere verplichtingen van verwerkingsverantwoordelijken en rechten van betrokkenen uit hoofde van Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680 blijven van toepassing. In het bijzonder mag deze verordening geen rechtsgrond bieden in de zin van artikel 22, lid 2, punt b), van Verordening (EU) 2016/679 en artikel 24, lid 2, punt b), van Verordening (EU) 2018/1725. Aanbieders en potentiële aanbieders van de AI-testomgeving voor regelgeving moeten zorgen voor passende waarborgen en moeten samenwerken met de bevoegde autoriteiten, onder meer door hun richtsnoeren te volgen en snel en te goeder trouw te handelen om eventuele vastgestelde significante risico’s voor de veiligheid, de gezondheid en de grondrechten die zich tijdens de ontwikkeling en het experimenteren in die testomgeving kunnen voordoen, op adequate wijze te beperken.
(140)
Prezentul regulament ar trebui să ofere furnizorilor și potențialilor furnizori din cadrul spațiului de testare în materie de reglementare în domeniul IA temeiul juridic pentru utilizarea datelor cu caracter personal colectate în alte scopuri pentru a dezvolta anumite sisteme de IA de interes public în cadrul spațiului de testare în materie de reglementare în domeniul IA numai în condiții specificate, în conformitate cu articolul 6 alineatul (4) și cu articolul 9 alineatul (2) litera (g) din Regulamentul (UE) 2016/679, precum și cu articolele 5, 6 și 10 din Regulamentul (UE) 2018/1725 și fără a aduce atingere articolului 4 alineatul (2) și articolului 10 din Directiva (UE) 2016/680. Toate celelalte obligații ale operatorilor de date și drepturi ale persoanelor vizate în temeiul Regulamentelor (UE) 2016/679 și (UE) 2018/1725 și al Directivei (UE) 2016/680 rămân aplicabile. În special, prezentul regulament nu ar trebui să ofere un temei juridic în sensul articolului 22 alineatul (2) litera (b) din Regulamentul (UE) 2016/679 și al articolului 24 alineatul (2) litera (b) din Regulamentul (UE) 2018/1725. Furnizorii și potențialii furnizori din cadrul spațiului de testare în materie de reglementare în domeniul IA ar trebui să asigure garanții adecvate și să coopereze cu autoritățile competente, inclusiv urmând orientările acestora și acționând cu promptitudine și cu bună-credință, în ceea ce privește atenuarea în mod adecvat a oricăror riscuri semnificative identificate la adresa siguranței, sănătății și a drepturilor fundamentale care ar putea apărea în timpul dezvoltării, testării și experimentării în spațiul de testare respectiv.
(141)
Om de ontwikkeling en het in de handel brengen van de in een bijlage bij deze verordening opgenomen AI-systemen met een hoog risico te versnellen is het belangrijk dat aanbieders of potentiële aanbieders van deze systemen ook zonder deel te nemen aan een AI-testomgeving voor regelgeving gebruik kunnen maken van een speciale regeling voor het testen van deze systemen onder reële omstandigheden. De verordening moet in dergelijke gevallen echter voorzien in passende en voldoende waarborgen en voorwaarden voor aanbieders en potentiële aanbieders, rekening houdend met de mogelijke gevolgen van die testen voor individuele natuurlijke personen. Deze waarborgen moeten onder meer inhouden dat natuurlijke personen om geïnformeerde toestemming wordt gevraagd voor deelname aan testen onder reële omstandigheden, behalve in het kader van rechtshandhaving waarbij het vragen van geïnformeerde toestemming zou verhinderen dat het AI-systeem wordt getest. Toestemming van proefpersonen voor deelname aan dergelijke tests in het kader van deze verordening staat los van de toestemming van betrokkenen voor de verwerking van hun persoonsgegevens uit hoofde van het relevante gegevensbeschermingsrecht en laat deze onverlet. Het is ook belangrijk om de risico’s tot een minimum te beperken en toezicht door bevoegde autoriteiten mogelijk te maken en daarom potentiële aanbieders voor te schrijven dat zij een plan voor testen onder reële omstandigheden indienen bij de bevoegde markttoezichtautoriteit, de testen registreren in specifieke rubrieken in de EU-databank, met uitzondering van enkele beperkte uitzonderingen, beperkingen stellen aan de periode gedurende welke de testen kunnen worden uitgevoerd en aanvullende waarborgen voor tot bepaalde kwetsbare groepen horende personen vereisen, evenals een schriftelijke overeenkomst waarin de rollen en verantwoordelijkheden van potentiële aanbieders en gebruiksverantwoordelijken worden omschreven en doeltreffend toezicht door bevoegd personeel dat betrokken is bij de testen onder reële omstandigheden. Voorts is het passend te voorzien in aanvullende waarborgen om ervoor te zorgen dat de voorspellingen, aanbevelingen of besluiten van het AI-systeem daadwerkelijk kunnen worden teruggedraaid en genegeerd en dat persoonsgegevens worden beschermd en gewist indien de proefpersonen hun toestemming om aan de testen deel te nemen hebben ingetrokken, onverminderd hun rechten als betrokkenen uit hoofde van het Unierecht inzake gegevensbescherming. Wat de doorgifte van gegevens betreft, is het ook passend te voorzien dat gegevens die zijn verzameld en verwerkt met het oog op testen in reële omstandigheden alleen aan derde landen mogen worden doorgegeven die passende en toepasselijke waarborgen uit hoofde van het Unierecht toepassen, met name in overeenstemming met de basisvoorwaarden voor de doorgifte van persoonsgegevens uit hoofde van het Unierecht inzake gegevensbescherming, terwijl voor niet-persoonsgebonden gegevens passende waarborgen worden voorzien in overeenstemming met het Unierecht, zoals Verordeningen (EU) 2022/868 (42) en (EU) 2023/2854 (43) van het Europees Parlement en de Raad.
(141)
Pentru a accelera procesul de dezvoltare și introducere pe piață a sistemelor de IA cu grad ridicat de risc enumerate într-o anexă la prezentul regulament, este important ca furnizorii sau potențialii furnizori ai acestor sisteme să poată beneficia, la rândul lor, de un regim specific pentru testarea acestor sisteme în condiții reale, fără a participa la un spațiu de testare în materie de reglementare în domeniul IA. Cu toate acestea, în astfel de cazuri, ținând seama de posibilele consecințe ale unor astfel de teste asupra persoanelor fizice, ar trebui să se garanteze faptul că prezentul regulament introduce garanții și condiții adecvate și suficiente pentru furnizori sau potențiali furnizori. Astfel de garanții ar trebui să includă, printre altele, solicitarea consimțământului în cunoștință de cauză al persoanelor fizice de a participa la teste în condiții reale, cu excepția cazurilor legate de aplicarea legii dacă solicitarea consimțământului în cunoștință de cauză ar împiedica testarea sistemului de IA. Consimțământul subiecților de a participa la astfel de teste în temeiul prezentului regulament este distinct de consimțământului persoanelor vizate pentru prelucrarea datelor lor cu caracter personal în temeiul dreptului relevant privind protecția datelor și nu îi aduce atingere acestuia. De asemenea, este important să se reducă la minimum riscurile și să se permită supravegherea de către autoritățile competente și, prin urmare, să se impună potențialilor furnizori să facă demersurile necesare pentru prezentarea unui plan de testare în condiții reale autorității competente de supraveghere a pieței, să se înregistreze testările în secțiuni specifice din baza de date a UE, sub rezerva unor excepții limitate, să se instituie limite privind perioada pentru care se poate efectua testarea și să se impună garanții suplimentare pentru persoanele care aparțin anumitor grupuri vulnerabile, precum și un acord scris care să definească rolurile și responsabilitățile potențialilor furnizori și implementatori și supravegherea eficace de către personalul competent implicat în testarea în condiții reale. În plus, este oportun să se prevadă garanții suplimentare pentru a se asigura că previziunile, recomandările sau deciziile sistemului de IA pot fi efectiv inversate și ignorate și că datele cu caracter personal sunt protejate și sunt șterse atunci când subiecții își retrag consimțământul de a participa la testare, fără a aduce atingere drepturilor lor în calitate de persoane vizate în temeiul dreptului Uniunii privind protecția datelor. În ceea ce privește transferul de date, este, de asemenea, oportun să se prevadă că datele colectate și prelucrate în scopul testării în condiții reale ar trebui să fie transferate către țări terțe numai cu condiția punerii în aplicare a unor garanții adecvate și aplicabile în temeiul dreptului Uniunii, în special în conformitate cu bazele pentru transferul de date cu caracter personal în temeiul dreptului Uniunii privind protecția datelor, în timp ce pentru datele fără caracter personal sunt instituite garanții adecvate în conformitate cu dreptul Uniunii, cum ar fi Regulamentele (UE) 2022/868 (42) și (UE) 2023/2854 (43) ale Parlamentului European și ale Consiliului.
(142)
Om ervoor te zorgen dat AI tot sociaal en ecologisch gunstige resultaten leidt, worden de lidstaten aangemoedigd onderzoek naar en ontwikkeling van AI-oplossingen ter ondersteuning van sociaal en ecologisch gunstige resultaten te steunen en te bevorderen, zoals op AI gebaseerde oplossingen om de toegankelijkheid voor personen met een handicap te vergroten, sociaal-economische ongelijkheden aan te pakken of milieudoelstellingen te halen, door voldoende middelen toe te wijzen, met inbegrip van overheidsfinanciering en financiering door de Unie, en met name, in voorkomend geval en op voorwaarde dat aan de subsidiabiliteits- en selectiecriteria is voldaan, vooral projecten in overweging te nemen waarmee dergelijke doelstellingen worden nagestreefd. Dergelijke projecten moeten gebaseerd zijn op het beginsel van interdisciplinaire samenwerking tussen AI-ontwikkelaars, deskundigen op het gebied van ongelijkheid en non-discriminatie, toegankelijkheid, consumentenrecht, milieurecht en digitale rechten, alsook academici.
(142)
Pentru a se asigura că IA conduce la rezultate benefice din punct de vedere social și ecologic, statele membre sunt încurajate să sprijine și să promoveze cercetarea și dezvoltarea de soluții de IA în sprijinul rezultatelor benefice din punct de vedere social și ecologic, cum ar fi soluțiile bazate pe IA pentru a spori accesibilitatea pentru persoanele cu dizabilități, pentru a combate inegalitățile socioeconomice sau pentru a îndeplini obiectivele de mediu, alocând resurse suficiente, inclusiv finanțare publică și din partea Uniunii, și, după caz și cu condiția îndeplinirii criteriilor de eligibilitate și de selecție, luând în considerare în special proiectele care urmăresc astfel de obiective. Aceste proiecte ar trebui să se bazeze pe principiul cooperării interdisciplinare dintre dezvoltatorii de IA, experții în materie de inegalitate și nediscriminare, accesibilitate, drepturile consumatorilor, de mediu și digitale, precum și cadrele universitare.
(143)
Om de innovatie te bevorderen en beschermen, is het belangrijk dat er in het bijzonder rekening wordt gehouden met de belangen van kmo’s, met inbegrip van start-ups, die aanbieders of gebruiksverantwoordelijken van AI-systemen zijn. Daartoe moeten de lidstaten initiatieven ontwikkelen die gericht zijn op deze operatoren, onder meer met het oog op bewustmaking en informatieverstrekking. De lidstaten moeten kmo’s, met inbegrip van start-ups, die een maatschappelijke zetel of een bijkantoor in de Unie hebben, prioritaire toegang bieden tot de AI-testomgevingen voor regelgeving, mits zij voldoen aan de subsidiabiliteitsvoorwaarden en selectiecriteria en zonder andere aanbieders en potentiële aanbieders uit te sluiten van de testomgevingen, mits aan dezelfde voorwaarden en criteria is voldaan. De lidstaten moeten hiervoor de bestaande kanalen gebruiken en waar nodig nieuwe specifieke kanalen voor de communicatie met kmo’s, met inbegrip van start-ups, gebruiksverantwoordelijken, andere innovatoren en, in voorkomend geval, lokale overheidsinstanties opzetten om kmo’s in hun ontwikkelingstraject te ondersteunen door begeleiding te bieden en vragen over de uitvoering van deze verordening te beantwoorden. Waar nodig moeten deze kanalen met elkaar samenwerken om synergieën te creëren en te zorgen voor een homogene aanpak bij hun adviezen aan kmo’s, met inbegrip van start-ups, en gebruiksverantwoordelijken. Daarnaast moeten de lidstaten de deelname van kmo’s en andere relevante belanghebbenden aan het proces voor de ontwikkeling van normen faciliteren. Bovendien moet rekening worden gehouden met de specifieke belangen en behoeften van aanbieders die kmo’s zijn, met inbegrip van start-ups, wanneer aangemelde instanties bijdragen voor de conformiteitsbeoordeling vaststellen. De Commissie moet de certificerings- en nalevingskosten voor kmo’s, met inbegrip van start-ups, regelmatig beoordelen via transparant overleg, en moet met de lidstaten samenwerken om die kosten te verlagen. Vertaalkosten in verband met verplichte documentatie en communicatie met autoriteiten kunnen bijvoorbeeld een aanzienlijke kostenpost vormen voor met name kleine aanbieders en andere operatoren. De lidstaten moeten er indien mogelijk voor zorgen dat een van de door hen vastgestelde en aanvaarde talen voor de documentatie van betrokken aanbieders en voor de communicatie met operatoren in grote lijnen wordt begrepen door een zo groot mogelijk aantal grensoverschrijdende gebruiksverantwoordelijken. Om tegemoet te komen aan de specifieke behoeften van kmo’s, met inbegrip van start-ups, moet de Commissie op verzoek van de AI-board gestandaardiseerde sjablonen verstrekken voor de gebieden die onder deze verordening vallen. Daarnaast moet de Commissie de inspanningen van de lidstaten aanvullen door te voorzien in een centraal informatieplatform met gebruiksvriendelijke informatie over deze verordening voor alle aanbieders en gebruiksverantwoordelijken, door passende communicatiecampagnes te organiseren om het bewustzijn over de uit deze verordening voortvloeiende verplichtingen te vergroten, en door de convergentie van beste praktijken in openbare aanbestedingsprocedures met betrekking tot AI-systemen te evalueren en te bevorderen. Middelgrote ondernemingen die tot voor kort als kleine ondernemingen werden aangemerkt in de zin van de bijlage bij Aanbeveling 2003/361/EG van de Commissie (44), moeten toegang hebben tot die steunmaatregelen, aangezien die nieuwe middelgrote ondernemingen soms niet over de nodige juridische middelen en opleiding beschikken om een goed begrip en een goede naleving van deze verordening te waarborgen.
(143)
Pentru a promova și proteja inovarea, este important să fie luate în considerare în mod deosebit interesele IMM-urilor, inclusiv ale întreprinderilor nou-înființate care sunt furnizori și implementatori de sisteme de IA. În acest scop, statele membre ar trebui să elaboreze inițiative care să vizeze operatorii respectivi, inclusiv în ceea ce privește sensibilizarea și comunicarea informațiilor. Statele membre ar trebui să ofere IMM-urilor, inclusiv întreprinderilor nou-înființate, care au un sediu social sau o sucursală în Uniune, acces prioritar la spațiile de testare în materie de reglementare în domeniul IA, cu condiția ca acestea să îndeplinească condițiile de eligibilitate și criteriile de selecție și fără a împiedica alți furnizori și potențiali furnizori să acceseze spațiile de testare, cu condiția să fie îndeplinite aceleași condiții și criterii. Statele membre ar trebui să utilizeze canalele existente și, după caz, să stabilească noi canale specifice de comunicare cu IMM-urile, inclusiv întreprinderile nou-înființate, implementatorii și alți inovatori și, după caz, cu autoritățile publice locale, pentru a sprijini IMM-urile pe tot parcursul dezvoltării lor, oferind orientări și răspunzând la întrebări cu privire la punerea în aplicare a prezentului regulament. După caz, aceste canale ar trebui să colaboreze pentru a crea sinergii și pentru a asigura omogenitatea orientărilor pe care le furnizează IMM-urilor, inclusiv întreprinderilor nou-înființate, și implementatorilor. În plus, statele membre ar trebui să faciliteze participarea IMM-urilor și a altor părți interesate relevante la procesele de elaborare a standardelor. De asemenea, ar trebui să fie luate în considerare interesele și nevoile specifice ale furnizorilor care sunt IMM-uri, inclusiv întreprinderi nou-înființate, atunci când organismele notificate stabilesc taxe de evaluare a conformității. Comisia ar trebui să evalueze periodic costurile de certificare și de conformitate suportate de IMM-uri, inclusiv de întreprinderile nou-înființate, prin consultări transparente și ar trebui să colaboreze cu statele membre pentru a reduce aceste costuri. De exemplu, costurile de traducere legate de documentația obligatorie și de comunicarea cu autoritățile pot constitui un cost semnificativ pentru furnizori și alți operatori, în special pentru cei de dimensiuni mai mici. Statele membre ar trebui, eventual, să se asigure că una dintre limbile stabilite și acceptate pentru documentația relevantă din partea furnizorilor și pentru comunicarea cu operatorii este o limbă înțeleasă pe larg de un număr cât mai mare de implementatori transfrontalieri. Pentru a răspunde nevoilor specifice ale IMM-urilor, inclusiv ale întreprinderilor nou-înființate, Comisia ar trebui să furnizeze modele standardizate pentru domeniile vizate de prezentul regulament, la solicitarea Consiliului IA. În plus, Comisia ar trebui să completeze eforturile statelor membre prin furnizarea unei platforme unice de informare cu informații ușor de utilizat în ceea ce privește prezentul regulament destinate tuturor furnizorilor și implementatorilor, prin organizarea unor campanii de comunicare adecvate pentru sensibilizarea cu privire la obligațiile care decurg din prezentul regulament și prin evaluarea și promovarea convergenței bunelor practici în cadrul procedurilor de achiziții publice în ceea ce privește sistemele de IA. Întreprinderile mijlocii care până recent se încadrau în categoria de întreprinderi mici în sensul anexei la Recomandarea 2003/361/CE a Comisiei (44) ar trebui să aibă acces la măsurile de sprijin respective, deoarece este posibil ca aceste noi întreprinderi mijlocii să nu dispună uneori de resursele juridice și formarea necesare pentru a asigura respectarea și înțelegerea adecvată a prezentului regulament.
(144)
Om innovatie te bevorderen en te beschermen, moeten het platform voor AI on demand en alle relevante financieringsprogramma’s en projecten van de Unie, zoals het programma Digitaal Europa en Horizon Europa, die op Unie- of nationaal niveau worden uitgevoerd door de Commissie en de lidstaten, in voorkomend geval, bijdragen aan de verwezenlijking van de doelstellingen van deze verordening.
(144)
Pentru a promova și a proteja inovarea, platforma de IA la cerere și toate programele și proiectele de finanțare relevante ale Uniunii, cum ar fi programele Europa digitală și Orizont Europa, puse în aplicare de Comisie și de statele membre la nivelul Uniunii sau la nivel național, ar trebui, după caz, să contribuie la îndeplinirea obiectivelor prezentului regulament.
(145)
Om de risico’s voor de uitvoering te beperken die voortvloeien uit een gebrek aan kennis en deskundigheid op de markt en om de nakoming door aanbieders, met name kmo’s, met inbegrip van start-ups, en aangemelde instanties van hun verplichtingen uit hoofde van deze verordening te vergemakkelijken, zouden met name het platform voor AI on demand, de Europese digitale-innovatiehubs en de test- en experimenteerfaciliteiten die door de Commissie en de lidstaten op Unie- of nationaal niveau zijn vastgesteld, moeten bijdragen tot de uitvoering van deze verordening. Binnen hun respectieve opdracht en bevoegdheidsgebieden kunnen het platform voor AI on demand, de Europese digitale-innovatiehubs en de test- en experimenteerfaciliteiten met name technische en wetenschappelijke ondersteuning bieden aan aanbieders en aangemelde instanties.
(145)
Pentru a reduce la minimum riscurile la adresa punerii în aplicare care decurg din lipsa de cunoaștere și de cunoștințe de specialitate de pe piață, precum și pentru a facilita respectarea de către furnizori, cu precădere de către IMM-uri, inclusiv întreprinderile nou-înființate, precum și de către organismele notificate a obligațiilor care le revin în temeiul prezentului regulament, platforma de IA la cerere, centrele europene de inovare digitală și instalațiile de testare și experimentare instituite de Comisie și de statele membre la nivelul Uniunii sau la nivel național ar trebui să contribuie la punerea în aplicare a prezentului regulament. În cadrul misiunii și domeniilor lor de competență respective, platforma de IA la cerere, centrele europene de inovare digitală și instalațiile de testare și experimentare sunt în măsură să ofere, în special, sprijin tehnic și științific furnizorilor și organismelor notificate.
(146)
Voorts is het, gezien de zeer kleine omvang van sommige operatoren en om de evenredigheid met betrekking tot de kosten van innovatie te waarborgen, passend dat micro-ondernemingen op vereenvoudigde wijze aan een van de duurste vereisten, namelijk het opzetten van een systeem voor kwaliteitsbeheer, voldoen, hetgeen de administratieve lasten en de kosten voor deze ondernemingen zou verminderen zonder afbreuk te doen aan het beschermingsniveau en de noodzaak om de vereisten voor AI-systemen met een hoog risico na te leven. De Commissie moet richtsnoeren ontwikkelen om de elementen te specificeren van het kwaliteitsbeheersysteem waaraan micro-ondernemingen op deze vereenvoudigde wijze moeten voldoen.
(146)
În plus, având în vedere dimensiunea foarte mică a unor operatori și pentru a asigura proporționalitatea în ceea ce privește costurile inovării, este oportun să se permită microîntreprinderilor să îndeplinească într-o manieră simplificată una dintre obligațiile cele mai costisitoare, și anume aceea de a institui un sistem de management al calității, fapt care ar reduce sarcina administrativă și costurile pentru întreprinderile respective, fără a afecta nivelul de protecție și necesitatea de a respecta cerințele pentru sistemele de IA cu grad ridicat de risc. Comisia ar trebui să elaboreze orientări pentru a specifica elementele sistemului de management al calității care trebuie îndeplinite în această manieră simplificată de către microîntreprinderi.
(147)
Het is passend dat de Commissie voor zover mogelijk de toegang tot test- en experimenteerfaciliteiten vergemakkelijkt voor instanties, groepen of laboratoria die overeenkomstig relevante harmonisatiewetgeving van de Unie zijn opgericht of erkend en die taken uitvoeren in het kader van de conformiteitsbeoordeling van producten of apparaten die onder die harmonisatiewetgeving van de Unie vallen. Dit is met name het geval voor deskundigenpanels, deskundige laboratoria en referentielaboratoria op het gebied van medische hulpmiddelen overeenkomstig de Verordeningen (EU) 2017/745 en (EU) 2017/746.
(147)
Este oportun ca, în măsura posibilului, Comisia să faciliteze accesul la instalațiile de testare și experimentare pentru organismele, grupurile sau laboratoarele înființate sau acreditate în temeiul oricăror acte legislative de armonizare relevante ale Uniunii și care îndeplinesc sarcini în contextul evaluării conformității produselor sau dispozitivelor reglementate de respectivele acte legislative de armonizare ale Uniunii. Acest lucru este valabil în special în ceea ce privește grupurile de experți, laboratoarele de expertiză și laboratoarele de referință în domeniul dispozitivelor medicale în temeiul Regulamentelor (UE) 2017/745 și (UE) 2017/746.
(148)
Bij deze verordening moet een governancekader worden vastgelegd dat het mogelijk maakt de toepassing van deze verordening op nationaal niveau te coördineren en te ondersteunen, evenals capaciteiten op het niveau van de Unie op te bouwen en belanghebbenden op het gebied van AI te integreren. De doeltreffende uitvoering en handhaving van deze verordening vereist een governancekader dat het mogelijk maakt centrale deskundigheid op het niveau van de Unie te coördineren en uit te bouwen. Het AI-bureau is opgericht bij besluit van de Commissie (45) en heeft tot taak deskundigheid en capaciteiten van de Unie op het gebied van AI te ontwikkelen en bij te dragen aan de uitvoering van het recht van de Unie inzake AI. De lidstaten moeten de taken van het AI-bureau faciliteren om de ontwikkeling van deskundigheid en capaciteiten van de Unie op het niveau van de Unie te ondersteunen en de werking van de digitale eengemaakte markt te versterken. Voorts moeten een raad, bestaande uit vertegenwoordigers van de lidstaten, een wetenschappelijk panel om de wetenschappelijke gemeenschap te integreren en een adviesforum worden opgericht om te zorgen voor inbreng van belanghebbenden bij de uitvoering van deze verordening op Unie- en nationaal niveau. Bij de ontwikkeling van de deskundigheid en capaciteiten van de Unie moet ook gebruik worden gemaakt van bestaande middelen en deskundigheid, met name door middel van synergieën met structuren die zijn opgebouwd in het kader van de handhaving van andere wetgeving op Unieniveau en synergieën met gerelateerde initiatieven op Unieniveau, zoals de Gemeenschappelijke Onderneming EuroHPC en de test- en experimenteerfaciliteiten voor AI in het kader van het programma Digitaal Europa.
(148)
Prezentul regulament ar trebui să instituie un cadru de guvernanță care să permită, pe de o parte, coordonarea și sprijinirea aplicării prezentului regulament la nivel național și, pe de altă parte, consolidarea capabilităților la nivelul Uniunii și integrarea părților interesate în domeniul IA. Punerea în aplicare și respectarea efectivă a prezentului regulament necesită un cadru de guvernanță care să permită coordonarea și consolidarea cunoștințelor de specialitate centrale la nivelul Uniunii. Oficiul pentru IA a fost instituit printr-o decizie a Comisiei (45) și are ca misiune să dezvolte cunoștințele de specialitate și capabilitățile Uniunii în domeniul IA și să contribuie la punerea în aplicare a dreptului Uniunii privind IA. Statele membre ar trebui să faciliteze sarcinile Oficiului pentru IA cu scopul de a sprijini dezvoltarea, la nivelul Uniunii, a cunoștințelor de specialitate și a capabilităților Uniunii și de a consolida funcționarea pieței unice digitale. În plus, ar trebui să fie instituit un Consiliu IA compus din reprezentanți ai statelor membre, un grup științific care să integreze comunitatea științifică și un forum consultativ pentru a furniza contribuții ale părților interesate pentru punerea în aplicare a prezentului regulament, la nivelul Uniunii și la nivel național. Dezvoltarea cunoștințelor de specialitate și a capabilităților Uniunii ar trebui să includă și valorificarea resurselor și cunoștințelor de specialitate existente, în special prin sinergii cu structurile create în contextul aplicării la nivelul Uniunii a altor acte legislative și al sinergiilor cu inițiativele conexe de la nivelul Uniunii, cum ar fi Întreprinderea comună EuroHPC și unitățile de testare și experimentare în domeniul IA din cadrul programului „Europa digitală”.
(149)
Teneinde een soepele, doeltreffende en geharmoniseerde uitvoering van deze verordening mogelijk te maken, moet een AI-board worden opgericht. De AI-board moet de verschillende belangen van het AI-ecosysteem belichamen en uit vertegenwoordigers van de lidstaten bestaan. De AI-board moet verantwoordelijk zijn voor een aantal adviestaken, met inbegrip van het opstellen van adviezen en aanbevelingen of het bijdragen aan richtsnoeren over kwesties die verband houden met de uitvoering van deze verordening, waaronder over handhaving, technische specificaties of bestaande normen met betrekking tot de eisen van deze verordening, en de adviesverlening aan de Commissie en de lidstaten en hun nationale bevoegde autoriteiten ten aanzien van specifieke vragen in verband met artificiële intelligentie. Om de lidstaten enige flexibiliteit te bieden bij de aanwijzing van hun vertegenwoordigers in de AI-board, mogen zij iedereen die tot een overheidsinstantie behoort en over relevante competenties en bevoegdheden beschikt om de coördinatie op nationaal niveau te vergemakkelijken en bij te dragen aan de vervulling van de taken van de AI-board aanwijzen als vertegenwoordiger. De AI-board moet twee permanente subgroepen oprichten om een platform te bieden voor samenwerking en uitwisseling tussen markttoezichtautoriteiten en aanmeldende autoriteiten over kwesties betreffende respectievelijk markttoezicht en aangemelde instanties. De permanente subgroep voor markttoezicht moet fungeren als de administratievesamenwerkingsgroep (ADCO) voor deze verordening in de zin van artikel 30 van Verordening (EU) 2019/1020. Overeenkomstig artikel 33 van die verordening moet de Commissie de activiteiten van de permanente subgroep voor markttoezicht ondersteunen door marktevaluaties of -studies uit te voeren, met name om in kaart te brengen voor welke aspecten van deze verordening specifiek en dringend coördinatie nodig is tussen markttoezichtautoriteiten. De AI-board kan in voorkomend geval andere permanente of tijdelijke subgroepen oprichten om specifieke kwesties te onderzoeken. De AI-board moet, in voorkomend geval, ook samenwerken met relevante Unie-organen, -deskundigengroepen en -netwerken die zich bezighouden met het relevante recht van de Unie, waaronder met name die welke actief zijn in het kader van het recht van de Unie inzake data, digitale producten en diensten.
(149)
Pentru a facilita o punere în aplicare armonioasă, efectivă și armonizată a prezentului regulament, ar trebui să fie instituit un Consiliu IA. Consiliul IA ar trebui să reflecte diferitele interese ale ecosistemului de IA și să fie alcătuit din reprezentanți ai statelor membre. Consiliul IA ar trebui să fie responsabil pentru o serie de sarcini consultative, inclusiv emiterea de avize, recomandări, consiliere sau furnizarea unor contribuții sub formă de orientări cu privire la aspecte legate de punerea în aplicare a prezentului regulament, inclusiv cu privire la aspecte de aplicare a legii, la specificații tehnice sau la standarde existente în ceea ce privește cerințele stabilite în prezentul regulament, precum și furnizarea de consiliere Comisiei și statelor lor membre și autorităților naționale competente ale acestora cu privire la chestiuni specifice legate de IA. Pentru a oferi o anumită flexibilitate statelor membre în ceea ce privește desemnarea reprezentanților lor în cadrul Consiliului IA, astfel de reprezentanți pot fi persoane care aparțin unor entități publice care ar trebui să aibă competențele și prerogativele relevante pentru a facilita coordonarea la nivel național și pentru a contribui la îndeplinirea sarcinilor Consiliului IA. Consiliul IA ar trebui să instituie două subgrupuri permanente pentru a oferi o platformă de cooperare și de schimb între autoritățile de supraveghere a pieței și autoritățile de notificare cu privire la aspecte legate de supravegherea pieței și, respectiv, de organismele notificate. Subgrupul permanent pentru supravegherea pieței ar trebui să acționeze în calitate de grup de cooperare administrativă (ADCO) pentru prezentul regulament în sensul articolului 30 din Regulamentul (UE) 2019/1020. În conformitate cu articolul 33 din regulamentul respectiv, Comisia ar trebui să sprijine activitățile subgrupului permanent pentru supravegherea pieței prin efectuarea de evaluări sau studii de piață, în special în vederea identificării aspectelor prezentului regulament care necesită o coordonare specifică și urgentă între autoritățile de supraveghere a pieței. Consiliul IA poate înființa alte subgrupuri permanente sau temporare, după caz, în scopul examinării unor chestiuni specifice. Consiliul IA ar trebui, de asemenea, să coopereze, după caz, cu organismele, grupurile de experți și rețelele relevante ale Uniunii care își desfășoară activitatea în contextul reglementărilor relevante ale dreptului Uniunii, inclusiv, în special, cu cele care își desfășoară activitatea în temeiul reglementărilor relevante ale dreptului Uniunii privind datele, produsele și serviciile digitale.
(150)
Om ervoor te zorgen dat belanghebbenden bij de uitvoering en toepassing van deze verordening worden betrokken, moet een adviesforum worden opgericht om de raad en de Commissie advies en technische expertise te verstrekken. Met het oog op een gevarieerde en evenwichtige vertegenwoordiging van belanghebbenden tussen commerciële en niet-commerciële belangen en, binnen de categorie commerciële belangen, wat kmo’s en andere ondernemingen betreft, moet het adviesforum onder meer bestaan uit vertegenwoordigers van de industrie, start-ups, kmo’s, de academische wereld, het maatschappelijk middenveld, met inbegrip van de sociale partners, het Bureau voor de grondrechten, Enisa, het Europees Comité voor normalisatie (CEN), het Europees Comité voor elektrotechnische normalisatie (Cenelec) en het Europees Instituut voor telecommunicatienormen (ETSI).
(150)
Pentru a asigura implicarea părților interesate în punerea în aplicare și aplicarea prezentului regulament, ar trebui să fie instituit un forum consultativ care să furnizeze Consiliului IA și Comisiei consiliere și cunoștințe de specialitate tehnice. Pentru a asigura o reprezentare a părților interesate variată și echilibrată între interesele comerciale și cele necomerciale și, în cadrul categoriei intereselor comerciale, în ceea ce privește IMM-urile și alte întreprinderi, forumul consultativ ar trebui să cuprindă, printre altele, industria, întreprinderile nou-înființate, IMM-urile, mediul academic, societatea civilă, inclusiv partenerii sociali, precum și Agenția pentru Drepturi Fundamentale, ENISA, Comitetul European de Standardizare (CEN), Comitetul European de Standardizare în Electrotehnică (CENELEC) și Institutul European de Standardizare în Telecomunicații (ETSI).
(151)
Ter ondersteuning van de uitvoering en handhaving van deze verordening, met name de monitoringactiviteiten van het AI-bureau met betrekking tot AI-modellen voor algemene doeleinden, moet een wetenschappelijk panel van onafhankelijke deskundigen worden opgericht. De onafhankelijke deskundigen die het wetenschappelijk panel vormen, moeten worden geselecteerd op basis van actuele wetenschappelijke of technische deskundigheid op het gebied van AI en moeten hun taken onpartijdig en objectief uitvoeren en de vertrouwelijkheid van de bij de uitvoering van hun taken en activiteiten verkregen informatie en gegevens waarborgen. Om nationale capaciteit die nodig is voor de doeltreffende handhaving van deze verordening te kunnen versterken, moeten de lidstaten voor hun handhavingsactiviteiten steun kunnen vragen van de deskundigen die het wetenschappelijke panel vormen.
(151)
Pentru a sprijini punerea în aplicare și respectarea prezentului regulament, în special activitățile de monitorizare ale Oficiului pentru IA în ceea ce privește modelele de IA de uz general, ar trebui să fie instituit un grup științific de experți independenți. Experții independenți din alcătuirea grupului științific ar trebui să fie selectați pe baza cunoștințelor de specialitate științifice sau tehnice actualizate în domeniul IA și ar trebui să își îndeplinească sarcinile cu imparțialitate și obiectivitate și să asigure confidențialitatea informațiilor și a datelor obținute în îndeplinirea sarcinilor și activităților lor. Pentru a permite consolidarea capacităților naționale necesare pentru aplicarea efectivă a prezentului regulament, statele membre ar trebui să poată solicita sprijin echipei de experți care formează grupul științific pentru activitățile lor de aplicare a legii.
(152)
Om een adequate handhaving van AI-systemen te ondersteunen en de capaciteiten van de lidstaten te versterken, moeten ondersteunende Uniestructuren voor AI-testen worden opgezet en ter beschikking van de lidstaten worden gesteld.
(152)
Pentru a sprijini o aplicare adecvată a normelor în ceea ce privește sistemele de IA și pentru a consolida capacitățile statelor membre, ar trebui să fie instituite și puse la dispoziția statelor membre structuri ale Uniunii de sprijin pentru testarea IA.
(153)
De lidstaten spelen een belangrijke rol bij de toepassing en handhaving van deze verordening. In dit verband moet elke lidstaat ten minste een aanmeldende autoriteit en ten minste een markttoezichtautoriteit als nationale bevoegde autoriteiten aanwijzen voor het toezicht op de toepassing en uitvoering van deze verordening. De lidstaten kunnen besluiten om het even welke soort openbare entiteit aan te wijzen om de taken van de nationale bevoegde autoriteiten in de zin van deze verordening uit te voeren, in overeenstemming met hun specifieke nationale organisatorische kenmerken en behoeften. Om de efficiëntie van de organisatie aan de kant van de lidstaten te verbeteren en een centraal contactpunt in te stellen voor het publiek en andere partijen op het niveau van de lidstaten en de Unie, moet elke lidstaat één markttoezichtautoriteit aanwijzen die als centraal contactpunt moet dienen.
(153)
Statele membre joacă un rol esențial în aplicarea și respectarea prezentului regulament. În acest sens, fiecare stat membru ar trebui să desemneze cel puțin o autoritate de notificare și cel puțin o autoritate de supraveghere a pieței în calitatea de autorități naționale competente în scopul supravegherii aplicării și punerii în aplicare a prezentului regulament. Statele membre pot decide să numească orice tip de entitate publică pentru a îndeplini sarcinile autorităților naționale competente în sensul prezentului regulament, în conformitate cu caracteristicile și nevoile organizaționale naționale specifice ale acestora. Pentru a spori eficiența organizațională din partea statelor membre și pentru a stabili un punct unic de contact cu publicul și cu alți omologi la nivelul statelor membre și al Uniunii, fiecare stat membru ar trebui să desemneze o autoritate de supraveghere a pieței care să acționeze ca punct unic de contact.
(154)
De nationale bevoegde autoriteiten moeten hun bevoegdheden onafhankelijk, onpartijdig en onbevooroordeeld uitoefenen, teneinde de beginselen van objectiviteit van hun activiteiten en taken te waarborgen en de toepassing en uitvoering van deze verordening te verzekeren. De leden van deze autoriteiten moeten zich onthouden van handelingen die onverenigbaar zijn met hun taken en moeten onderworpen zijn aan vertrouwelijkheidsregels uit hoofde van deze verordening.
(154)
Autoritățile naționale competente ar trebui să își exercite competențele în mod independent, imparțial și fără prejudecăți, garantând principiile obiectivității activităților și sarcinilor lor și asigurând aplicarea și punerea în aplicare a prezentului regulament. Membrii acestor autorități ar trebui să se abțină de la orice act incompatibil cu natura funcțiilor lor și ar trebui să facă obiectul normelor de confidențialitate în temeiul prezentului regulament.
(155)
Om ervoor te zorgen dat aanbieders van AI-systemen met een hoog risico rekening kunnen houden met de ervaring met het gebruik van AI-systemen met een hoog risico voor het verbeteren van hun systemen en het ontwerp- en ontwikkelingsproces of tijdig eventuele mogelijke corrigerende maatregelen kunnen nemen, moeten alle aanbieders beschikken over een systeem voor monitoring na het in de handel brengen. In voorkomend geval moet de monitoring na het in de handel brengen een analyse van de interactie met andere AI-systemen, met inbegrip van andere apparaten en software, omvatten. Monitoring na het in de handel brengen mag niet gelden voor gevoelige operationele gegevens van gebruiksverantwoordelijken die rechtshandhavingsinstanties zijn. Dit systeem is ook belangrijk om te waarborgen dat de mogelijke risico’s van AI-systemen die blijven “leren” nadat zij in de handel zijn gebracht of in gebruik zijn gesteld, op efficiëntere en tijdigere wijze kunnen worden aangepakt. In dit verband moeten aanbieders ook worden verplicht over een systeem te beschikken om ernstige incidenten als gevolg van het gebruik van hun AI-systemen, d.w.z. incidenten of storingen die leiden tot de dood of ernstige schade aan de gezondheid, ernstige en onomkeerbare verstoring van het beheer en de exploitatie van kritieke infrastructuur, inbreuken op verplichtingen uit hoofde van het Unierecht ter bescherming van de grondrechten of ernstige schade aan eigendommen of het milieu, aan de relevante autoriteiten te melden.
(155)
Pentru a se asigura că furnizorii de sisteme de IA cu grad ridicat de risc pot ține seama de experiența privind utilizarea sistemelor de IA cu grad ridicat de risc pentru îmbunătățirea sistemelor lor și a procesului de proiectare și dezvoltare sau că pot lua orice măsură corectivă posibilă în timp util, toți furnizorii ar trebui să dispună de un sistem de monitorizare ulterioară introducerii pe piață. După caz, monitorizarea ulterioară introducerii pe piață ar trebui să includă o analiză a interacțiunii cu alte sisteme de IA, inclusiv cu alte dispozitive și alt software. Monitorizarea ulterioară introducerii pe piață nu ar trebui să vizeze datele operaționale sensibile ale implementatorilor care sunt autorități de aplicare a legii. Acest sistem este, de asemenea, esențial pentru a se asigura că posibilele riscuri care decurg din sistemele de IA care continuă să „învețe” după ce au fost introduse pe piață sau puse în funcțiune pot fi abordate într-un mod mai eficient și în timp util. În acest context, furnizorii ar trebui, de asemenea, să aibă obligația de a dispune de un sistem pentru a raporta autorităților relevante orice incident grav care decurge din utilizarea sistemelor lor de IA, și anume un incident sau o funcționare defectuoasă care duce la deces sau la daune grave pentru sănătate, la perturbări grave și ireversibile ale gestionării și funcționării infrastructurii critice, la încălcări ale obligațiilor în temeiul dreptului Uniunii menite să protejeze drepturile fundamentale sau la daune grave aduse bunurilor materiale sau mediului.
(156)
Teneinde een passende en doeltreffende handhaving te waarborgen van de eisen en verplichtingen van deze verordening, die valt onder de harmonisatiewetgeving van de Unie, moet het systeem van markttoezicht en de conformiteit van producten, zoals vastgesteld bij Verordening (EU) 2019/1020, volledig van toepassing zijn. Krachtens deze verordening aangewezen markttoezichtautoriteiten moeten over alle handhavingsbevoegdheden beschikken die in deze verordening en in Verordening (EU) 2019/1020 zijn vastgelegd, en moeten hun bevoegdheden en taken onafhankelijk, onpartijdig en onbevooroordeeld uitoefenen. Hoewel voor de meeste AI-systemen geen specifieke eisen en verplichtingen gelden krachtens deze verordening, mogen markttoezichtautoriteiten maatregelen nemen ten aanzien van alle AI-systemen indien deze een risico vormen overeenkomstig deze verordening. Gezien de specifieke aard van de instellingen, agentschappen en organen van de Unie die binnen het toepassingsgebied van deze verordening vallen, is het wenselijk de Europese Toezichthouder voor gegevensbescherming aan te wijzen als de voor hen bevoegde markttoezichtautoriteit. Dit moet de aanwijzing van nationale bevoegde autoriteiten door de lidstaten onverlet laten. Markttoezichtactiviteiten mogen geen afbreuk doen aan het vermogen van de onder toezicht staande entiteiten om hun taken onafhankelijk uit te voeren, indien het Unierecht deze onafhankelijkheid vereist.
(156)
Pentru a se asigura respectarea adecvată și efectivă a cerințelor și a obligațiilor prevăzute în prezentul regulament, și anume în legislația de armonizare a Uniunii, ar trebui să se aplice sistemul de supraveghere a pieței și de conformitate a produselor în ansamblul său, astfel cum a fost instituit prin Regulamentul (UE) 2019/1020. Autoritățile de supraveghere a pieței desemnate în temeiul prezentului regulament ar trebui să dispună de toate competențele de aplicare a dispozițiilor stabilite în prezentul regulament și în Regulamentul (UE) 2019/1020 și ar trebui să își exercite competențele și să își îndeplinească atribuțiile în mod independent, imparțial și fără prejudecăți. Deși majoritatea sistemelor de IA nu fac obiectul unor cerințe și obligații specifice în temeiul prezentului regulament, autoritățile de supraveghere a pieței pot lua măsuri în legătură cu toate sistemele de IA atunci când acestea prezintă un risc în conformitate cu prezentul regulament. Având în vedere natura specifică a instituțiilor, agențiilor și organelor Uniunii care intră în domeniul de aplicare al prezentului regulament, este oportun ca Autoritatea Europeană pentru Protecția Datelor să fie desemnată drept autoritate competentă de supraveghere a pieței pentru acestea. Acest lucru nu ar trebui să aducă atingere desemnării autorităților naționale competente de către statele membre. Activitățile de supraveghere a pieței nu ar trebui să afecteze capacitatea entităților supravegheate de a-și îndeplini sarcinile în mod independent, atunci când independența lor este impusă de dreptul Uniunii.
(157)
Deze verordening doet geen afbreuk aan de bekwaamheid, taken, bevoegdheden en onafhankelijkheid van betrokken nationale overheidsinstanties of -organen die toezicht houden op de toepassing van het Unierecht voor de bescherming van de grondrechten, met inbegrip van instanties voor gelijke behandeling en gegevensbeschermingsautoriteiten. Waar noodzakelijk met het oog op hun taken, moeten die nationale overheidsinstanties en -organen ook toegang hebben tot eventuele documentatie die op grond van deze verordening wordt opgesteld. Er moet een specifieke vrijwaringsprocedure worden vastgesteld om te zorgen voor een adequate en tijdige handhaving ten aanzien van AI-systemen die een risico inhouden voor de gezondheid, veiligheid en de grondrechten. De procedure voor dergelijke AI-systemen die een risico inhouden moet worden toegepast op AI-systemen met een hoog risico die een risico inhouden, verboden systemen die in de handel zijn gebracht, in gebruik zijn gesteld of zijn gebruikt in strijd met de bepalingen van deze verordening inzake verboden praktijken en AI-systemen die beschikbaar zijn gemaakt in strijd met de transparantievereisten van deze verordening en een risico inhouden.
(157)
Prezentul regulament nu aduce atingere competențelor, sarcinilor, prerogativelor și independenței autorităților sau organismelor publice naționale relevante care supraveghează aplicarea dreptului Uniunii care protejează drepturile fundamentale, inclusiv ale organismelor de promovare a egalității și ale autorităților de protecție a datelor. În cazul în care acest lucru este necesar pentru îndeplinirea mandatului lor, autoritățile sau organismele publice naționale respective ar trebui să aibă, de asemenea, acces la orice documentație creată în temeiul prezentului regulament. Ar trebui să fie stabilită o procedură de salvgardare specifică pentru a se asigura respectarea dispozițiilor în domeniul IA, în mod adecvat și în timp util, în privința sistemelor de IA care prezintă un risc pentru sănătate, siguranță și drepturile fundamentale. Procedura pentru astfel de sisteme de IA care prezintă un risc ar trebui să se aplice sistemelor de IA cu grad ridicat de risc care prezintă un risc, sistemelor interzise care au fost introduse pe piață, puse în funcțiune sau utilizate cu încălcarea interdicției anumitor practici prevăzută în prezentul regulament, precum și sistemelor de IA care au fost puse la dispoziție cu încălcarea cerințelor de transparență prevăzute în prezentul regulament și care prezintă un risc.
(158)
Het Unierecht inzake financiële diensten omvat regels en eisen met betrekking tot interne governance en risicobeheer die van toepassing zijn op gereguleerde financiële instellingen bij het verlenen van deze diensten, ook indien zij gebruikmaken van AI-systemen. Om te zorgen voor een coherente toepassing en handhaving van de verplichtingen uit hoofde van deze verordening en de relevante regels en vereisten van de rechtshandelingen van de Unie inzake financiële diensten, moeten de bevoegde autoriteiten voor het toezicht op en de handhaving van die rechtshandelingen, met name bevoegde autoriteiten zoals gedefinieerd in Verordening (EU) nr. 575/2013 van het Europees Parlement en de Raad (46) en de Richtlijnen 2008/48/EG (47), 2009/138/EG (48), 2013/36/EU (49), 2014/17/EU (50) en (EU) 2016/97 (51) van het Europees Parlement en de Raad, binnen hun respectieve bevoegdheden worden aangewezen als bevoegde autoriteiten voor het toezicht op de uitvoering van deze verordening, met inbegrip van markttoezichtactiviteiten, met betrekking tot AI-systemen die worden aangeboden of gebruikt door gereglementeerde en gecontroleerde financiële instellingen, tenzij de lidstaten besluiten een andere autoriteit aan te wijzen om deze markttoezichttaken uit te voeren. Die bevoegde autoriteiten moeten over alle bevoegdheden uit hoofde van deze verordening en Verordening (EU) 2019/1020 beschikken om de eisen en verplichtingen van deze verordening te handhaven, met inbegrip van bevoegdheden om ex-postmarkttoezichtactiviteiten uit te voeren die, in voorkomend geval, kunnen worden geïntegreerd in hun bestaande toezichtsmechanismen en -procedures uit hoofde van het desbetreffende Unierecht inzake financiële diensten. Het is wenselijk te bepalen dat de nationale autoriteiten die verantwoordelijk zijn voor het toezicht op onder Richtlijn 2013/36/EU vallende kredietinstellingen en deelnemen aan het bij Verordening (EU) nr. 1024/2013 van de Raad (52) ingestelde gemeenschappelijk toezichtsmechanisme, indien zij optreden als markttoezichtautoriteiten in het kader van deze verordening, alle bij hun markttoezichtactiviteiten verkregen informatie die potentieel van belang kan zijn voor de in die verordening omschreven taken van de Europese Centrale Bank met betrekking tot prudentieel toezicht onverwijld melden bij de Europese Centrale Bank. Teneinde de samenhang tussen deze verordening en de regels die van toepassing zijn op kredietinstellingen die vallen onder Richtlijn 2013/36/EU verder te verbeteren, is het ook passend om enkele van de procedurele verplichtingen van aanbieders in verband met risicobeheer, monitoring na het in de handel brengen en documentatie op te nemen in de bestaande verplichtingen en procedures in het kader van Richtlijn 2013/36/EU. Om overlappingen te voorkomen, moet ook worden voorzien in beperkte afwijkingen in verband met het systeem voor kwaliteitsbeheer van aanbieders en de monitorings-verplichting voor gebruiksverantwoordelijken van AI-systemen met een hoog risico voor zover deze van toepassing zijn op kredietinstellingen die vallen onder Richtlijn 2013/36/EU. Om te zorgen voor consistentie en gelijke behandeling in de financiële sector moet dezelfde regeling gelden voor verzekerings- en herverzekeringsondernemingen en verzekeringsholdings die vallen onder Richtlijn 2009/138/EG en verzekeringstussenpersonen die vallen onder Richtlijn (EU) 2016/97 en andere soorten financiële instellingen die gebonden zijn aan eisen inzake interne governance, regelingen of procedures die zijn vastgelegd op grond van het desbetreffende Unierecht inzake financiële diensten.
(158)
Dreptul Uniunii privind serviciile financiare include norme și cerințe privind guvernanța internă și gestionarea riscurilor care sunt aplicabile instituțiilor financiare reglementate în cursul furnizării acestor servicii, inclusiv atunci când acestea utilizează sisteme de IA. Pentru a asigura, în mod coerent, aplicarea și respectarea obligațiilor prevăzute în prezentul regulament și a normelor și cerințelor relevante ale actelor juridice ale Uniunii în domeniul serviciilor financiare, autoritățile competente responsabile cu supravegherea și aplicarea actelor juridice respective, în special autoritățile competente, astfel cum sunt definite în Regulamentul (UE) nr. 575/2013 al Parlamentului European și al Consiliului (46) și în Directivele 2008/48/CE (47), 2009/138/CE (48), 2013/36/UE (49), 2014/17/UE (50) și (UE) 2016/97 (51) ale Parlamentului European și ale Consiliului, ar trebui să fie desemnate, în limitele competențelor lor respective, drept autorități competente în scopul supravegherii punerii în aplicare a prezentului regulament, inclusiv pentru activitățile de supraveghere a pieței, în ceea ce privește sistemele de IA furnizate sau utilizate de instituțiile financiare reglementate și supravegheate, cu excepția cazului în care statele membre decid să desemneze o altă autoritate pentru a îndeplini aceste sarcini de supraveghere a pieței. Autoritățile competente respective ar trebui să dețină toate competențele în temeiul prezentului regulament și al Regulamentului (UE) 2019/1020 pentru a asigura respectarea cerințelor și a obligațiilor prevăzute în prezentul regulament, inclusiv competențele de a desfășura activități ex post de supraveghere a pieței care pot fi integrate, după caz, în mecanismele și procedurile lor de supraveghere existente în temeiul dispozițiilor relevante ale dreptului Uniunii din domeniul serviciilor financiare. Este oportun să se considere că, atunci când acționează în calitate de autorități de supraveghere a pieței în temeiul prezentului regulament, autoritățile naționale responsabile de supravegherea instituțiilor de credit reglementate în temeiul Directivei 2013/36/UE, care participă la mecanismul unic de supraveghere instituit prin Regulamentul (UE) nr. 1024/2013 al Consiliului (52), ar trebui să raporteze fără întârziere Băncii Centrale Europene orice informații identificate în cursul activităților lor de supraveghere a pieței care ar putea prezenta un interes pentru sarcinile de supraveghere prudențială ale Băncii Centrale Europene, astfel cum se specifică în regulamentul respectiv. Pentru a spori și mai mult coerența dintre prezentul regulament și normele aplicabile instituțiilor de credit reglementate în temeiul Directivei 2013/36/UE, este, de asemenea, oportun să se integreze unele dintre obligațiile procedurale ale furnizorilor în ceea ce privește gestionarea riscurilor, monitorizarea ulterioară introducerii pe piață și documentația în obligațiile și procedurile existente în temeiul Directivei 2013/36/UE. Pentru a evita suprapunerile, ar trebui să fie avute în vedere derogări limitate și în ceea ce privește sistemul de management al calității al furnizorilor și obligația de monitorizare impusă implementatorilor de sisteme de IA cu grad ridicat de risc, în măsura în care acestea se aplică instituțiilor de credit reglementate de Directiva 2013/36/UE. Același regim ar trebui să se aplice întreprinderilor de asigurare și reasigurare și holdingurilor de asigurare în temeiul Directivei 2009/138/CE, intermediarilor de asigurări în temeiul Directivei (UE) 2016/97, precum și altor tipuri de instituții financiare care fac obiectul cerințelor privind guvernanța internă, măsurile sau procesele interne instituite în temeiul dispozițiilor relevante ale dreptului Uniunii din domeniul serviciilor financiare pentru a asigura coerența și egalitatea de tratament în sectorul financiar.
(159)
Elke markttoezichtautoriteit voor AI-systemen met een hoog risico op het gebied van biometrische gegevens, zoals vermeld in een bijlage bij deze verordening, voor zover die systemen worden gebruikt voor rechtshandhaving, migratie, asiel en grenstoezichtsbeheer, of voor de rechtsbedeling en democratische processen, moet beschikken over doeltreffende onderzoeksbevoegdheden en corrigerende bevoegdheden, waaronder ten minste de bevoegdheid om toegang te verkrijgen tot alle persoonsgegevens die worden verwerkt en tot alle informatie die nodig is voor de uitvoering van haar taken. De markttoezicht-autoriteiten moeten hun bevoegdheden volledig onafhankelijk kunnen uitoefenen. Eventuele beperkingen van hun toegang tot gevoelige operationele gegevens uit hoofde van deze verordening mogen geen afbreuk doen aan de hun bij Richtlijn (EU) 2016/680 verleende bevoegdheden. Geen enkele uitsluiting betreffende de openbaarmaking van gegevens aan nationale gegevensbeschermingsautoriteiten uit hoofde van deze verordening mag afbreuk doen aan de huidige of toekomstige bevoegdheden van die autoriteiten die buiten het toepassingsgebied van deze verordening vallen.
(159)
Fiecare autoritate de supraveghere a pieței pentru sistemele de IA cu grad ridicat de risc din domeniul biometriei, astfel cum sunt enumerate într-o anexă la prezentul regulament, în măsura în care sistemele respective sunt utilizate în scopul aplicării legii, al migrației, al azilului și al gestionării controlului la frontiere sau al administrării justiției și al proceselor democratice, ar trebui să aibă competențe de investigare și corective efective, inclusiv cel puțin competența de a obține acces la toate datele cu caracter personal care sunt prelucrate și la toate informațiile necesare pentru îndeplinirea sarcinilor sale. Autoritățile de supraveghere a pieței ar trebui să își poată exercita competențele acționând cu deplină independență. Nicio limitare a accesului acestora la date operaționale sensibile în temeiul prezentului regulament nu ar trebui să aducă atingere competențelor care le sunt conferite prin Directiva (UE) 2016/680. Nicio excludere în ceea ce privește divulgarea de date către autoritățile naționale de protecție a datelor în temeiul prezentului regulament nu ar trebui să afecteze competențele actuale sau viitoare ale autorităților respective în afara domeniului de aplicare al prezentului regulament.
(160)
De markttoezichtautoriteiten en de Commissie moeten gezamenlijke activiteiten, waaronder gezamenlijke onderzoeken, kunnen voorstellen die door markttoezichtautoriteiten alleen of samen met de Commissie moeten worden uitgevoerd, met als doel de naleving te bevorderen, de niet-naleving vast te stellen, het bewustzijn te vergroten en richtsnoeren inzake deze verordening te verstrekken betreffende specifieke categorieën AI-systemen met een hoog risico die in twee of meer lidstaten een ernstig risico blijken te vormen. Gezamenlijke activiteiten ter bevordering van conformiteit moeten worden uitgevoerd overeenkomstig artikel 9 van Verordening (EU) 2019/1020. Het AI-bureau moet zorgen voor coördinerende ondersteuning van gezamenlijke onderzoeken.
(160)
Autoritățile de supraveghere a pieței și Comisia ar trebui să poată propune activități comune, inclusiv investigații comune, care să fie efectuate de autoritățile de supraveghere a pieței sau de autoritățile de supraveghere a pieței în colaborare cu Comisia și care au scopul de a promova conformitatea, de a identifica cazurile de neconformitate, de a sensibiliza și de a oferi orientări în legătură cu prezentul regulament în ceea ce privește anumite categorii de sisteme de IA cu grad ridicat de risc despre care se constată că prezintă un risc grav în două sau mai multe state membre. Activitățile comune de promovare a conformității ar trebui desfășurate în conformitate cu articolul 9 din Regulamentul (UE) 2019/1020. Oficiul pentru IA ar trebui să ofere sprijin sub formă de coordonare pentru investigațiile comune.
(161)
Het is noodzakelijk de verantwoordelijkheden en bevoegdheden op het niveau van de Unie en op nationaal niveau te verduidelijken wat betreft AI-systemen die gebaseerd zijn op AI-modellen voor algemene doeleinden. Om overlappende bevoegdheden te voorkomen, moet, indien een AI-systeem gebaseerd is op een AI-model voor algemene doeleinden en het model en systeem door dezelfde aanbieder worden aangeboden, het toezicht op het niveau van de Unie plaatsvinden via het AI-bureau, dat voor dit doel de bevoegdheden moet hebben van een markttoezichtautoriteit in de zin van Verordening (EU) 2019/1020. In alle andere gevallen blijven de nationale markttoezichtautoriteiten verantwoordelijk voor het toezicht op AI-systemen. Voor AI-systemen voor algemene doeleinden die rechtstreeks door gebruiksverantwoordelijken kunnen worden gebruikt voor ten minste één doel dat als hoog risico is geclassificeerd, moeten markttoezichtautoriteiten echter samenwerken met het AI-bureau om conformiteitsbeoordelingen uit te voeren en de AI-board en andere markttoezicht-autoriteiten daarvan in kennis te stellen. Voorts moeten markttoezichtautoriteiten het AI-bureau om bijstand kunnen verzoeken indien de markttoezichtautoriteit geen onderzoek naar een AI-systeem met een hoog risico kan afronden omdat zij geen toegang heeft tot bepaalde informatie met betrekking tot het AI-model voor algemene doeleinden waarop het AI-systeem met een hoog risico is gebaseerd. In dergelijke gevallen moet de procedure betreffende wederzijdse bijstand in grensoverschrijdende zaken van hoofdstuk VI van Verordening (EU) 2019/1020 op overeenkomstige wijze van toepassing zijn.
(161)
Este necesar să se clarifice responsabilitățile și competențele la nivelul Uniunii și la nivel național în ceea ce privește sistemele de IA care au la bază modele de IA de uz general. Pentru a evita suprapunerea competențelor, în cazul în care un sistem de IA se bazează pe un model de IA de uz general, iar modelul și sistemul sunt furnizate de același furnizor, supravegherea ar trebui să aibă loc la nivelul Uniunii prin intermediul Oficiului pentru IA, care, în acest scop, ar trebui să dețină competențele unei autorități de supraveghere a pieței în sensul Regulamentului (UE) 2019/1020. În toate celelalte cazuri, responsabilitatea privind supravegherea sistemelor de IA rămâne în sarcina autorităților naționale de supraveghere a pieței. Cu toate acestea, pentru sistemele de IA de uz general care pot fi utilizate direct de către implementatori pentru cel puțin un scop clasificat ca prezentând un grad ridicat de risc, autoritățile de supraveghere a pieței ar trebui să coopereze cu Oficiul pentru IA pentru a efectua evaluări ale conformității și să informeze în consecință Consiliul IA și alte autorități de supraveghere a pieței. În plus, autoritățile de supraveghere a pieței ar trebui să poată solicita asistență din partea Oficiului pentru IA în cazul în care autoritatea de supraveghere a pieței nu este în măsură să finalizeze o investigație cu privire la un sistem de IA cu grad ridicat de risc din cauza incapacității sale de a accesa anumite informații legate de modelul de IA de uz general care stă la baza sistemului de IA cu grad ridicat de risc. În astfel de cazuri, ar trebui să se aplice mutatis mutandis procedura privind asistența reciprocă transfrontalieră din capitolul VI din Regulamentul (UE) 2019/1020.
(162)
Om optimaal gebruik te maken van de gecentraliseerde Unie-expertise en van de synergieën op het niveau van de Unie, moeten de bevoegdheden voor het toezicht op en de handhaving van de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden een bevoegdheid van de Commissie zijn. Het AI-bureau moet alle nodige maatregelen kunnen nemen om toezicht te houden op de doeltreffende uitvoering van deze verordening met betrekking tot AI-modellen voor algemene doeleinden. Het moet mogelijke inbreuken op de regels inzake aanbieders van AI-modellen voor algemene doeleinden kunnen onderzoeken, zowel op eigen initiatief, op basis van de resultaten van zijn monitoring-activiteiten, hetzij op verzoek van markttoezichtautoriteiten in overeenstemming met de in deze verordening vastgestelde voorwaarden. Om een doeltreffende monitoring van het AI-bureau te ondersteunen, moet het voorzien in de mogelijkheid dat aanbieders verder in de AI-waardeketen klachten indienen over mogelijke inbreuken op de regels inzake aanbieders van AI-modellen en -systemen voor algemene doeleinden.
(162)
Pentru a utiliza în mod optim cunoștințele de specialitate centralizate ale Uniunii și sinergiile de la nivelul Uniunii, competențele de supraveghere și de executare a obligațiilor care le revin furnizorilor de modele de IA de uz general ar trebui să fie deținute de Comisie. Oficiul pentru IA ar trebui să fie în măsură să întreprindă toate acțiunile necesare pentru a monitoriza punerea în aplicare efectivă a prezentului regulament în ceea ce privește modelele de IA de uz general. Acesta ar trebui să fie în măsură să investigheze posibilele încălcări ale normelor privind furnizorii de modele de IA de uz general, atât din proprie inițiativă, dând curs rezultatelor activităților sale de monitorizare, cât și la cererea autorităților de supraveghere a pieței, în conformitate cu condițiile stabilite în prezentul regulament. Pentru a sprijini desfășurarea în mod eficace de către Oficiul pentru IA a monitorizării, acesta ar trebui să prevadă posibilitatea ca furnizorii din aval să depună plângeri cu privire la posibile încălcări ale normelor privind furnizorii de sisteme și modele de IA de uz general.
(163)
Als aanvulling op de governancesystemen voor AI-modellen voor algemene doeleinden moet het wetenschappelijk panel de monitoringactiviteiten van het AI-bureau ondersteunen en kan het in bepaalde gevallen gekwalificeerde waarschuwingen aan het AI-bureau verstrekken die eventueel aanleiding geven tot vervolgonderzoeken. Dit moet het geval zijn indien het wetenschappelijk panel redenen heeft om te vermoeden dat een AI-model voor algemene doeleinden een concreet en aanwijsbaar risico op het niveau van de Unie vormt. Voorts moet dit het geval zijn indien het wetenschappelijk panel redenen heeft om te vermoeden dat een AI-model voor algemene doeleinden voldoet aan de criteria om als AI-model voor algemene doeleinden met een systeemrisico te worden geclassificeerd. Om het wetenschappelijk panel uit te rusten met de informatie die nodig is voor de uitvoering van die taken, moet er een mechanisme zijn waarbij het wetenschappelijk panel de Commissie kan verzoeken documentatie of informatie van een Aanbieder te eisen.
(163)
În vederea completării sistemelor de guvernanță pentru modelele de IA de uz general, grupul științific ar trebui să sprijine activitățile de monitorizare ale Oficiului pentru IA și poate, în anumite cazuri, să furnizeze Oficiului pentru IA alerte calificate care declanșează acțiuni subsecvente, de exemplu investigații. Acest lucru ar trebui să fie valabil atunci când grupul științific are motive să suspecteze că un model de IA de uz general prezintă un risc concret și identificabil la nivelul Uniunii. În plus, acest lucru ar trebui să fie valabil atunci când grupul științific are motive să suspecteze că un model de IA de uz general îndeplinește criteriile care ar conduce la o clasificare ca model de IA de uz general cu risc sistemic. Pentru ca grupul științific să dispună de informațiile necesare în îndeplinirea sarcinilor respective, ar trebui să existe un mecanism prin care acesta să poată solicita Comisiei să impună furnizorilor să ofere documente sau informații.
(164)
Het AI-bureau moet de nodige maatregelen kunnen nemen om de doeltreffende uitvoering en naleving van de in deze verordening vastgestelde verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden te monitoren. Het AI-bureau moet mogelijke inbreuken kunnen onderzoeken overeenkomstig de bevoegdheden waarin deze verordening voorziet, onder meer door documentatie en informatie op te vragen, evaluaties uit te voeren en door aanbieders van AI-modellen voor algemene doeleinden om maatregelen te verzoeken. Om gebruik te maken van onafhankelijke expertise moet het AI-bureau bij de uitvoering van evaluaties onafhankelijke deskundigen kunnen betrekken om namens het bureau de evaluaties uit te voeren. Naleving van de verplichtingen moet afdwingbaar zijn, onder meer door verzoeken om passende maatregelen te nemen, met inbegrip van risicobeperkende maatregelen in het geval van vastgestelde systeemrisico’s, alsook door het op de markt aanbieden van het model te beperken, het uit de handel te nemen of het terug te roepen. Als waarborg moeten aanbieders van AI-modellen voor algemene doeleinden, indien nodig naast de procedurele rechten waarin deze verordening voorziet, over de procedurele rechten beschikken waarin is voorzien in artikel 18 van Verordening (EU) 2019/1020, dat van overeenkomstige toepassing is, onverminderd specifiekere procedurele rechten waarin deze verordening voorziet.
(164)
Oficiul pentru IA ar trebui să poată lua măsurile necesare pentru a monitoriza punerea în aplicare efectivă și respectarea obligațiilor furnizorilor de modele de IA de uz general prevăzute în prezentul regulament. Oficiul pentru IA ar trebui să fie în măsură să investigheze posibilele încălcări în conformitate cu competențele prevăzute în prezentul regulament, inclusiv prin solicitarea unor documente și informații, prin desfășurarea de evaluări, precum și prin solicitarea luării de măsuri de către furnizorii de modele de IA de uz general. În desfășurarea evaluărilor, pentru a utiliza cunoștințe de specialitate cu caracter independent, Oficiul pentru IA ar trebui să poată implica experți independenți pentru a desfășura evaluările în numele său. Respectarea obligațiilor ar trebui să fie asigurată, printre altele, prin cereri de a lua măsuri adecvate, inclusiv măsuri de atenuare a riscurilor în cazul unor riscuri sistemice identificate, precum și prin restricționarea punerii la dispoziție pe piață, retragerea sau rechemarea modelului. Ca o garanție, în cazul în care aceasta este necesară dincolo de drepturile procedurale prevăzute în prezentul regulament, furnizorii de modele de IA de uz general ar trebui să beneficieze de drepturile procedurale prevăzute la articolul 18 din Regulamentul (UE) 2019/1020, care ar trebui să se aplice mutatis mutandis, fără a aduce atingere drepturilor procedurale mai specifice prevăzute în prezentul regulament.
(165)
De ontwikkeling van andere AI-systemen dan AI-systemen met een hoog risico in overeenstemming met de eisen van deze verordening kan leiden tot een groter gebruik van ethische en betrouwbare AI in de Unie. Aanbieders van AI-systemen zonder hoog risico moeten worden aangemoedigd om gedragscodes op te stellen, met inbegrip van gerelateerde governancemechanismen, die bedoeld zijn ter bevordering van de vrijwillige toepassing van sommige of alle dwingende eisen die gelden voor AI-systemen met een hoog risico, aangepast in het licht van het beoogde doel van de systemen en het lagere risico ervan en rekening houdend met de beschikbare technische oplossingen en beste praktijken van de sector, zoals model- en gegevenskaarten. Aanbieders en, in voorkomend geval, gebruiksverantwoordelijken van alle AI-systemen, al dan niet met een hoog risico, en AI-modellen moeten ook worden aangemoedigd om op vrijwillige basis aanvullende eisen toe te passen, bijvoorbeeld met betrekking tot de elementen van de “ethische richtsnoeren van de Unie voor betrouwbare KI”, milieuduurzaamheid, maatregelen op het gebied van AI-geletterdheid, inclusief en divers ontwerp en ontwikkeling van AI-systemen, met inbegrip van aandacht voor kwetsbare personen en toegankelijkheid voor personen met een handicap, deelname van belanghebbenden, in voorkomend geval met betrokkenheid van relevante belanghebbenden zoals het bedrijfsleven en maatschappelijke organisaties, de academische wereld, onderzoeksorganisaties, vakbonden en consumentenorganisaties bij het ontwerp en de ontwikkeling van AI-systemen, en diversiteit van de ontwikkelingsteams, met inbegrip van genderevenwicht. Om ervoor te zorgen dat de vrijwillige gedragscodes doeltreffend zijn, moeten zij gebaseerd zijn op duidelijke doelstellingen en kernprestatie-indicatoren om de verwezenlijking van die doelstellingen te meten. Zij moeten in voorkomend geval ook op inclusieve wijze worden ontwikkeld, met betrokkenheid van relevante belanghebbenden zoals het bedrijfsleven en maatschappelijke organisaties, de academische wereld, onderzoeksorganisaties, vakbonden en consumentenorganisaties. De Commissie kan initiatieven ontwikkelen, ook van sectorale aard, om de technische belemmeringen voor grensoverschrijdende uitwisseling van data voor AI-ontwikkeling te helpen beperken, onder meer met betrekking tot infrastructuur voor de toegang tot data en de semantische en technische interoperabiliteit van verschillende soorten data.
(165)
Dezvoltarea altor sisteme de IA decât cele cu grad ridicat de risc în conformitate cu cerințele prezentului regulament poate duce la o utilizare pe scară mai largă a IA conform unor principii etice și fiabile în Uniune. Furnizorii de sisteme de IA care nu prezintă un grad ridicat de risc ar trebui să fie încurajați să creeze coduri de conduită, inclusiv mecanisme de guvernanță conexe, menite să promoveze aplicarea parțială sau integrală, în mod voluntar, a cerințelor obligatorii aplicabile sistemelor de IA cu grad ridicat de risc, adaptate în funcție de scopul preconizat al sistemelor și de riscul mai scăzut implicat și ținând seama de soluțiile tehnice disponibile și de bunele practici din industrie, cum ar fi modelele și cardurile de date. Furnizorii și, după caz, implementatorii tuturor modelelor de IA și sistemelor de IA cu sau fără grad ridicat de risc ar trebui, de asemenea, să fie încurajați să aplice în mod voluntar cerințe suplimentare legate, de exemplu, de elementele Orientărilor Uniunii în materie de etică pentru o IA fiabilă, de durabilitatea mediului, de măsuri de alfabetizare în domeniul IA, de proiectarea și dezvoltarea sistemelor de IA ținând seama de incluziune și diversitate, inclusiv acordând atenție persoanelor vulnerabile și accesibilității pentru persoanele cu dizabilități, de participarea părților interesate în proiectarea și dezvoltarea sistemelor de IA, cu implicarea, după caz, a părților interesate relevante, cum ar fi întreprinderi și organizații ale societății civile, mediul academic, organizații de cercetare, sindicate și organizații de protecție a consumatorilor, precum și de diversitatea în cadrul echipelor de dezvoltare, inclusiv echilibrul de gen. Pentru a se asigura eficacitatea lor, codurile de conduită voluntare ar trebui să se bazeze pe obiective clare și pe indicatori-cheie de performanță pentru a măsura îndeplinirea obiectivelor respective. Acestea ar trebui, de asemenea, să fie dezvoltate într-un mod incluziv, după caz, cu implicarea părților interesate relevante, cum ar fi întreprinderi și organizații ale societății civile, mediul academic, organizații de cercetare, sindicate și organizații de protecție a consumatorilor. Comisia poate elabora inițiative, inclusiv de natură sectorială, pentru a facilita reducerea barierelor tehnice care împiedică schimbul transfrontalier de date pentru dezvoltarea IA, inclusiv în ceea ce privește infrastructura de acces la date și interoperabilitatea semantică și tehnică a diferitelor tipuri de date.
(166)
Het is belangrijk dat AI-systemen die verband houden met producten en die overeenkomstig deze verordening geen hoog risico met zich meebrengen en derhalve niet hoeven te voldoen aan de eisen voor AI-systemen met een hoog risico, desalniettemin veilig zijn indien zij in de handel worden gebracht of in gebruik worden gesteld. Met het oog op deze doelstelling zou Verordening (EU) 2023/988 van het Europees Parlement en de Raad (53) als vangnet van toepassing zijn.
(166)
Este important ca sistemele de IA legate de produse care nu prezintă un risc ridicat în conformitate cu prezentul regulament și care, prin urmare, nu sunt obligate să respecte cerințele prevăzute pentru sistemele de IA cu grad ridicat de risc să fie totuși sigure atunci când sunt introduse pe piață sau puse în funcțiune. Pentru a contribui la acest obiectiv, Regulamentul (UE) 2023/988 al Parlamentului European și a Consiliului (53) ar fi aplicat ca o „plasă de siguranță”.
(167)
Om een betrouwbare en constructieve samenwerking van bevoegde autoriteiten op Unie- en nationaal niveau te waarborgen, moeten alle partijen die betrokken zijn bij de toepassing van deze verordening de vertrouwelijkheid eerbiedigen van informatie en data die zij bij de uitvoering van hun taken verkrijgen, overeenkomstig het Unierecht of het nationale recht. Zij moeten hun taken en activiteiten zodanig uitvoeren dat met name intellectuele-eigendomsrechten, vertrouwelijke bedrijfsinformatie en bedrijfsgeheimen, de doeltreffende uitvoering van deze verordening, openbare en nationale veiligheidsbelangen, de integriteit van strafrechtelijke en administratieve procedures en de integriteit van gerubriceerde informatie worden beschermd.
(167)
Pentru a asigura o cooperare de încredere și constructivă a autorităților competente la nivelul Uniunii și la nivel național, toate părțile implicate în aplicarea prezentului regulament ar trebui să respecte confidențialitatea informațiilor și a datelor obținute în cursul îndeplinirii sarcinilor lor, în conformitate cu dreptul Uniunii sau cu dreptul intern. Acestea ar trebui să își îndeplinească sarcinile și activitățile astfel încât să protejeze, în special, drepturile de proprietate intelectuală, informațiile comerciale confidențiale și secretele comerciale, punerea în aplicare efectivă a prezentului regulament, interesele de securitate publică și națională, integritatea procedurilor penale și administrative și integritatea informațiilor clasificate.
(168)
Naleving van deze verordening moet afdwingbaar zijn door het opleggen van sancties en andere handhavingsmaatregelen. De lidstaten moeten alle nodige maatregelen treffen opdat de bepalingen van deze verordening worden uitgevoerd, onder meer door te voorzien in doeltreffende, evenredige en afschrikkende sancties bij inbreuken daarop, en opdat het beginsel non bis in idem in acht wordt genomen. Teneinde de administratieve sancties tegen inbreuken op deze verordening te versterken en te harmoniseren, moeten de maxima voor de vaststelling van de administratieve geldboeten voor bepaalde specifieke inbreuken worden vastgesteld. Bij de beoordeling van het bedrag van de boeten moeten de lidstaten per afzonderlijk geval rekening houden met alle relevante omstandigheden van de specifieke situatie, met inachtneming van met name de aard, de ernst en de duur van de inbreuk, de gevolgen ervan en de omvang van de aanbieder, met name indien de aanbieder een kmo is, met inbegrip van start-ups. De Europese Toezichthouder voor gegevensbescherming moet bevoegd zijn om boeten op te leggen aan instellingen, agentschappen en organen van de Unie die binnen het toepassingsgebied van deze verordening vallen.
(168)
Respectarea prezentului regulament ar trebui să fie asigurată prin impunerea de sancțiuni și alte măsuri de executare. Statele membre ar trebui să ia toate măsurile necesare pentru a se asigura că sunt puse în aplicare dispozițiile prezentului regulament, inclusiv prin stabilirea unor sancțiuni efective, proporționale și cu efect de descurajare în cazul încălcării acestora, și pentru a respecta principiul ne bis in idem. În scopul de a consolida și armoniza sancțiunile administrative pentru încălcarea prezentului regulament, ar trebui să fie definite limitele superioare pentru stabilirea amenzilor administrative pentru anumite încălcări specifice. Atunci când evaluează cuantumul amenzilor, statele membre ar trebui, în fiecare caz în parte, să țină seama de toate circumstanțele relevante ale situației specifice, acordând atenția cuvenită, în special, naturii, gravității și duratei încălcării și consecințelor acesteia, precum și dimensiunii furnizorului, în special în cazul în care furnizorul este un IMM, inclusiv o întreprindere nou-înființată. Autoritatea Europeană pentru Protecția Datelor ar trebui să aibă competența de a impune amenzi instituțiilor, agențiilor și organelor Uniunii care intră în domeniul de aplicare al prezentului regulament.
(169)
De naleving van de uit hoofde van deze verordening opgelegde verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden moet onder meer afdwingbaar zijn door middel van boeten. Daartoe moeten ook passende boeten worden vastgesteld voor inbreuken op die verplichtingen, met inbegrip van de niet-naleving van de door de Commissie overeenkomstig deze verordening gevraagde maatregelen, met inachtneming van passende verjaringstermijnen overeenkomstig het evenredigheidsbeginsel. Alle besluiten die de Commissie krachtens deze verordening neemt, zijn overeenkomstig het VWEU onderworpen aan toetsing door het Hof van Justitie van de Europese Unie, met inbegrip van de onbeperkte rechtsmacht van het Hof van Justitie wat betreft sancties op grond van artikel 261 VWEU.
(169)
Respectarea obligațiilor impuse furnizorilor de modele de IA de uz general în temeiul prezentului regulament ar trebui să fie asigurată, printre altele, prin amenzi. În acest scop, ar trebui să fie stabilite, de asemenea, niveluri adecvate ale amenzilor pentru încălcarea obligațiilor respective, inclusiv pentru nerespectarea măsurilor impuse de Comisie în conformitate cu prezentul regulament, sub rezerva unor termene de prescripție adecvate, în conformitate cu principiul proporționalității. Toate deciziile luate de Comisie în temeiul prezentului regulament fac obiectul controlului jurisdicțional al Curții de Justiție a Uniunii Europene în conformitate cu TFUE, incluzând competența nelimitată a Curții de Justiție cu privire la sancțiuni în temeiul articolului 261 din TFUE.
(170)
Het Unierecht en het nationale recht voorzien reeds in doeltreffende rechtsmiddelen voor natuurlijke personen en rechtspersonen van wie de rechten en vrijheden worden geschaad door het gebruik van AI-systemen. Onverminderd die rechtsmiddelen, kan elke natuurlijke of rechtspersoon die redenen heeft om aan te nemen dat er sprake is van een inbreuk op de bepalingen van deze verordening, een met redenen omklede klacht indienen bij de betrokken markttoezichtautoriteit.
(170)
Dreptul Uniunii și dreptul intern prevăd deja căi de atac efective pentru persoanele fizice și juridice ale căror drepturi și libertăți sunt afectate în mod negativ de utilizarea sistemelor de IA. Fără a aduce atingere căilor de atac respective, orice persoană fizică sau juridică care are motive să considere că a avut loc o încălcare a prezentului regulament ar trebui să aibă dreptul de a depune o plângere la autoritatea relevantă de supraveghere a pieței.
(171)
Getroffen personen moeten het recht hebben om uitleg te krijgen indien het besluit van een gebruiksverantwoordelijke voornamelijk is gebaseerd op de output van bepaalde AI-systemen met een hoog risico die binnen het toepassingsgebied van deze verordening vallen en indien dat besluit rechtsgevolgen of gelijkaardige aanzienlijke gevolgen heeft voor de gezondheid, veiligheid of grondrechten van die personen. Die uitleg moet duidelijk en zinvol zijn en moet de grondslag zijn waarop de getroffen personen zich kunnen baseren om hun rechten uit te oefenen. Het recht om uitleg te krijgen mag niet van toepassing zijn op het gebruik van AI-systemen waarvoor uitzonderingen of beperkingen voortvloeien uit het Unierecht of het nationale recht en moet alleen van toepassing zijn voor zover het Unierecht niet reeds in dit recht voorziet.
(171)
Persoanele afectate ar trebui să aibă dreptul de a obține o explicație atunci când decizia implementatorului este bazată în principal pe rezultatele anumitor sisteme de IA cu grad ridicat de risc care intră în domeniul de aplicare al prezentului regulament și în cazul în care decizia respectivă produce efecte juridice sau afectează în mod similar în mod semnificativ persoanele respective într-o manieră pe care acestea o consideră ca având un impact negativ asupra sănătății, siguranței sau drepturilor fundamentale ale acestora. Explicația respectivă ar trebui să fie clară și semnificativă și să ofere un temei pentru exercitarea drepturilor de către persoanele afectate. Dreptul de a obține o explicație nu ar trebui să se aplice în cazul utilizării unor sisteme de IA care fac obiectul unor excepții sau restricții care decurg din dreptul Uniunii sau din dreptul intern și ar trebui să se aplice numai în măsura în care acest drept nu este deja prevăzut în dreptul Uniunii.
(172)
Personen die optreden als klokkenluiders bij inbreuken op deze verordening, moeten worden beschermd uit hoofde van het Unierecht. Richtlijn (EU) 2019/1937 van het Europees Parlement en de Raad (54) moet daarom van toepassing zijn op de melding van inbreuken op deze verordening en op de bescherming van personen die dergelijke inbreuken melden.
(172)
Persoanele care acționează în calitate de avertizori de integritate cu privire la încălcările prezentului regulament ar trebui să fie protejate în temeiul dreptului Uniunii. În ceea ce privește raportarea încălcărilor prezentului regulament și protecția persoanelor care raportează astfel de încălcări ar trebui, prin urmare, să se aplice Directiva (UE) 2019/1937 a Parlamentului European și a Consiliului (54).
(173)
Om ervoor te zorgen dat het regelgevingskader waar nodig kan worden aangepast, moet aan de Commissie de bevoegdheid worden overgedragen om overeenkomstig artikel 290 VWEU handelingen vast te stellen tot wijziging van de voorwaarden waaronder een AI-systeem niet als een AI-systeem met een hoog risico wordt beschouwd, van de lijst van AI-systemen met een hoog risico, van de bepalingen inzake technische documentatie, van de inhoud van de EU-conformiteitsverklaring, van de bepalingen betreffende de conformiteitsbeoordelingsprocedures, van de bepalingen tot vaststelling van AI-systemen met een hoog risico waarop de conformiteitsbeoordelingsprocedure op basis van de beoordeling van het kwaliteitsbeheersysteem en de beoordeling van de technische documentatie moet gelden, van de drempel, benchmarks en indicatoren, onder meer door die benchmarks en indicatoren aan te vullen, van de regels voor de classificatie van AI-modellen voor algemene doeleinden met systeemrisico’s, van de criteria voor de aanwijzing van AI-modellen voor algemene doeleinden met een systeemrisico, van de technische documentatie voor aanbieders van AI-modellen voor algemene doeleinden en van de transparantie-informatie voor aanbieders van AI-modellen voor algemene doeleinden. Het is van bijzonder belang dat de Commissie bij haar voorbereidende werkzaamheden tot passende raadplegingen overgaat, onder meer op deskundigenniveau, en dat die raadplegingen gebeuren in overeenstemming met de beginselen die zijn vastgelegd in het Interinstitutioneel Akkoord van 13 april 2016 over beter wetgeven (55). Met name om te zorgen voor gelijke deelname aan de voorbereiding van gedelegeerde handelingen, ontvangen het Europees Parlement en de Raad alle documenten op hetzelfde tijdstip als de deskundigen van de lidstaten, en hebben hun deskundigen systematisch toegang tot de vergaderingen van de deskundigengroepen van de Commissie die zich bezighouden met de voorbereiding van de gedelegeerde handelingen.
(173)
Pentru a se asigura posibilitatea de adaptare a cadrului de reglementare atunci când este necesar, competența de a adopta acte în conformitate cu articolul 290 din TFUE ar trebui să fie delegată Comisiei pentru a modifica condițiile în care un sistem de IA nu este considerat ca având un grad ridicat de risc, lista sistemelor de IA cu grad ridicat de risc, dispozițiile privind documentația tehnică, conținutul declarației de conformitate UE, dispozițiile privind procedurile de evaluare a conformității, dispozițiile de stabilire a sistemelor de IA cu grad ridicat de risc cărora ar trebui să li se aplice procedura de evaluare a conformității bazată pe evaluarea sistemului de management al calității și pe evaluarea documentației tehnice, pragul, valorile de referință și indicatorii din cadrul normelor pentru clasificarea modelelor de IA de uz general cu risc sistemic, inclusiv prin completarea valorilor de referință și indicatorilor respectivi, criteriile pentru desemnarea modelelor de IA de uz general cu risc sistemic, documentația tehnică pentru furnizorii de modele de IA de uz general și informațiile privind transparența pentru furnizorii de modele de IA de uz general. Este deosebit de important ca, în cursul lucrărilor sale pregătitoare, Comisia să organizeze consultări adecvate, inclusiv la nivel de experți, și ca respectivele consultări să se desfășoare în conformitate cu principiile stabilite în Acordul interinstituțional din 13 aprilie 2016 privind o mai bună legiferare (55). În special, pentru a asigura participarea egală la pregătirea actelor delegate, Parlamentul European și Consiliul primesc toate documentele în același timp cu experții din statele membre, iar experții acestor instituții au acces sistematic la reuniunile grupurilor de experți ale Comisiei însărcinate cu pregătirea actelor delegate.
(174)
Gezien de snelle technologische ontwikkelingen en de technische deskundigheid die vereist is om deze verordening doeltreffende toe te passen, moet de Commissie deze verordening uiterlijk op 2 augustus 2029 en vervolgens om de vier jaar evalueren en toetsen en verslag uitbrengen aan het Europees Parlement en de Raad. Daarnaast moet de Commissie, rekening houdend met de gevolgen voor het toepassingsgebied van deze verordening, eenmaal per jaar een beoordeling uitvoeren van de noodzaak om de lijst van AI-systemen met een hoog risico en de lijst van verboden praktijken te wijzigen. Bovendien moet de Commissie uiterlijk op 2 augustus 2028 en vervolgens om de vier jaar een evaluatie maken van de noodzaak om de lijst van rubrieken van gebieden met een hoog risico in de bijlage bij deze verordening te wijzigen, van de AI-systemen die onder de transparantieverplichtingen vallen en van de doeltreffendheid van het toezicht- en governancesysteem en de vooruitgang bij de ontwikkeling van normalisatieproducten met betrekking tot de energie-efficiënte ontwikkeling van AI-modellen voor algemene doeleinden, met inbegrip van de behoefte aan verdere maatregelen of acties, en hierover verslag uitbrengen aan het Europees Parlement en de Raad. Tot slot moet de Commissie uiterlijk op 2 augustus 2028 en vervolgens om de drie jaar de impact en de doeltreffendheid evalueren van vrijwillige gedragscodes om de toepassing van de eisen voor AI-systemen met een hoog risico op andere AI-systemen dan AI-systemen met een hoog risico te bevorderen, en eventuele andere aanvullende eisen voor dergelijke AI-systemen.
(174)
Având în vedere evoluțiile tehnologice rapide și cunoștințele de specialitate tehnice necesare pentru aplicarea eficientă a prezentului regulament, Comisia ar trebui să evalueze și să revizuiască prezentul regulament până la 2 august 2029 și, ulterior, o dată la patru ani și să raporteze Parlamentului European și Consiliului în acest sens. În plus, ținând seama de implicațiile pentru domeniul de aplicare al prezentului regulament, Comisia ar trebui să efectueze o evaluare a necesității de a modifica, o dată pe an, lista sistemelor de IA cu grad ridicat de risc și lista practicilor interzise. În plus, până la 2 august 2028 și, ulterior, o dată la patru ani, Comisia ar trebui să evalueze necesitatea de a modifica lista rubricilor de domeniu cu grad ridicat de risc din anexa la prezentul regulament, sistemele de IA care intră în domeniul de aplicare al obligațiilor de transparență, eficacitatea sistemului de supraveghere și de guvernanță și progresele înregistrate în ceea ce privește elaborarea de documente de standardizare privind dezvoltarea eficientă din punct de vedere energetic a modelelor de IA de uz general, inclusiv necesitatea unor măsuri sau acțiuni suplimentare și să raporteze Parlamentului European și Consiliului în acest sens. În cele din urmă, până la 2 august 2028 și, ulterior, o dată la trei ani, Comisia ar trebui să evalueze impactul și eficacitatea codurilor de conduită voluntare în ceea ce privește încurajarea aplicării cerințelor prevăzute pentru sistemele de IA cu grad ridicat de risc în cazul altor sisteme de IA decât cele cu grad ridicat de risc și, eventual, a altor cerințe suplimentare pentru sistemele de IA respective.
(175)
Om eenvormige voorwaarden te waarborgen voor de uitvoering van deze verordening, moeten aan de Commissie uitvoeringsbevoegdheden worden toegekend. Die bevoegdheden moeten worden uitgeoefend in overeenstemming met verordening (EU) nr. 182/2011 van het Europees Parlement en de Raad (56).
(175)
În vederea asigurării unor condiții uniforme pentru punerea în aplicare a prezentului regulament, ar trebui să fie conferite competențe de executare Comisiei. Respectivele competențe ar trebui să fie exercitate în conformitate cu Regulamentul (UE) nr. 182/2011 al Parlamentului European și al Consiliului (56).
(176)
Aangezien de doelstelling van deze verordening, namelijk het verbeteren van de werking van de interne markt en het bevorderen van de invoering van mensgerichte en betrouwbare AI, waarbij tegelijkertijd een hoog niveau van bescherming van de gezondheid, de veiligheid en de in het Handvest verankerde grondrechten wordt gewaarborgd, met inbegrip van de democratie, de rechtsstaat en de bescherming van het milieu tegen de schadelijke gevolgen van AI-systemen in de Unie en het ondersteunen van innovatie, niet voldoende door de lidstaten kan worden verwezenlijkt en vanwege de omvang of de gevolgen van het optreden beter op het niveau van de Unie kan worden verwezenlijkt, kan de Unie, overeenkomstig het in artikel 5 VEU neergelegde subsidiariteitsbeginsel, maatregelen nemen. Overeenkomstig het in hetzelfde artikel neergelegde evenredigheidsbeginsel gaat deze verordening niet verder dan nodig is om deze doelstelling te verwezenlijken.
(176)
Întrucât obiectivul prezentului regulament, și anume de a îmbunătăți funcționarea pieței interne și de a promova adoptarea IA centrate pe factorul uman și fiabile, asigurând în același timp un nivel ridicat de protecție a sănătății, a siguranței și a drepturilor fundamentale consacrate în cartă, inclusiv a democrației, a statului de drept și a mediului împotriva efectelor dăunătoare ale sistemelor de IA din Uniune, și sprijinind inovarea, nu poate fi realizat în mod satisfăcător de către statele membre și, având în vedere amploarea sau efectele acțiunii sale, poate fi realizat mai bine la nivelul Uniunii, aceasta din urmă poate adopta măsuri, în conformitate cu principiul subsidiarității, astfel cum se prevede la articolul 5 din TUE. În conformitate cu principiul proporționalității, astfel cum este definit la articolul respectiv, prezentul regulament nu depășește ceea ce este necesar pentru realizarea obiectivului menționat.
(177)
Om rechtszekerheid te waarborgen, ervoor te zorgen dat er een passende aanpassingsperiode is voor operatoren en verstoring van de markt te voorkomen, onder meer door de continuïteit van het gebruik van AI-systemen te waarborgen, is het wenselijk dat AI-systemen met een hoog risico die vóór de algemene datum van toepassing van deze verordening in de handel zijn gebracht of in gebruik zijn gesteld, enkel onderworpen zijn aan deze verordening indien hun ontwerp of beoogde doel na die datum aanzienlijk is gewijzigd. Er moet worden verduidelijkt dat een aanzienlijke wijziging in dit verband inhoudelijk overeenkomt met het begrip substantiële wijziging, dat enkel wordt gebruikt met betrekking tot AI-systemen met een hoog risico op grond van deze verordening. Bij wijze van uitzondering en in het licht van de publieke verantwoordingsplicht moeten operatoren van AI-systemen die componenten zijn van de grootschalige IT-systemen die zijn opgezet volgens de in een bijlage bij deze verordening vermelde rechtshandelingen, en operatoren van AI-systemen met een hoog risico die bedoeld zijn om door overheidsinstanties te worden gebruikt, respectievelijk uiterlijk eind 2030 en uiterlijk op 2 augustus 2030 de nodige stappen nemen om aan de eisen ervan te voldoen.
(177)
Pentru a asigura securitatea juridică, a asigura o perioadă de adaptare adecvată pentru operatori și a evita perturbarea pieței, inclusiv prin asigurarea continuității utilizării sistemelor de IA, este oportun ca prezentul regulament să se aplice sistemelor de IA cu grad ridicat de risc care au fost introduse pe piață sau puse în funcțiune înainte de data generală de aplicare a acestuia, numai dacă, de la data respectivă, sistemele respective fac obiectul unor modificări semnificative în ceea ce privește proiectarea sau scopul lor preconizat. Este oportun să se clarifice că, în acest sens, conceptul de modificare semnificativă ar trebui să fie înțeles ca fiind echivalent în esență cu noțiunea de modificare substanțială, care este utilizată numai în ceea ce privește sistemele de IA cu grad ridicat de risc, în temeiul prezentului regulament. În mod excepțional și având în vedere răspunderea publică, operatorii de sisteme de IA care fac parte din sistemele informatice la scară largă instituite prin actele juridice care sunt enumerate într-o anexă la prezentul regulament și operatorii de sisteme de IA cu grad ridicat de risc care sunt destinate a fi utilizate de autoritățile publice ar trebui să ia măsurile necesare pentru a se conforma cerințelor prezentului regulament până la sfârșitul anului 2030 și, respectiv, până la 2 august 2030.
(178)
Aanbieders van AI-systemen met een hoog risico worden aangemoedigd de desbetreffende verplichtingen van deze verordening al tijdens de overgangsperiode op vrijwillige basis toe te passen.
(178)
Furnizorii de sisteme de IA cu grad ridicat de risc sunt încurajați să înceapă să se conformeze, în mod voluntar, obligațiilor relevante aferente prezentului regulament încă din perioada de tranziție.
(179)
Deze verordening moet van toepassing zijn met ingang van 2 augustus 2026. Rekening houdend met het onaanvaardbare risico in verband met de manier waarop AI soms kan worden gebruikt, moeten de verbodsbepalingen alsmede de algemene bepalingen van deze verordening echter reeds van toepassing zijn met ingang van 2 februari 2025. Hoewel het volledige resultaat van die verbodsbepalingen pas zichtbaar wordt met de governance en de handhaving van deze verordening, is het van belang op de toepassing van deze verbodsbepalingen te anticiperen om rekening te houden met onaanvaardbare risico’s en om een weerslag te hebben op andere procedures, zoals in het burgerlijk recht. Voorts moet de infrastructuur in verband met de governance en het systeem voor de conformiteitsbeoordeling vóór 2 augustus 2026 operationeel zijn en moeten de bepalingen inzake aangemelde instanties en de governancestructuur derhalve van toepassing zijn vanaf 2 augustus 2025. Gezien het snelle tempo van de technologische vooruitgang en de invoering van AI-modellen voor algemene doeleinden, moeten de verplichtingen voor aanbieders van AI-modellen voor algemene doeleinden van toepassing zijn met ingang van 2 augustus 2025. Praktijkcodes moeten uiterlijk op 2 mei 2025 gereed zijn om aanbieders in staat te stellen de naleving ervan tijdig aan te tonen. Het AI-bureau moet ervoor zorgen dat de classificatieregels en -procedures actueel zijn in het licht van technologische ontwikkelingen. De lidstaten moeten daarnaast de regels inzake sancties, waaronder administratieve geldboeten, vaststellen en de Commissie hiervan in kennis stellen en ervoor zorgen dat deze uiterlijk op de datum van toepassing van deze verordening naar behoren en op doeltreffende wijze worden uitgevoerd. De bepalingen inzake sancties moeten met ingang van 2 augustus 2025 van toepassing zijn.
(179)
Prezentul regulament ar trebui să se aplice de la 2 august 2026. Cu toate acestea, ținând seama de riscul inacceptabil asociat utilizării IA în anumite moduri, interdicțiile și dispozițiile cu caracter general din prezentul regulament ar trebui să se aplice deja de la 2 februarie 2025. Deși efectul deplin al interdicțiilor respective este corelat cu instituirea guvernanței și cu aplicarea prezentului regulament, aplicarea anticipată a interdicțiilor este importantă pentru a se ține seama de riscurile inacceptabile și pentru a produce efecte asupra altor proceduri, cum ar fi în dreptul civil. În plus, infrastructura legată de guvernanță și de sistemul de evaluare a conformității ar trebui să fie operațională înainte de 2 august 2026; prin urmare, dispozițiile privind organismele notificate și structura de guvernanță ar trebui să se aplice de la 2 august 2025. Având în vedere ritmul rapid al progreselor tehnologice și al adoptării modelelor de IA de uz general, ar trebui ca obligațiile furnizorilor de modele de IA de uz general să se aplice de la 2 august 2025. Codurile de bune practici ar trebui să fie gata până la 2 mai 2025, pentru a permite furnizorilor să demonstreze conformitatea în timp util. Oficiul pentru IA ar trebui să se asigure că normele și procedurile de clasificare sunt actualizate în funcție de evoluțiile tehnologice. În plus, statele membre ar trebui să stabilească și să notifice Comisiei normele privind sancțiunile, inclusiv amenzile administrative, și să se asigure că acestea sunt puse în aplicare în mod corespunzător și efectiv până la data aplicării prezentului regulament. Prin urmare, dispozițiile privind sancțiunile ar trebui să se aplice de la 2 august 2025.
(180)
Overeenkomstig artikel 42, leden 1 en 2, van Verordening (EU) 2018/1725 zijn de Europese Toezichthouder voor gegevensbescherming en het Europees Comité voor gegevensbescherming geraadpleegd, en op 18 juni 2021 hebben zij hun gezamenlijk advies uitgebracht,
(180)
Autoritatea Europeană pentru Protecția Datelor și Comitetul european pentru protecția datelor au fost consultate în conformitate cu articolul 42 alineatele (1) și (2) din Regulamentul (UE) 2018/1725 și au emis avizul lor comun la 18 iunie 2021,
HEBBEN DE VOLGENDE VERORDENING VASTGESTELD:
ADOPTĂ PREZENTUL REGULAMENT:
HOOFDSTUK I
CAPITOLUL I
ALGEMENE BEPALINGEN
DISPOZIȚII GENERALE
Artikel 1
Articolul 1
Onderwerp
Obiectul
1. Deze verordening heeft tot doel de werking van de interne markt te verbeteren en de toepassing van mensgerichte en betrouwbare artificiële intelligentie (AI) te bevorderen, en tegelijkertijd een hoog niveau van bescherming van de gezondheid, de veiligheid en de in het Handvest verankerde grondrechten te waarborgen, met inbegrip van de democratie, de rechtsstaat en de bescherming van het milieu, tegen de schadelijke gevolgen van AI-systemen in de Unie, en innovatie te ondersteunen.
(1) Scopul prezentului regulament este de a îmbunătăți funcționarea pieței interne, de a promova adoptarea inteligenței artificiale (IA) centrate pe factorul uman și fiabile, asigurând în același timp un nivel ridicat de protecție a sănătății, a siguranței și a drepturilor fundamentale consacrate în cartă, inclusiv a democrației, a statului de drept și a mediului împotriva efectelor dăunătoare ale sistemelor de IA din Uniune, și sprijinind inovarea.
2. Bij deze verordening worden vastgesteld:
(2) Prezentul regulament stabilește:
a)
geharmoniseerde regels voor het in de handel brengen, in gebruik stellen en gebruiken van AI-systemen in de Unie;
(a)
norme armonizate pentru introducerea pe piață, punerea în funcțiune și utilizarea sistemelor de IA în Uniune;
b)
een verbod op bepaalde AI-praktijken;
(b)
interdicții privind anumite practici în domeniul IA;
c)
specifieke eisen voor AI-systemen met een hoog risico en verplichtingen voor de operatoren van dergelijke systemen;
(c)
cerințe specifice pentru sistemele de IA cu grad ridicat de risc și obligații pentru operatorii unor astfel de sisteme;
d)
geharmoniseerde transparantievoorschriften voor bepaalde AI-systemen;
(d)
norme armonizate de transparență pentru anumite sisteme de IA;
e)
geharmoniseerde regels voor het in de handel brengen van AI-modellen voor algemene doeleinden;
(e)
norme armonizate privind introducerea pe piață a modelelor de IA de uz general;
f)
regels inzake marktmonitoring, markttoezicht, governance en handhaving van die regels;
(f)
norme privind monitorizarea pieței, supravegherea pieței, guvernanța și aplicarea prezentului regulament;
g)
maatregelen ter ondersteuning van innovatie, met bijzondere nadruk op kmo’s, waaronder start-ups.
(g)
măsuri de susținere a inovării, cu un accent deosebit pe IMM-uri, inclusiv pe întreprinderile nou-înființate.
Artikel 2
Articolul 2
Toepassingsgebied
Domeniul de aplicare
1. Deze verordening is van toepassing op:
(1) Prezentul regulament se aplică pentru:
a)
aanbieders die AI-systemen in de Unie in de handel brengen of in gebruik stellen, of AI-modellen voor algemene doeleinden in de handel brengen, ongeacht of deze aanbieders in de Unie of in een derde land zijn gevestigd of er zich bevinden;
(a)
furnizorii care introduc pe piață sau pun în funcțiune sisteme de IA sau introduc pe piață modele de IA de uz general în Uniune, indiferent dacă furnizorii respectivi sunt stabiliți sau se află în Uniune sau într-o țară terță;
b)
gebruiksverantwoordelijken van AI-systemen die in de Unie zijn gevestigd of er zich bevinden;
(b)
implementatorii de sisteme de IA care își au sediul sau se află pe teritoriul Uniunii;
c)
aanbieders en gebruiksverantwoordelijken van AI-systemen die in een derde land zijn gevestigd of er zich bevinden, indien de output van het AI-systeem in de Unie wordt gebruikt;
(c)
furnizorii și implementatorii de sisteme de IA care își au sediul sau se află într-o țară terță, în cazul în care rezultatele produse de sistemele de IA sunt utilizate în Uniune;
d)
importeurs en distributeurs van AI-systemen;
(d)
importatorii și distribuitorii de sisteme de IA;
e)
fabrikanten van producten die samen met hun product en onder hun eigen naam of merk een AI-systeem in de handel brengen of in gebruik stellen;
(e)
fabricanții de produse care introduc pe piață sau pun în funcțiune un sistem de IA împreună cu produsul lor și sub numele sau marca lor comercială;
f)
gemachtigden van aanbieders die niet in de Unie gevestigd zijn;
(f)
reprezentanții autorizați ai furnizorilor, care nu sunt stabiliți în Uniune;
g)
getroffen personen die zich in de Unie bevinden.
(g)
persoanele afectate care se află în Uniune.
2. Op AI-systemen die overeenkomstig artikel 6, lid 1, als AI-systemen met een hoog risico worden aangemerkt die verband houden met producten die vallen onder de in bijlage I, afdeling B, opgenomen harmonisatiewetgeving van de Unie, zijn uitsluitend artikel 6, lid 1, de artikelen 102 tot en met 109 en artikel 112 van toepassing. Artikel 57 is alleen van toepassing voor zover de eisen voor AI-systemen met een hoog risico uit hoofde van deze verordening zijn opgenomen in die harmonisatiewetgeving van de Unie.
(2) În cazul sistemelor de IA clasificate ca sisteme de IA prezentând un grad ridicat de risc în conformitate cu articolul 6 alineatul (1), legate de produse care fac obiectul actelor legislative de armonizare ale Uniunii care figurează în anexa I secțiunea B, se aplică numai articolul 6 alineatul (1), articolele 102-109 și articolul 112. Articolul 57 se aplică numai în măsura în care cerințele pentru sistemele de IA cu grad ridicat de risc prevăzute în temeiul prezentului regulament au fost integrate în respectivele acte legislative de armonizare ale Uniunii.
3. Deze verordening is niet van toepassing op gebieden die buiten het toepassingsgebied van het Unierecht vallen en doet in geen geval afbreuk aan de bevoegdheden van de lidstaten op het gebied van nationale veiligheid, ongeacht het soort entiteit dat door de lidstaten is belast met de uitvoering van taken in verband met die bevoegdheden.
(3) Prezentul regulament nu se aplică domeniilor care nu intră în sfera de cuprindere a dreptului Uniunii și, în orice caz, nu afectează competențele statelor membre în materie de securitate națională, indiferent de tipul de entitate însărcinată de statele membre să îndeplinească sarcinile legate de competențele respective.
Deze verordening is niet van toepassing op AI-systemen wanneer en in zover die uitsluitend in de handel worden gebracht, in gebruik worden gesteld of, al dan niet gewijzigd, worden gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden, ongeacht het soort entiteit dat deze activiteiten uitvoert.
Prezentul regulament nu se aplică sistemelor de IA în cazul și în măsura în care sunt introduse pe piață, puse în funcțiune sau utilizate cu sau fără modificări exclusiv în scopuri militare, de apărare sau de securitate națională, indiferent de tipul de entitate care desfășoară activitățile respective.
Deze verordening is niet van toepassing op AI-systemen die niet in de Unie in de handel worden gebracht of in gebruik worden gesteld en waarvan de output in de Unie uitsluitend wordt gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden, ongeacht het soort entiteit dat deze activiteiten uitvoert.
Prezentul regulament nu se aplică sistemelor de IA care nu sunt introduse pe piață sau puse în funcțiune în Uniune, în cazul în care rezultatul este utilizat în Uniune exclusiv în scopuri militare, de apărare sau de securitate națională, indiferent de tipul de entitate care desfășoară activitățile respective.
4. Deze verordening is niet van toepassing op overheidsinstanties in derde landen of internationale organisaties die op grond van lid 1 binnen het toepassingsgebied van deze verordening vallen, wanneer deze instanties of organisaties AI-systemen gebruiken in het kader van internationale samenwerking of overeenkomsten met de Unie of een of meer lidstaten op het gebied van rechtshandhaving en justitie, op voorwaarde dat een dergelijk derde land of internationale organisatie passende waarborgen biedt met betrekking tot de bescherming van de grondrechten en fundamentele vrijheden van natuurlijke personen.
(4) Prezentul regulament nu se aplică autorităților publice dintr-o țară terță și nici organizațiilor internaționale care intră în sfera de cuprindere a prezentului regulament în temeiul alineatului (1), în cazul în care respectivele autorități sau organizații utilizează sisteme de IA în cadrul cooperării sau acordurilor internaționale pentru aplicarea legii și pentru cooperarea judiciară cu Uniunea sau cu unul sau mai multe state membre, cu condiția ca o astfel de țară terță sau organizație internațională să ofere garanții adecvate în ceea ce privește protecția drepturilor și libertăților fundamentale ale persoanelor.
5. Deze verordening laat de toepassing van de bepalingen inzake de aansprakelijkheid van aanbieders van tussenhandelsdiensten als vastgelegd in hoofdstuk II van Verordening (EU) 2022/2065 onverlet.
(5) Prezentul regulament nu aduce atingere aplicării dispozițiilor privind răspunderea furnizorilor de servicii intermediare cuprinse în capitolul II din Regulamentul (UE) 2022/2065.
6. Deze verordening is niet van toepassing op AI-systemen of AI-modellen, met inbegrip van hun output, die specifiek zijn ontwikkeld en in gebruik gesteld met wetenschappelijk onderzoek en wetenschappelijke ontwikkeling als enig doel.
(6) Prezentul regulament nu se aplică sistemelor de IA sau modelelor de IA, inclusiv rezultatelor acestora, dezvoltate și puse în funcțiune special și exclusiv pentru cercetare și dezvoltare științifică.
7. Het Unierecht inzake de bescherming van persoonsgegevens, de privacy en de vertrouwelijkheid van communicatie is van toepassing op persoonsgegevens die worden verwerkt in verband met de rechten en verplichtingen die in deze verordening zijn vastgelegd. Deze verordening laat de Verordeningen (EU) 2016/679 of (EU) 2018/1725, of de Richtlijnen 2002/58/EG of (EU) 2016/680 onverlet, onverminderd artikel 10, lid 5, en artikel 59 van deze verordening.
(7) Dreptul Uniunii privind protecția datelor cu caracter personal, a vieții private și a confidențialității comunicațiilor se aplică datelor cu caracter personal prelucrate în legătură cu drepturile și obligațiile prevăzute în prezentul regulament. Prezentul regulament nu afectează Regulamentul (UE) 2016/679 sau (UE) 2018/1725 ori Directiva 2002/58/CE sau (UE) 2016/680, fără a aduce atingere articolului 10 alineatul (5) și articolului 59 din prezentul regulament.
8. Deze verordening is niet van toepassing op onderzoeks-, test- of ontwikkelingsactiviteiten met betrekking tot AI-systemen of AI-modellen voor zij in de handel worden gebracht of in gebruik worden gesteld. Dergelijke activiteiten worden uitgevoerd in overeenstemming met het toepasselijke Unierecht. Testen onder reële omstandigheden vallen niet onder die uitsluiting.
(8) Prezentul regulament nu se aplică niciunei activități de cercetare, testare sau dezvoltare privind sisteme de IA sau modele de IA, înainte ca acestea să fie introduse pe piață sau puse în funcțiune. Astfel de activități se desfășoară în conformitate cu dreptul aplicabil al Uniunii. Testarea în condiții reale nu face obiectul excluderii menționate.
9. Deze verordening doet geen afbreuk aan de regels die zijn vastgelegd in andere rechtshandelingen van de Unie betreffende consumentenbescherming en productveiligheid.
(9) Prezentul regulament nu aduce atingere normelor prevăzute de alte acte juridice ale Uniunii referitoare la protecția consumatorilor și la siguranța produselor.
10. Deze verordening is niet van toepassing op verplichtingen van gebruiksverantwoordelijken die natuurlijke personen zijn die AI-systemen gebruiken in het kader van een louter persoonlijke niet-professionele activiteit.
(10) Prezentul regulament nu se aplică obligațiilor implementatorilor persoane fizice care utilizează sisteme de IA în cursul unei activități strict personale, fără caracter profesional.
11. Deze verordening belet de Unie of de lidstaten niet om wettelijke of bestuursrechtelijke bepalingen te handhaven of in te voeren die gunstiger zijn voor werknemers wat betreft de bescherming van hun rechten met betrekking tot het gebruik van AI-systemen door werkgevers, of om de toepassing van voor werknemers gunstigere collectieve overeenkomsten aan te moedigen of toe te staan.
(11) Prezentul regulament nu împiedică Uniunea sau statele membre să mențină sau să introducă acte cu putere de lege și acte administrative care sunt mai favorabile lucrătorilor privind protejarea drepturilor acestora în ceea ce privește utilizarea sistemelor de IA de către angajatori sau să încurajeze ori să permită aplicarea unor contracte colective de muncă care sunt mai favorabile lucrătorilor.
12. Deze verordening is niet van toepassing op AI-systemen die worden vrijgegeven onder vrije en opensource licenties, tenzij zij in de handel worden gebracht of in gebruik worden gesteld als AI-systemen met een hoog risico of als een AI-systeem dat onder artikel 5 of artikel 50 valt.
(12) Prezentul regulament nu se aplică sistemelor de IA lansate sub licențe libere și cu sursă deschisă, cu excepția cazului în care acestea sunt introduse pe piață sau puse în funcțiune ca sisteme de IA cu grad ridicat de risc sau ca sisteme de IA care intră sub incidența articolului 5 sau a articolului 50.
Artikel 3
Articolul 3
Definities
Definiții
Voor de toepassing van deze verordening wordt verstaan onder:
În sensul prezentului regulament, se aplică următoarele definiții:
1)
“AI-systeem”: een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen;
1.
„sistem de IA” înseamnă un sistem bazat pe o mașină care este conceput să funcționeze cu diferite niveluri de autonomie și care poate prezenta adaptabilitate după implementare, și care, urmărind obiective explicite sau implicite, deduce, din datele de intrare pe care le primește, modul de generare a unor rezultate precum previziuni, conținut, recomandări sau decizii care pot influența mediile fizice sau virtuale;
2)
“risico”: de combinatie van de kans op schade en de ernst van die schade;
2.
„risc” înseamnă combinația dintre probabilitatea producerii unui prejudiciu și gravitatea acestuia;
3)
“aanbieder”: een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die/dat een AI-systeem of een AI-model voor algemene doeleinden ontwikkelt of laat ontwikkelen en dat systeem of model in de handel brengt of het AI-systeem in gebruik stelt onder de eigen naam of merk, al dan niet tegen betaling;
3.
„furnizor” înseamnă o persoană fizică sau juridică, o autoritate publică, o agenție sau un alt organism care dezvoltă un sistem de IA sau un model de IA de uz general sau care comandă dezvoltarea unui sistem de IA sau a unui model de IA de uz general și îl introduce pe piață sau pune în funcțiune sistemul de IA sub propriul nume sau propria marcă comercială, contra cost sau gratuit;
4)
“gebruiksverantwoordelijke”: een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die/dat een AI-systeem onder eigen verantwoordelijkheid gebruikt, tenzij het AI-systeem wordt gebruikt in het kader van een persoonlijke niet-beroepsactiviteit;
4.
„implementator” înseamnă o persoană fizică sau juridică, autoritate publică, agenție sau alt organism care utilizează un sistem de IA aflat sub autoritatea sa, cu excepția cazului în care sistemul de IA este utilizat în cursul unei activități personale, fără caracter profesional;
5)
“gemachtigde”: een natuurlijke of rechtspersoon die zich bevindt of gevestigd is in de Unie die een schriftelijke machtiging heeft gekregen en aanvaard van een aanbieder van een AI-systeem of een AI-model voor algemene doeleinden om namens die aanbieder de verplichtingen en procedures van deze verordening respectievelijk na te komen en uit te voeren;
5.
„reprezentant autorizat” înseamnă o persoană fizică sau juridică aflată sau stabilită în Uniune care a primit și a acceptat un mandat scris din partea unui furnizor al unui sistem de IA sau al unui model de IA de uz general pentru a exercita și, respectiv, a îndeplini, în numele său, obligațiile și procedurile stabilite prin prezentul regulament;
6)
“importeur”: een natuurlijke of rechtspersoon die zich bevindt of gevestigd is in de Unie die een AI-systeem in de handel brengt dat de naam of het merk van een in een derde land gevestigde natuurlijke of rechtspersoon draagt;
6.
„importator” înseamnă o persoană fizică sau juridică aflată sau stabilită în Uniune care introduce pe piață un sistem de IA care poartă numele sau marca unei persoane fizice sau juridice stabilite într-o țară terță;
7)
“distributeur”: een andere natuurlijke persoon of rechtspersoon in de toeleveringsketen dan de aanbieder of de importeur, die een AI-systeem in de Unie op de markt aanbiedt;
7.
„distribuitor” înseamnă o persoană fizică sau juridică din lanțul de aprovizionare, alta decât furnizorul sau importatorul, care pune la dispoziție un sistem de IA pe piața Uniunii;
8)
“operator”: een aanbieder, productfabrikant, gebruiksverantwoordelijke, gemachtigde, importeur of distributeur;
8.
„operator” înseamnă furnizor, fabricant de produse, implementator, reprezentant autorizat, importator sau distribuitor;
9)
“in de handel brengen”: het voor het eerst in de Unie op de markt aanbieden van een AI-systeem of een AI-model voor algemene doeleinden;
9.
„introducere pe piață” înseamnă prima punere la dispoziție a unui sistem de IA sau a unui model de IA de uz general pe piața Uniunii;
10)
“op de markt aanbieden”: het in het kader van een handelsactiviteit, al dan niet tegen betaling, verstrekken van een AI-systeem of een AI-model voor algemene doeleinden met het oog op distributie of gebruik op de markt van de Unie;
10.
„punere la dispoziție pe piață” înseamnă furnizarea unui sistem de IA sau a unui model de IA de uz general pentru distribuție sau uz pe piața Uniunii în cursul unei activități comerciale, contra cost sau gratuit;
11)
“in gebruik stellen”: de directe levering van een AI-systeem aan de gebruiksverantwoordelijke voor het eerste gebruik of voor eigen gebruik in de Unie voor het beoogde doel;
11.
„punere în funcțiune” înseamnă furnizarea unui sistem de IA pentru prima utilizare direct implementatorului sau pentru uz propriu în Uniune, în scopul său preconizat;
12)
“beoogd doel”: het gebruik waarvoor een AI-systeem door de aanbieder is bedoeld, met inbegrip van de specifieke context en voorwaarden van het gebruik, zoals gespecificeerd in de informatie die door de aanbieder in de gebruiksinstructies, reclame- of verkoopmaterialen en verklaringen, alsook in de technische documentatie is verstrekt;
12.
„scop preconizat” înseamnă utilizarea preconizată de către furnizor a unui sistem de IA, inclusiv contextul specific și condițiile de utilizare, astfel cum se specifică în informațiile oferite de furnizor în instrucțiunile de utilizare, în materialele promoționale sau de vânzare și în declarații, precum și în documentația tehnică;
13)
“redelijkerwijs te voorzien misbruik”: het gebruik van een AI-systeem op een wijze die niet in overeenstemming is met het beoogde doel, maar die kan voortvloeien uit redelijkerwijs te voorzien menselijk gedrag of redelijkerwijs te voorziene interactie met andere systemen, waaronder andere AI-systemen;
13.
„utilizare necorespunzătoare previzibilă în mod rezonabil” înseamnă utilizarea unui sistem de IA într-un mod care nu este în conformitate cu scopul său preconizat, dar care poate rezulta din comportamentul uman sau din interacțiunea previzibilă în mod rezonabil cu alte sisteme, inclusiv cu alte sisteme de IA;
14)
“veiligheidscomponent”: een component van een product of van een AI-systeem die een veiligheids-functie voor dat product of AI-systeem vervult of waarvan het falen of gebrekkig functioneren de gezondheid en veiligheid van personen of eigendom in gevaar brengt;
14.
„componentă de siguranță” înseamnă o componentă a unui produs sau a unui sistem de IA care îndeplinește o funcție de siguranță pentru produsul sau sistemul de IA respectiv sau a cărei defectare sau funcționare defectuoasă pune în pericol sănătatea și siguranța persoanelor sau a bunurilor;
15)
“gebruiksinstructies”: de door de aanbieder verstrekte informatie om de gebruiksverantwoordelijke te informeren over met name het beoogde doel en juiste gebruik van een AI-systeem;
15.
„instrucțiuni de utilizare” înseamnă informațiile oferite de furnizor pentru a informa implementatorul, în special cu privire la scopul preconizat și utilizarea corespunzătoare a unui sistem de IA;
16)
“terugroepen van een AI-systeem”: een maatregel gericht op het retourneren aan de aanbieder, het buiten gebruik stellen of het onbruikbaar maken van een AI-systeem dat aan gebruiksverantwoordelijken ter beschikking is gesteld;
16.
„rechemare a unui sistem de IA” înseamnă orice măsură care are drept scop returnarea către furnizor, scoaterea din funcțiune sau dezactivarea utilizării unui sistem de IA deja pus la dispoziția implementatorilor;
17)
“uit de handel nemen van een AI-systeem”: een maatregel waarmee wordt beoogd te voorkomen dat een AI-systeem dat zich in de toeleveringsketen bevindt, op de markt wordt aangeboden;
17.
„retragere a unui sistem de IA” înseamnă orice măsură care are drept scop împiedicarea punerii la dispoziție pe piață a unui sistem de IA din lanțul de aprovizionare;
18)
“prestaties van een AI-systeem”: het vermogen van een AI-systeem om het beoogde doel te verwezenlijken;
18.
„performanță a unui sistem de IA” înseamnă capacitatea unui sistem de IA de a-și îndeplini scopul preconizat;
19)
“aanmeldende autoriteit”: de nationale autoriteit die verantwoordelijk is voor het opzetten en uitvoeren van de noodzakelijke procedures voor de beoordeling, aanwijzing en kennisgeving van de conformiteitsbeoordelingsinstanties en de monitoring hiervan;
19.
„autoritate de notificare” înseamnă autoritatea națională responsabilă cu instituirea și îndeplinirea procedurilor necesare pentru evaluarea, desemnarea și notificarea organismelor de evaluare a conformității și pentru monitorizarea acestora;
20)
“conformiteitsbeoordeling”: het proces waarbij de naleving wordt aangetoond van de voorschriften van hoofdstuk III, afdeling 2, in verband met een AI-systeem met een hoog risico;
20.
„evaluare a conformității” înseamnă procesul prin care se demonstrează dacă au fost îndeplinite sau nu cerințele prevăzute în capitolul III secțiunea 2 referitoare la un sistem de IA cu grad ridicat de risc;
21)
“conformiteitsbeoordelingsinstantie”: een instantie die als derde partij conformiteits-beoordelingsactiviteiten verricht, zoals onder meer testen, certificeren en inspecteren;
21.
„organism de evaluare a conformității” înseamnă un organism care efectuează activități de evaluare a conformității ca parte terță, incluzând testarea, certificarea și inspecția;
22)
“aangemelde instantie”: een conformiteitsbeoordelingsinstantie die overeenkomstig deze verordening en andere relevante harmonisatiewetgeving van de Unie, is aangemeld;
22.
„organism notificat” înseamnă un organism de evaluare a conformității notificat în conformitate cu prezentul regulament și cu alte acte legislative relevante de armonizare ale Uniunii;
23)
“substantiële wijziging”: een verandering van een AI-systeem nadat dit in de handel is gebracht of in gebruik is gesteld, die door de aanbieder niet is voorzien of gepland in de initiële conformiteitsbeoordeling en als gevolg waarvan de overeenstemming van het AI-systeem met de voorschriften van hoofdstuk III, afdeling 2, wordt beïnvloed, of die leidt tot een wijziging van het beoogde doel waarvoor het AI-systeem is beoordeeld;
23.
„modificare substanțială” înseamnă o modificare a unui sistem de IA după introducerea sa pe piață sau punerea sa în funcțiune, care nu este prevăzută sau planificată în evaluarea inițială a conformității realizată de furnizor și în urma căreia este afectată conformitatea sistemului de IA cu cerințele prevăzute în capitolul III secțiunea 2 sau care conduce la o modificare a scopului preconizat pentru care a fost evaluat sistemul de IA;
24)
“CE-markering”: een markering waarmee een aanbieder aangeeft dat een AI-systeem in overeenstemming is met de voorschriften van hoofdstuk III, afdeling 2, en andere toepasselijke harmonisatiewetgeving van de Unie, die in het aanbrengen ervan voorzien;
24.
„marcaj CE” înseamnă un marcaj prin care un furnizor indică faptul că un sistem de IA este în conformitate cu cerințele prevăzute în capitolul III secțiunea 2 și în alte acte legislative de armonizare aplicabile ale Uniunii care prevăd aplicarea acestui marcaj;
25)
“systeem voor monitoring na het in de handel brengen”: alle door aanbieders van AI-systemen verrichte activiteiten voor het verzamelen en evalueren van ervaringen met door hen in de handel gebrachte of in gebruik gestelde AI-systemen, teneinde te kunnen vaststellen of er onmiddellijk corrigerende dan wel preventieve maatregelen nodig zijn;
25.
„sistem de monitorizare ulterioară introducerii pe piață” înseamnă toate activitățile desfășurate de furnizorii de sisteme de IA pentru a colecta și a revizui experiența dobândită în urma utilizării sistemelor de IA pe care le introduc pe piață sau le pun în funcțiune, în scopul identificării oricărei nevoi de a aplica imediat orice măsură corectivă sau preventivă necesară;
26)
“markttoezichtautoriteit”: de nationale autoriteit die de activiteiten verricht en maatregelen neemt als bedoeld in Verordening (EU) 2019/1020;
26.
„autoritate de supraveghere a pieței” înseamnă autoritatea națională care desfășoară activități și ia măsuri în temeiul Regulamentului (UE) 2019/1020;
27)
“geharmoniseerde norm”: een geharmoniseerde norm zoals gedefinieerd in artikel 2, lid 1, punt c), van Verordening (EU) nr. 1025/2012;
27.
„standard armonizat” înseamnă un standard armonizat, în sensul definiției de la articolul 2 punctul 1 litera (c) din Regulamentul (UE) nr. 1025/2012;
28)
“gemeenschappelijke specificatie”: een reeks technische specificaties zoals gedefinieerd in artikel 2, punt 4, van Verordening (EU) nr. 1025/2012, om te voldoen aan bepaalde voorschriften zoals vastgelegd in deze verordening;
28.
„specificație comună” înseamnă un set de specificații tehnice, astfel cum sunt definite la articolul 2 punctul 4 din Regulamentul (UE) nr. 1025/2012, care oferă mijloacele de a respecta anumite cerințe stabilite în temeiul prezentului regulament;
29)
“trainingsdata”: data die worden gebruikt voor het trainen van een AI-systeem door de leerbare parameters hiervan aan te passen;
29.
„date de antrenament” înseamnă datele utilizate pentru antrenarea unui sistem de IA prin adaptarea parametrilor săi care pot fi învățați;
30)
“validatiedata”: data die worden gebruikt voor het verrichten van een evaluatie van het getrainde AI-systeem en voor het afstemmen van onder andere de niet-leerbare parameters en het leerproces ervan, om underfitting of overfitting te voorkomen;
30.
„date de validare” înseamnă datele utilizate pentru a furniza o evaluare a sistemului de IA antrenat și pentru a-i ajusta parametrii care nu pot fi învățați și procesul său de învățare, printre altele, pentru a preveni subadaptarea sau supraadaptarea;
31)
“validatiedataset”: een afzonderlijke dataset of deel van de trainingsdataset, als vaste of variabele opdeling;
31.
„set de date de validare” înseamnă un set de date separat sau o parte a setului de date de antrenament, sub forma unei divizări fixe sau variabile;
32)
“testdata”: data die worden gebruikt voor het verrichten van een onafhankelijke evaluatie van het AI-systeem om de verwachte prestaties van dat systeem te bevestigen voordat het in de handel wordt gebracht of in gebruik wordt gesteld;
32.
„date de testare” înseamnă datele utilizate pentru a furniza o evaluare independentă a sistemului de IA, în scopul de a confirma performanța preconizată a sistemului respectiv înainte de introducerea sa pe piață sau de punerea sa în funcțiune;
33)
“inputdata”: data die in een AI-systeem worden ingevoerd of direct door een AI-systeem worden verworven en op basis waarvan het systeem een output genereert;
33.
„date de intrare” înseamnă datele furnizate unui sistem de IA sau dobândite direct de acesta, pe baza cărora sistemul produce un rezultat;
34)
“biometrische gegevens”: persoonsgegevens die het resultaat zijn van een specifieke technische verwerking met betrekking tot de fysieke, fysiologische of gedragsgerelateerde kenmerken van een natuurlijk persoon, zoals gezichtsafbeeldingen of vingerafdrukgegevens;
34.
„date biometrice” înseamnă datele cu caracter personal rezultate dintr-o prelucrare tehnică specifică, referitoare la caracteristicile fizice, fiziologice sau comportamentale ale unei persoane fizice, cum ar fi imaginile faciale sau datele dactiloscopice;
35)
“biometrische identificatie”: de geautomatiseerde herkenning van fysieke, fysiologische, gedragsgerelateerde of psychologische menselijke kenmerken om de identiteit van een natuurlijk persoon vast te stellen door biometrische gegevens van die persoon te vergelijken met in een databank opgeslagen biometrische gegevens van personen;
35.
„identificare biometrică” înseamnă recunoașterea automată a caracteristicilor fizice, fiziologice, comportamentale sau psihologice ale omului în scopul stabilirii identității unei persoane fizice prin compararea datelor biometrice ale persoanei respective cu datele biometrice ale persoanelor stocate într-o bază de date;
36)
“biometrische verificatie”: de geautomatiseerde één-op-éénverificatie, met inbegrip van de authenticatie, van de identiteit van natuurlijke personen door hun biometrische gegevens te vergelijken met eerder verstrekte biometrische gegevens;
36.
„verificare biometrică” înseamnă verificarea automată, pe baza unei comparații între două seturi de date, inclusiv autentificarea, a identității persoanelor fizice prin compararea datelor biometrice ale acestora cu datele biometrice furnizate anterior;
37)
“bijzondere categorieën persoonsgegevens”: de categorieën persoonsgegevens als bedoeld in artikel 9, lid 1, van Verordening (EU) 2016/679, artikel 10 van Richtlijn (EU) 2016/680 en artikel 10, lid 1, van Verordening (EU) 2018/1725;
37.
„categorii speciale de date cu caracter personal” înseamnă categoriile de date cu caracter personal menționate la articolul 9 alineatul (1) din Regulamentul (UE) 2016/679, la articolul 10 din Directiva (UE) 2016/680 și la articolul 10 alineatul (1) din Regulamentul (UE) 2018/1725;
38)
“gevoelige operationele gegevens”: operationele gegevens met betrekking tot activiteiten op het gebied van preventie, opsporing, onderzoek of vervolging van strafbare feiten waarvan de openbaarmaking de integriteit van strafprocedures in het gedrang zou kunnen brengen;
38.
„date operaționale sensibile” înseamnă date operaționale legate de activități de prevenire, depistare, investigare sau urmărire penală a infracțiunilor a căror divulgare ar putea pune în pericol integritatea unor proceduri penale;
39)
“systeem voor het herkennen van emoties”: een AI-systeem dat is bedoeld voor het vaststellen of afleiden van de emoties of intenties van natuurlijke personen op basis van hun biometrische gegevens;
39.
„sistem de recunoaștere a emoțiilor” înseamnă un sistem de IA al cărui scop este de a identifica sau a deduce emoțiile sau intențiile persoanelor fizice pe baza datelor lor biometrice;
40)
“systeem voor biometrische categorisering” een AI-systeem dat is bedoeld voor het indelen van natuurlijke personen in specifieke categorieën op basis van hun biometrische gegevens, tenzij dit een aanvulling vormt op een andere commerciële dienst en om objectieve technische redenen strikt noodzakelijk is;
40.
„sistem de clasificare biometrică” înseamnă un sistem de IA al cărui scop este de a încadra persoanele fizice în categorii specifice pe baza datelor lor biometrice, cu excepția cazului în care acesta este auxiliar unui alt serviciu comercial și strict necesar din motive tehnice obiective;
41)
“systeem voor biometrische identificatie op afstand”: een AI-systeem dat is bedoeld voor het identificeren van natuurlijke personen, zonder dat zij daar actief bij betrokken zijn en doorgaans van een afstand, door middel van vergelijking van de biometrische gegevens van een persoon met de biometrische gegevens die zijn opgenomen in een referentiedatabank;
41.
„sistem de identificare biometrică la distanță” înseamnă un sistem de IA al cărui scop este de a identifica persoanele fizice, fără implicarea activă a acestora, de obicei la distanță, prin compararea datelor biometrice ale unei persoane cu datele biometrice conținute într-o bază de date de referință;
42)
“systeem voor biometrische identificatie op afstand in real time”: een systeem voor biometrische identificatie op afstand, waarbij het vastleggen van biometrische gegevens, de vergelijking en de identificatie zonder significante vertraging plaatsvinden, zowel wanneer de identificatie niet enkel onmiddellijk plaatsvindt, maar ook wanneer de identificatie met beperkte korte vertragingen plaatsvindt, om omzeiling te voorkomen;
42.
„sistem de identificare biometrică la distanță în timp real” înseamnă un sistem de identificare biometrică la distanță în care atât capturarea datelor biometrice, cât și compararea și identificarea au loc fără întârzieri semnificative, incluzând nu numai identificarea instantanee, ci și întârzieri scurte limitate pentru a se evita eludarea;
43)
“systeem voor biometrische identificatie op afstand achteraf”: een ander biometrisch systeem voor de identificatie op afstand dan een systeem voor biometrische identificatie op afstand in real time;
43.
„sistem de identificare biometrică la distanță ulterioară” înseamnă un alt sistem de identificare biometrică la distanță decât sistemul de identificare biometrică la distanță în timp real;
44)
“openbare ruimte”: een fysieke plek die in publieke of private handen is en toegankelijk is voor een onbepaald aantal natuurlijke personen, ongeacht of bepaalde voorwaarden voor de toegang van toepassing zijn, en ongeacht eventuele capaciteitsbeperkingen;
44.
„spațiu accesibil publicului” înseamnă orice loc fizic aflat în proprietate publică sau privată, accesibil unui număr nedeterminat de persoane fizice, indiferent dacă se pot aplica anumite condiții de acces și indiferent de potențiale restricții de capacitate;
45)
“rechtshandhavingsinstantie”:
45.
„autoritate de aplicare a legii” înseamnă:
a)
iedere overheidsinstantie die bevoegd is voor de voorkoming van, het onderzoek naar, de opsporing en de vervolging van strafbare feiten of de uitvoering van straffen, met inbegrip van de bescherming tegen en de voorkoming van gevaren voor de openbare veiligheid, of
(a)
orice autoritate publică competentă în materie de prevenire, investigare, depistare sau urmărire penală a infracțiunilor sau de executare a sancțiunilor penale, inclusiv în materie de protejare împotriva amenințărilor la adresa securității publice și de prevenire a acestora; sau
b)
ieder ander orgaan dat of iedere andere entiteit die krachtens het recht van de lidstaten is gemachtigd openbaar gezag en openbare bevoegdheden uit te oefenen met het oog op de voorkoming van, het onderzoek naar, de opsporing en de vervolging van strafbare feiten of de uitvoering van straffen, met inbegrip van de bescherming tegen en de voorkoming van gevaren voor de openbare veiligheid;
(b)
orice alt organism sau entitate împuternicit(ă) de dreptul statului membru să exercite autoritate publică și competențe publice în scopul prevenirii, investigării, depistării sau urmăririi penale a infracțiunilor sau al executării sancțiunilor penale, inclusiv al protejării împotriva amenințărilor la adresa securității publice și al prevenirii acestora;
46)
“rechtshandhaving”: activiteiten die worden verricht door of namens rechtshandhavings-instanties met het oog op de voorkoming van, het onderzoek naar, de opsporing of de vervolging van strafbare feiten of de uitvoering van straffen, met inbegrip van de bescherming tegen en de voorkoming van gevaren voor de openbare veiligheid;
46.
„aplicarea legii” înseamnă activitățile desfășurate de autoritățile de aplicare a legii sau în numele acestora pentru prevenirea, investigarea, depistarea sau urmărirea penală a infracțiunilor sau pentru executarea sancțiunilor penale, inclusiv pentru protejarea împotriva amenințărilor la adresa securității publice și prevenirea acestora;
47)
“AI-bureau”: de taak van de Commissie waarbij zij bijdraagt aan de uitvoering van, de monitoring van en het toezicht op AI-systemen en AI-modellen voor algemene doeleinden, en AI-governance, als bepaald in het besluit van de Commissie van 24 januari 2024; verwijzingen in deze verordening naar het AI-bureau worden begrepen als verwijzingen naar de Commissie;
47.
„Oficiul pentru IA” înseamnă funcția Comisiei de a contribui la punerea în aplicare, monitorizarea și supravegherea sistemelor de IA și a modelelor de IA de uz general și la guvernanța IA, prevăzută în Decizia din 24 ianuarie 2024 a Comisiei; trimiterile din prezentul regulament la Oficiul pentru IA se interpretează ca trimiteri la Comisie;
48)
“nationale bevoegde autoriteit”: een aanmeldende autoriteit of een de markttoezichtautoriteit; wat betreft AI-systemen die door instellingen, organen en instanties van de EU in gebruik worden gesteld of worden gebruikt, worden verwijzingen naar nationale bevoegde autoriteiten of markttoezichtautoriteiten in deze verordening begrepen als verwijzingen naar de Europese Toezichthouder voor gegevensbescherming;
48.
„autoritate națională competentă” înseamnă o autoritate de notificare sau o autoritate de supraveghere a pieței; în ceea ce privește sistemele de IA puse în funcțiune sau utilizate de instituțiile, agențiile, oficiile și organele Uniunii, mențiunile referitoare la autoritățile naționale competente sau la autoritățile de supraveghere a pieței din prezentul regulament se interpretează ca mențiuni referitoare la Autoritatea Europeană pentru Protecția Datelor;
49)
“ernstig incident”: een incident of gebrekkig functioneren van een AI-systeem dat direct of indirect leidt tot:
49.
„incident grav” înseamnă un incident sau funcționarea necorespunzătoare a unui sistem de IA care, direct sau indirect, conduce la oricare dintre următoarele:
a)
het overlijden van een persoon of ernstige schade voor de gezondheid van een persoon;
(a)
decesul unei persoane sau vătămarea gravă a sănătății unei persoane;
b)
een ernstige en onomkeerbare verstoring van het beheer of de exploitatie van kritieke infrastructuur;
(b)
o perturbare gravă și ireversibilă a gestionării sau a funcționării infrastructurii critice;
c)
een schending van de uit het recht van de Unie voortvloeiende verplichtingen ter bescherming van de grondrechten;
(c)
încălcarea obligațiilor care decurg din dreptul Uniunii menit să protejeze drepturile fundamentale;
d)
ernstige schade aan eigendommen of het milieu;
(d)
daune grave aduse bunurilor sau mediului;
50)
“persoonsgegevens”: persoonsgegevens zoals gedefinieerd in artikel 4, punt 1, van Verordening (EU) 2016/679;
50.
„date cu caracter personal” înseamnă datele cu caracter personal astfel cum sunt definite la articolul 4 punctul 1 din Regulamentul (UE) 2016/679;
51)
“niet-persoonsgebonden gegevens”: andere gegevens dan persoonsgegevens zoals gedefinieerd in artikel 4, punt 1, van Verordening (EU) 2016/679;
51.
„date fără caracter personal” înseamnă date, altele decât datele cu caracter personal definite la articolul 4 punctul 1 din Regulamentul (UE) 2016/679;
52)
“profilering”: profilering zoals gedefinieerd in artikel 4, punt 4, van Verordening (EU) 2016/679;
52.
„creare de profiluri” înseamnă creare de profiluri în sensul definiției de la articolul 4 punctul 4 din Regulamentul (UE) 2016/679;
53)
“plan voor testen onder reële omstandigheden”: een document waarin de doelstellingen, methode, geografische reikwijdte, betrokken personen, duur, monitoring, organisatie en wijze van uitvoering van een test onder reële omstandigheden worden omschreven;
53.
„plan de testare în condiții reale” înseamnă un document care descrie obiectivele, metodologia, domeniul de aplicare geografic, demografic și temporal, monitorizarea, organizarea și efectuarea testelor în condiții reale;
54)
“testomgevingsplan”: tussen de deelnemende aanbieder en de bevoegde autoriteit overeengekomen document waarin de doelstellingen, de voorwaarden, het tijdschema, de methode en de vereisten voor de in de testomgeving uitgevoerde activiteiten worden beschreven;
54.
„plan privind spațiul de testare” înseamnă un document convenit între furnizorul participant și autoritatea competentă care descrie obiectivele, condițiile, calendarul, metodologia și cerințele pentru activitățile desfășurate în spațiul de testare;
55)
“AI-testomgeving voor regelgeving”: een door een bevoegde autoriteit opgezet gecontroleerd kader dat aanbieders of toekomstige aanbieders van AI-systemen de mogelijkheid biedt een innovatief AI-systeem te ontwikkelen, trainen, valideren en testen, zo nodig onder reële omstandigheden, volgens een testomgevingsplan, voor een beperkte periode en onder begeleiding van een toezichthouder;
55.
„spațiu de testare în materie de reglementare în domeniul IA” înseamnă un cadru controlat instituit de o autoritate competentă care oferă furnizorilor sau potențialilor furnizori de sisteme de IA posibilitatea de a dezvolta, de a antrena, de a valida și de a testa, după caz în condiții reale, un sistem de IA inovator, pe baza unui plan privind spațiul de testare, pentru o perioadă limitată de timp, sub supraveghere reglementară;
56)
“AI-geletterdheid”: vaardigheden, kennis en begrip die aanbieders, gebruiksverantwoordelijken en betrokken personen, rekening houdend met hun respectieve rechten en plichten in het kader van deze verordening, in staat stellen geïnformeerd AI-systemen in te zetten en zich bewuster te worden van de kansen en risico’s van AI en de mogelijke schade die zij kan veroorzaken;
56.
„alfabetizare în domeniul IA” înseamnă competențele, cunoștințele și înțelegerea care le permit furnizorilor, implementatorilor și persoanelor afectate, ținând seama de drepturile și obligațiile lor respective în contextul prezentului regulament, să implementeze sistemele de IA în cunoștință de cauză și să conștientizeze oportunitățile și riscurile pe care le implică IA, precum și prejudiciile pe care le pot aduce;
57)
“testen onder reële omstandigheden”: het tijdelijk testen van een AI-systeem voor zijn beoogde doel onder reële omstandigheden buiten een laboratorium of anderszins gesimuleerde omgeving teneinde betrouwbare en robuuste gegevens te verkrijgen, en te beoordelen en te verifiëren of het AI-systeem overeenstemt met de voorschriften van deze verordening en het wordt niet aangemerkt als het in de handel brengen of in gebruik stellen van het AI-systeem in de zin van deze verordening, mits aan alle in artikel 57 of artikel 60 vastgestelde voorwaarden is voldaan;
57.
„testare în condiții reale” înseamnă testarea temporară a unui sistem de IA în scopul său preconizat, în condiții reale, în afara unui laborator sau a unui mediu simulat în alt mod, în vederea colectării de date fiabile și solide și a evaluării și verificării conformității sistemului de IA cu cerințele prezentului regulament și nu se consideră introducere pe piață sau punere în funcțiune a sistemului de IA în sensul prezentului regulament, dacă sunt îndeplinite toate condițiile prevăzute la articolul 57 sau 60;
58)
“proefpersoon” in het kader van tests onder reële omstandigheden: een natuurlijk persoon die deelneemt aan een test onder reële omstandigheden;
58.
„subiect” în scopul testării în condiții reale înseamnă o persoană fizică care participă la testarea în condiții reale;
59)
“geïnformeerde toestemming”: de vrijelijk gegeven, specifieke, ondubbelzinnige en vrijwillige uiting door een proefpersoon van zijn of haar bereidheid deel te nemen aan een bepaalde test onder reële omstandigheden, na geïnformeerd te zijn over alle aspecten van de test die van belang zijn voor zijn of haar beslissing om deel te nemen;
59.
„consimțământ în cunoștință de cauză” înseamnă exprimarea liberă, specifică, neechivocă și voluntară de către un subiect a dorinței sale de a participa la o anumită testare în condiții reale, după ce a fost informat cu privire la toate aspectele testării care sunt relevante pentru decizia sa de a participa;
60)
“deepfake”: door AI gegenereerd of gemanipuleerd beeld-, audio- of videomateriaal dat een gelijkenis vertoont met bestaande personen, voorwerpen, plaatsen, entiteiten of gebeurtenissen, en door een persoon ten onrechte voor authentiek of waarheidsgetrouw zou worden aangezien;
60.
„deepfake” înseamnă o imagine ori un conținut audio sau video generat sau manipulat de IA care prezintă o asemănare cu persoane, obiecte, locuri sau alte entități ori evenimente existente și care ar crea unei persoane impresia falsă că este autentic sau adevărat;
61)
“wijdverbreide inbreuk”: alle handelingen of omissies die in strijd zijn met het Unierecht ter bescherming van de belangen van natuurlijke personen, waarbij:
61.
„încălcare pe scară largă” înseamnă orice acțiuni sau omisiuni contrare dreptului Uniunii care protejează interesele persoanelor fizice și care:
a)
schade is veroorzaakt of waarschijnlijk zal worden veroorzaakt aan de collectieve belangen van natuurlijke personen met verblijfplaats in ten minste twee andere lidstaten dan de lidstaat waar:
(a)
au adus sau ar putea aduce prejudicii intereselor colective ale persoanelor care își au reședința în cel puțin două state membre diferite de statul membru în care:
i)
de handeling of omissie haar oorsprong vond of plaatshad;
(i)
au fost inițiate sau au avut loc acțiunile sau omisiunile în cauză;
ii)
de betrokken aanbieder of, waar van toepassing, diens gemachtigde zich bevindt of is gevestigd, of
(ii)
se află sau este stabilit furnizorul în cauză sau, după caz, reprezentantul său autorizat; sau
iii)
de gebruiksverantwoordelijke is gevestigd, indien de inbreuk door de gebruiksverantwoordelijke is gepleegd;
(iii)
este stabilit implementatorul, atunci când încălcarea este comisă de implementator;
b)
schade is veroorzaakt, wordt veroorzaakt of waarschijnlijk zal worden veroorzaakt aan de collectieve belangen van natuurlijke personen, en die gemeenschappelijke kenmerken hebben, waaronder dezelfde onrechtmatige praktijk of een inbreuk op hetzelfde belang, en die zich gelijktijdig voordoen en door dezelfde operator worden begaan in ten minste drie lidstaten;
(b)
au adus, aduc sau sunt susceptibile să aducă prejudicii intereselor colective ale persoanelor și au caracteristici comune, cum ar fi aceeași practică ilegală, încălcarea aceluiași interes, care survin în același timp, fiind comise de același operator, în cel puțin trei state membre;
62)
“kritieke infrastructuur”: kritieke infrastructuur zoals gedefinieerd in artikel 2, punt 4, van Richtlijn (EU) 2022/2557;
62.
„infrastructură critică” înseamnă infrastructură critică în sensul definiției de la articolul 2 punctul 4 din Directiva (UE) 2022/2557;
63)
“AI-model voor algemene doeleinden”: een AI-model, ook wanneer het is getraind met een grote hoeveelheid data met behulp van self-supervision op grote schaal, dat een aanzienlijk algemeen karakter vertoont en in staat is op competente wijze een breed scala aan verschillende taken uit te voeren, ongeacht de wijze waarop het model in de handel wordt gebracht, en dat kan worden geïntegreerd in een verscheidenheid aan systemen verder in de AI-waardeketen of toepassingen verder in de AI-waardeketen, met uitzondering van AI-modellen die worden gebruikt voor onderzoek, ontwikkeling of prototypingactiviteiten alvorens zij in de handel worden gebracht;
63.
„model de IA de uz general” înseamnă un model de IA, inclusiv în cazul în care un astfel de model de IA este antrenat cu un volum mare de date care utilizează autosupravegherea la scară largă, care prezintă o generalitate semnificativă și este capabil să îndeplinească în mod competent o gamă largă de sarcini distincte, indiferent de modul în care este introdus pe piață și care poate fi integrat într-o varietate de sisteme sau aplicații din aval, cu excepția modelelor de IA care sunt utilizate pentru activități de cercetare, dezvoltare sau creare de prototipuri înainte de introducerea pe piață;
64)
“capaciteiten met een grote impact”: capaciteiten die overeenkomen met of groter zijn dan de capaciteiten die worden opgetekend bij de meest geavanceerde AI-modellen voor algemene doeleinden;
64.
„capabilități cu impact ridicat” înseamnă capabilități care corespund capabilităților înregistrate în cele mai avansate modele de IA de uz general sau depășesc capabilitățile respective;
65)
“systeemrisico”: een risico dat specifiek is voor de capaciteiten met een grote impact van AI-modellen voor algemene doeleinden, die aanzienlijke gevolgen hebben voor de markt van de Unie vanwege hun bereik, of vanwege feitelijke of redelijkerwijs te voorziene negatieve gevolgen voor de gezondheid, de veiligheid, de openbare veiligheid, de grondrechten of de samenleving als geheel, en dat op grote schaal in de hele waardeketen kan worden verspreid;
65.
„risc sistemic” înseamnă un risc specific capabilităților cu impact ridicat ale modelelor de IA de uz general, având un impact semnificativ asupra pieței Uniunii ca urmare a amplorii acestora sau a efectelor negative reale sau previzibile în mod rezonabil asupra sănătății publice, siguranței, securității publice, drepturilor fundamentale sau asupra societății în ansamblu, care poate fi propagat la scară largă de-a lungul lanțului valoric;
66)
“AI-systeem voor algemene doeleinden”: een AI-systeem dat is gebaseerd op een AI-model voor algemene doeleinden en dat verschillende doeleinden kan dienen, zowel voor direct gebruik als voor integratie in andere AI-systemen;
66.
„sistem de IA de uz general” înseamnă un sistem de IA care se bazează pe un model de IA de uz general și care are capabilitatea de a deservi o varietate de scopuri, atât pentru utilizare directă, cât și pentru integrarea în alte sisteme de IA;
67)
zwevendekommabewerking of “floating-point operation (FLOP)”: elke wiskundige bewerking of toewijzing met zwevendekommagetallen, die een subset vormen van de reële getallen die gewoonlijk op computers worden gerepresenteerd door een geheel getal met een vaste precisie, geschaald door een gehele exponent van een vaste basis;
67.
„operație în virgulă mobilă” înseamnă orice operație matematică sau atribuire care implică numere în virgulă mobilă, care sunt o subcategorie a numerelor reale și sunt reprezentate de regulă în informatică printr-un număr întreg cu precizie fixă multiplicat cu o bază fixă având un exponent număr întreg;
68)
“aanbieder verder in de AI-waardeketen”: een aanbieder van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, waarin een AI-model is geïntegreerd, ongeacht of het AI-model door hemzelf wordt verstrekt en verticaal geïntegreerd is of door een andere entiteit wordt aangeboden op basis van contractuele betrekkingen.
68.
„furnizor din aval” înseamnă un furnizor al unui sistem de IA, inclusiv al unui sistem de IA de uz general, care integrează un model de IA, indiferent dacă modelul de IA este furnizat de furnizorul însuși și integrat vertical sau dacă acesta este furnizat de o altă entitate pe baza unor relații contractuale.
Artikel 4
Articolul 4
AI-geletterdheid
Alfabetizarea în domeniul IA
Aanbieders en gebruiksverantwoordelijken van AI-systemen nemen maatregelen om, zoveel als mogelijk, te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen AI-systemen exploiteren en gebruiken, en houden daarbij rekening met hun technische kennis, ervaring, onderwijs en opleiding en de context waarin de AI-systemen zullen worden gebruikt, evenals met de personen of groepen personen ten aanzien van wie de AI-systemen zullen worden gebruikt.
Furnizorii și implementatorii de sisteme de IA iau măsuri pentru a asigura, în cea mai mare măsură posibilă, un nivel suficient de alfabetizare în domeniul IA a personalului lor și a altor persoane care se ocupă cu operarea și utilizarea sistemelor de IA în numele lor, ținând seama de cunoștințele tehnice, experiența, educația și formarea lor și de contextul în care urmează să fie folosite sistemele de IA și luând în considerare persoanele sau grupurile de persoane în legătură cu care urmează să fie folosite sistemele de IA.
HOOFDSTUK II
CAPITOLUL II
VERBODEN AI-PRAKTIJKEN
PRACTICI INTERZISE ÎN DOMENIUL IA
Artikel 5
Articolul 5
Verboden AI-praktijken
Practici interzise în domeniul IA
1. De volgende AI-praktijken zijn verboden:
(1) Sunt interzise următoarele practici în domeniul IA:
a)
het in de handel brengen, het in gebruik stellen of het gebruiken van een AI-systeem dat subliminale technieken waarvan personen zich niet bewust zijn of doelbewust manipulatieve of misleidende technieken gebruikt, met als doel of effect het gedrag van personen of een groep personen wezenlijk te verstoren door hun vermogen om een geïnformeerd besluit te nemen merkbaar te belemmeren, waardoor zij een besluit nemen dat zij anders niet hadden genomen, op een wijze die ertoe leidt of er redelijkerwijs waarschijnlijk toe zal leiden dat deze of andere personen, of een groep personen, aanzienlijke schade oplopen;
(a)
introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care utilizează tehnici subliminale ce nu pot fi percepute în mod conștient de o persoană sau tehnici intenționat manipulatoare sau înșelătoare, cu scopul sau efectul de a denatura în mod semnificativ comportamentul unei persoane sau al unui grup de persoane prin împiedicarea apreciabilă a capacității acestora de a lua o decizie în cunoștință de cauză, determinându-le astfel să ia o decizie pe care altfel nu ar fi luat-o, într-un mod care aduce sau este susceptibil în mod rezonabil să aducă prejudicii semnificative persoanei respective, unei alte persoane sau unui grup de persoane;
b)
het in de handel brengen, het in gebruik stellen of het gebruiken van een AI-systeem dat gebruikmaakt van de kwetsbaarheden van een natuurlijke persoon of specifieke groep personen als gevolg van hun leeftijd, handicap of een specifieke sociale of economische omstandigheid, met als doel of met als gevolg het gedrag van die persoon of personen die tot deze groep behoren, wezenlijk te verstoren op een wijze die ertoe leidt of waarvan redelijkerwijze te verwachten is dat deze ertoe zal leiden dat deze of andere personen aanzienlijke schade oplopen;
(b)
introducerea pe piață, punerea în funcțiune sau utilizarea unui sistem de IA care exploatează oricare dintre vulnerabilitățile unei persoane fizice sau ale unui anumit grup de persoane asociate vârstei, unei dizabilități sau unei situații sociale sau economice specifice, cu scopul sau efectul de a denatura în mod semnificativ comportamentul persoanei respective sau al unei persoane care aparține grupului respectiv într-un mod care aduce sau este susceptibil în mod rezonabil să aducă prejudicii semnificative persoanei respective sau unei alte persoane;
c)
het in de handel brengen, het in gebruik stellen of het gebruiken van AI-systemen voor de evaluatie of classificatie van natuurlijke personen of groepen personen gedurende een bepaalde periode op basis van hun sociale gedrag of bekende, afgeleide of voorspelde persoonlijke of persoonlijkheidskenmerken, waarbij de sociale score een of beide van de volgende gevolgen heeft:
(c)
introducerea pe piață, punerea în funcțiune sau utilizarea unor sisteme de IA pentru evaluarea sau clasificarea persoanelor fizice sau a grupurilor de persoane pe o anumită perioadă de timp, pe baza comportamentului lor social sau a caracteristicilor personale sau de personalitate cunoscute, deduse sau preconizate, cu un punctaj social care conduce la una dintre următoarele situații sau la ambele:
i)
de nadelige of ongunstige behandeling van bepaalde natuurlijke personen of groepen personen in een sociale context die geen verband houdt met de context waarin de data oorspronkelijk werden gegenereerd of verzameld;
(i)
tratamentul prejudiciabil sau nefavorabil aplicat anumitor persoane fizice sau unor grupuri de persoane în contexte sociale care nu au legătură cu contextele în care datele au fost generate sau colectate inițial;
ii)
de nadelige of ongunstige behandeling van bepaalde natuurlijke personen of groepen personen die ongerechtvaardigd of onevenredig met hun sociale gedrag of de ernst hiervan is;
(ii)
tratamentul prejudiciabil sau nefavorabil aplicat anumitor persoane fizice sau unor grupuri de persoane, care este nejustificat sau disproporționat în raport cu comportamentul social al acestora sau cu gravitatea acestuia;
d)
het in de handel brengen, het voor dit specifieke doel in gebruik stellen of het gebruiken van een AI-systeem voor risicobeoordelingen van natuurlijke personen om het risico dat een natuurlijke persoon een strafbaar feit pleegt te beoordelen of te voorspellen, uitsluitend op basis van de profilering van een natuurlijke persoon of op basis van de beoordeling van diens persoonlijkheidseigenschappen en -kenmerken; dit verbod geldt niet voor AI-systemen die worden gebruikt ter ondersteuning van de menselijke beoordeling van de betrokkenheid van een persoon bij een criminele activiteit, die reeds op rechtstreeks met de criminele activiteit verband houdende objectieve en verifieerbare feiten is gebaseerd;
(d)
introducerea pe piață, punerea în funcțiune în acest scop specific sau utilizarea unui sistem de IA pentru efectuarea de evaluări ale riscurilor persoanelor fizice cu scopul de a evalua sau de a prevedea riscul ca o persoană fizică să comită o infracțiune, exclusiv pe baza creării profilului unei persoane fizice sau pe baza evaluării trăsăturilor și caracteristicilor sale de personalitate; această interdicție nu se aplică sistemelor de IA utilizate pentru a sprijini evaluarea umană a implicării unei persoane într-o activitate infracțională, care se bazează deja pe fapte obiective și verificabile legate direct de o activitate infracțională;
e)
het in de handel brengen, het voor dit specifieke doel in gebruik stellen of het gebruiken van AI-systemen die databanken voor gezichtsherkenning aanleggen of aanvullen door ongerichte scraping van gezichtsafbeeldingen van internet of CCTV-beelden;
(e)
introducerea pe piață, punerea în funcțiune în acest scop specific sau utilizarea unor sisteme de IA care creează sau extind bazele de date de recunoaștere facială prin extragerea fără scop precis a imaginilor faciale de pe internet sau de pe înregistrările TVCI;
f)
het in de handel brengen, het voor dit specifieke doel in gebruik stellen of het gebruiken van AI-systemen om emoties van een natuurlijke persoon op de werkplek en in het onderwijs uit af te leiden, behalve wanneer het gebruik van het AI-systeem is bedoeld om uit medische of veiligheidsoverwegingen te worden ingevoerd of in de handel te worden gebracht;
(f)
introducerea pe piață, punerea în funcțiune în acest scop specific sau utilizarea unor sisteme de IA pentru a deduce emoțiile unei persoane fizice în sfera locului de muncă și a instituțiilor de învățământ, cu excepția cazurilor în care utilizarea sistemului de IA este destinată a fi instituită sau introdusă pe piață din motive medicale sau de siguranță;
g)
het in de handel brengen, het voor dit specifieke doel in gebruik stellen of het gebruiken van systemen voor biometrische categorisering die natuurlijke personen individueel in categorieën indelen op basis van biometrische gegevens om hun ras, politieke opvattingen, lidmaatschap van een vakbond, religieuze of levensbeschouwelijke overtuigingen, seksleven of seksuele gerichtheid af te leiden; dit verbod geldt niet voor het labelen of filteren van rechtmatig verkregen biometrische datasets, zoals afbeeldingen, op basis van biometrische gegevens of categorisering van biometrische gegevens op het gebied van rechtshandhaving;
(g)
introducerea pe piață sau punerea în funcțiune în acest scop specific sau utilizarea de sisteme de clasificare biometrică care clasifică în mod individual persoanele fizice pe baza datelor lor biometrice pentru a deduce sau a intui rasa, opiniile politice, apartenența la un sindicat, convingerile religioase sau filozofice, viața sexuală sau orientarea sexuală ale persoanelor respective; această interdicție nu se referă la etichetarea sau filtrarea seturilor de date biometrice obținute în mod legal, cum ar fi imaginile, pe baza datelor biometrice sau la clasificarea datelor biometrice în domeniul aplicării legii;
h)
het gebruik van systemen voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving, tenzij en voor zover een dergelijk gebruik strikt noodzakelijk is voor een van de volgende doelstellingen:
(h)
utilizarea sistemelor de identificare biometrică la distanță în timp real în spații accesibile publicului în scopul aplicării legii, cu excepția cazului și în măsura în care o astfel de utilizare este strict necesară pentru unul dintre următoarele obiective:
i)
het gericht zoeken naar specifieke slachtoffers van ontvoering, mensenhandel of seksuele uitbuiting van mensen, alsook het zoeken naar vermiste personen;
(i)
căutarea în mod specific a anumitor victime ale răpirii, traficului de persoane sau exploatării sexuale a persoanelor, precum și căutarea persoanelor dispărute;
ii)
het voorkomen van een specifieke, aanzienlijke en imminente dreiging voor het leven of de fysieke veiligheid van natuurlijke personen of een reële en actuele of reële en voorspelbare dreiging van een terroristische aanslag;
(ii)
prevenirea unei amenințări specifice, substanțiale și iminente care vizează viața sau siguranța fizică a persoanelor fizice sau a unei amenințări reale și prezente sau reale și previzibile de atac terorist;
iii)
de lokalisatie of identificatie van een persoon die ervan wordt verdacht een strafbaar feit te hebben gepleegd, ten behoeve van een strafrechtelijk onderzoek of vervolging of tenuitvoerlegging van een straf voor in bijlage II genoemde strafbare feiten waarop in de betrokken lidstaat een vrijheidsstraf of een tot vrijheidsbeneming strekkende maatregel staat met een maximumduur van ten minste vier jaar.
(iii)
localizarea sau identificarea unei persoane suspectate de săvârșirea unei infracțiuni, în scopul desfășurării unei investigații penale sau al urmăririi penale sau al executării unor sancțiuni penale pentru infracțiuni, menționate în anexa II și pasibile, în statul membru în cauză, de o pedeapsă privativă de libertate sau o măsură de siguranță privativă de libertate pentru o perioadă maximă de cel puțin patru ani.
Punt h) van de eerste alinea doet geen afbreuk aan artikel 9 van Verordening (EU) 2016/679 voor de verwerking van biometrische gegevens voor andere doeleinden dan rechtshandhaving.
Litera (h) de la primul paragraf nu aduce atingere articolului 9 din Regulamentul (UE) 2016/679 privind prelucrarea datelor biometrice în alte scopuri decât aplicarea legii.
2. Het gebruik van systemen voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving voor de in lid 1, eerste alinea, punt h), bedoelde doelstellingen wordt ingezet voor de in dat punt bedoelde doeleinden, uitsluitend om de identiteit van de specifiek beoogde persoon te bevestigen en daarbij wordt rekening gehouden met het volgende:
(2) Sistemele de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii pentru oricare dintre obiectivele menționate la alineatul (1) primul paragraf litera (h) se utilizează în scopurile prevăzute la alineatul (1) litera (h) numai pentru a confirma identitatea persoanei vizate în mod specific, ținându-se seama de următoarele elemente:
a)
de aard van de situatie die aanleiding geeft tot het mogelijke gebruik van het systeem, met inbegrip van de ernst, waarschijnlijkheid en omvang van de schade die zonder het gebruik van het systeem zou worden veroorzaakt;
(a)
natura situației care determină posibila utilizare, în special gravitatea, probabilitatea și amploarea prejudiciului care ar fi cauzat dacă sistemul nu ar fi utilizat;
b)
de gevolgen van het gebruik van het systeem voor de rechten en vrijheden van alle betrokken personen, en met name de ernst, waarschijnlijkheid en omvang van deze gevolgen.
(b)
consecințele utilizării sistemului asupra drepturilor și libertăților tuturor persoanelor vizate, în special gravitatea, probabilitatea și amploarea acestor consecințe.
Daarnaast moet het gebruik van systemen voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving voor de in lid 1, eerste alinea, punt h), genoemde doelstellingen in overeenstemming zijn met noodzakelijke en evenredige waarborgen en voorwaarden in verband met het gebruik in overeenstemming met het nationale recht dat het gebruik ervan toelaat, en met name ten aanzien van de beperking in de tijd en de geografische en persoonlijke beperkingen. Het gebruik van het systeem voor biometrische identificatie op afstand in real time in openbare ruimten wordt alleen toegestaan indien de rechtshandhavingsinstantie een in artikel 27 voorziene effectbeoordeling op het gebied van de grondrechten heeft uitgevoerd en het systeem volgens artikel 49 in de EU-databank heeft geregistreerd. In naar behoren gemotiveerde spoedeisende gevallen kan echter met het gebruik van dergelijke systemen worden begonnen zonder de systemen in de EU-databank te registreren, op voorwaarde dat die registratie zonder onnodige vertraging wordt voltooid.
În plus, utilizarea sistemelor de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii pentru oricare dintre obiectivele menționate la alineatul (1) primul paragraf litera (h) de la prezentul articol respectă garanțiile și condițiile necesare și proporționale în ceea ce privește utilizarea în conformitate cu dreptul intern care autorizează utilizarea sistemelor respective, în special în ceea ce privește limitările temporale, geografice și legate de persoane. Utilizarea sistemului de identificare biometrică la distanță în timp real în spațiile accesibile publicului este autorizată numai dacă autoritatea de aplicare a legii a finalizat o evaluare a impactului asupra drepturilor fundamentale, astfel cum se prevede la articolul 27, și a înregistrat sistemul în baza de date a UE, în conformitate cu articolul 49. Cu toate acestea, în cazuri de urgență justificate în mod corespunzător, utilizarea sistemelor respective poate fi inițiată fără înregistrarea în baza de date a UE, cu condiția ca înregistrarea respectivă să fie finalizată fără întârzieri nejustificate.
3. Voor de toepassing van lid 1, eerste alinea, punt h), en lid 2, wordt elk gebruik van systemen voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving afhankelijk gesteld van een voorafgaande toestemming die wordt verleend door een gerechtelijke instantie of een onafhankelijke administratieve instantie, waarvan het besluit bindend is, van de lidstaat waarin het gebruik moet plaatsvinden en die wordt gegeven op verzoek en in overeenstemming met de gedetailleerde regels van het nationale recht als bedoeld in lid 5. In een naar behoren gemotiveerde spoedeisende situatie kan echter zonder toestemming met het gebruik van een dergelijk systeem worden begonnen, op voorwaarde dat een dergelijke toestemming zonder onnodige vertraging en ten minste binnen 24 uur wordt aangevraagd. Bij weigering van die toestemming wordt het gebruik onmiddellijk gestaakt en worden alle gegevens, resultaten en outputs van dat gebruik onmiddellijk verwijderd en gewist.
(3) În sensul alineatului (1) primul paragraf litera (h) și al alineatului (2), fiecare utilizare în scopul aplicării legii a unui sistem de identificare biometrică la distanță în timp real în spațiile accesibile publicului face obiectul unei autorizații prealabile acordate de o autoritate judiciară sau de o autoritate administrativă independentă a cărei decizie are efect obligatoriu din statul membru în care urmează să aibă loc utilizarea; autorizația respectivă este emisă pe baza unei cereri motivate și în conformitate cu normele detaliate de drept intern menționate la alineatul (5). Cu toate acestea, într-o situație de urgență justificată în mod corespunzător, utilizarea sistemului poate începe fără autorizație, cu condiția ca autorizația respectivă să fie solicitată fără întârzieri nejustificate, cel târziu în termen de 24 de ore. În cazul în care o astfel de autorizație este refuzată, utilizarea sistemului este oprită cu efect imediat și toate datele, precum și rezultatele și produsele obținute în cadrul utilizării respective sunt înlăturate și șterse imediat.
De bevoegde gerechtelijke instantie of onafhankelijke administratieve instantie, waarvan het besluit bindend is verleent de toestemming slechts wanneer zij op basis van objectief bewijs of duidelijke indicaties die aan haar zijn voorgelegd ervan overtuigd is dat het gebruik van het betreffende systeem voor biometrische identificatie op afstand in real time noodzakelijk is voor en evenredig is aan het bereiken van een van de in lid 1, eerste alinea, punt h), gespecificeerde doelstellingen, zoals genoemd in het verzoek en met name beperkt blijft tot wat strikt noodzakelijk is met betrekking tot de periode en de geografische en personele werkingssfeer. Bij haar beslissing over het verzoek houdt die instantie rekening met de in lid 2 bedoelde elementen. Een besluit dat nadelige rechtsgevolgen heeft voor een persoon mag niet uitsluitend worden genomen op basis van de output van het systeem voor biometrische identificatie op afstand in real time.
Autoritatea judiciară competentă sau o autoritate administrativă independentă a cărei decizie are efect obligatoriu acordă autorizația numai dacă este convinsă, pe baza unor dovezi obiective sau a unor indicii clare care i-au fost prezentate, că utilizarea sistemului de identificare biometrică la distanță în timp real în cauză este necesară și proporțională pentru realizarea unuia dintre obiectivele menționate la alineatul (1) primul paragraf litera (h), astfel cum a fost identificat în cerere și, în special, rămâne limitată la ceea ce este strict necesar din punctul de vedere al perioadei de timp, precum și al sferei de aplicare geografică și personală. Atunci când ia o decizie cu privire la cerere, autoritatea respectivă ia în considerare elementele menționate la alineatul (2). Nicio decizie care produce un efect juridic negativ asupra unei persoane nu poate fi luată exclusiv pe baza unui rezultat al sistemului de identificare biometrică la distanță în timp real.
4. Onverminderd lid 3 wordt elk gebruik van een systeem voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving gemeld bij de bevoegde markttoezichtautoriteit en de nationale gegevensbeschermingsautoriteit in overeenstemming met de in lid 5 bedoelde nationale regels. Die melding bevat ten minste de in lid 6 bepaalde informatie en bevat geen gevoelige operationele gegevens.
(4) Fără a aduce atingere alineatului (3), fiecare utilizare a unui sistem de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii este notificată autorității relevante de supraveghere a pieței și autorității naționale pentru protecția datelor, în conformitate cu normele naționale menționate la alineatul (5). Notificarea conține cel puțin informațiile specificate la alineatul (6) și nu include date operaționale sensibile.
5. Een lidstaat kan besluiten om te voorzien in de mogelijkheid om volledig of gedeeltelijk toestemming te verlenen voor het gebruik van systemen voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving binnen de grenzen en onder de voorwaarden van lid 1, eerste alinea, punt h), en de leden 2 en 3. De betrokken lidstaten leggen in hun nationale recht de noodzakelijke gedetailleerde regels vast voor het verzoek om en de afgifte en het gebruik van, evenals het toezicht en verslaglegging in verband met, de in lid 3 bedoelde vergunningen. In deze regels wordt ook gespecificeerd voor welke doelstellingen van lid 1, eerste alinea, punt h), en voor welke strafbare feiten als bedoeld in punt h), iii), daarvan de bevoegde autoriteiten deze systemen mogen gebruiken met het oog op de rechtshandhaving. De lidstaten stellen de Commissie uiterlijk dertig dagen na de vaststelling van die regels in kennis. De lidstaten kunnen in overeenstemming met het Unierecht restrictievere wetgeving inzake het gebruik van systemen voor biometrische identificatie op afstand invoeren.
(5) Un stat membru poate decide să prevadă posibilitatea de a autoriza, integral sau parțial, utilizarea sistemelor de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii, în limitele și condițiile enumerate la alineatul (1) primul paragraf litera (h) și la alineatele (2) și (3). Statul membru în cauză stabilește în dreptul său intern normele detaliate necesare pentru solicitarea, eliberarea și exercitarea, precum și pentru supravegherea autorizațiilor menționate la alineatul (3) și pentru raportarea cu privire la acestea. Normele respective specifică, de asemenea, pentru care dintre obiectivele enumerate la alineatul (1) primul paragraf litera (h), inclusiv pentru care dintre infracțiunile menționate la litera (h) punctul (iii) de la alineatul respectiv, pot fi autorizate autoritățile competente să utilizeze respectivele sisteme în scopul aplicării legii. Statele membre notifică normele respective Comisiei în termen de cel mult 30 de zile de la adoptarea acestora. Statele membre pot introduce, în conformitate cu dreptul Uniunii, legi mai restrictive privind utilizarea sistemelor de identificare biometrică la distanță.
6. Nationale markttoezichtautoriteiten en nationale gegevensbeschermingsautoriteiten van lidstaten die op grond van lid 4 in kennis zijn gesteld van het gebruik van systemen voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving, dienen bij de Commissie jaarverslagen over dat gebruik in. Daartoe verstrekt de Commissie de lidstaten en de nationale markttoezicht- en gegevensbeschermingsautoriteiten een sjabloon, met informatie over het aantal besluiten dat is genomen door bevoegde gerechtelijke instanties of een onafhankelijke administratieve instantie, waarvan het besluit bindend is overeenkomstig lid 3, alsook het resultaat van die besluiten.
(6) Autoritățile naționale de supraveghere a pieței și autoritățile naționale de protecție a datelor din statele membre care au fost notificate cu privire la utilizarea sistemelor de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii în temeiul alineatului (4) prezintă Comisiei rapoarte anuale cu privire la utilizarea respectivă. În acest scop, Comisia furnizează statelor membre și autorităților naționale de supraveghere a pieței și de protecție a datelor un model, inclusiv informații privind numărul deciziilor luate de autoritățile judiciare competente sau de o autoritate administrativă independentă a cărei decizie are efect obligatoriu, în ceea ce privește cererile de autorizare în conformitate cu alineatul (3), precum și rezultatul cererilor respective.
7. De Commissie publiceert jaarverslagen over het gebruik van systemen voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving, op basis van geaggregeerde gegevens in de lidstaten op basis van de in lid 6 bedoelde jaarverslagen. Die jaarverslagen bevatten geen gevoelige operationele gegevens van de gerelateerde rechtshandhavingsactiviteiten.
(7) Comisia publică rapoarte anuale privind utilizarea sistemelor de identificare biometrică la distanță în timp real în spațiile accesibile publicului în scopul aplicării legii, pe baza datelor agregate din statele membre din cadrul rapoartelor anuale menționate la alineatul (6). Rapoartele anuale respective nu includ date operaționale sensibile ale activităților conexe de aplicare a legii.
8. Dit artikel doet geen afbreuk aan de verbodsbepalingen die van toepassing zijn wanneer een AI-praktijk een inbreuk vormt op het Unierecht.
(8) Prezentul articol nu afectează interdicțiile care se aplică în cazul în care o practică în materie de IA încalcă alte dispoziții din dreptul Uniunii.
HOOFDSTUK III
CAPITOLUL III
AI-SYSTEMEN MET EEN HOOG RISICO
SISTEME DE IA CU GRAD RIDICAT DE RISC
AFDELING 1
SECȚIUNEA 1
Classificatie van AI-systemen als AI-systemen met een hoog risico
Clasificarea sistemelor de IA ca prezentând un risc ridicat
Artikel 6
Articolul 6
Classificatieregels voor AI-systemen met een hoog risico
Norme de clasificare pentru sistemele de IA cu grad ridicat de risc
1. Ongeacht of een AI-systeem los van in de punten a) en b) bedoelde producten in de handel wordt gebracht of in gebruik wordt gesteld, wordt een AI-systeem als AI-systeem met een hoog risico beschouwd wanneer aan beide van de volgende voorwaarden is voldaan:
(1) Indiferent dacă un sistem de IA este introdus pe piață sau pus în funcțiune independent de produsele menționate la literele (a) și (b), respectivul sistem de IA este considerat ca prezentând un grad ridicat de risc în cazul în care sunt îndeplinite cumulativ următoarele două condiții:
a)
het AI-systeem is bedoeld om te worden gebruikt als veiligheidscomponent van een product of het AI-systeem is zelf een product dat valt onder de in bijlage I opgenomen harmonisatiewetgeving van de Unie;
(a)
sistemul de IA este destinat a fi utilizat ca o componentă de siguranță a unui produs sau sistemul de IA este el însuși un produs care face obiectul legislației de armonizare a Uniunii care figurează în anexa I;
b)
voor het product waarvan het AI-systeem de veiligheidscomponent op grond van punt a) vormt of voor het AI-systeem als product zelf moet een conformiteits-beoordeling door een derde partij worden uitgevoerd met het oog op het in de handel brengen of in gebruik stellen van dat product op grond van de in bijlage I opgenomen harmonisatiewetgeving van de Unie.
(b)
produsul a cărui componentă de siguranță în temeiul literei (a) este sistemul de IA sau sistemul de IA în sine ca produs trebuie să fie supus unei evaluări a conformității de către o terță parte, în vederea introducerii pe piață sau a punerii în funcțiune a produsului respectiv în temeiul legislației de armonizare a Uniunii care figurează în anexa I.
2. Naast de in lid 1 bedoelde AI-systemen met een hoog risico worden ook AI-systemen zoals bedoeld in bijlage III als AI-systeem met een hoog risico beschouwd.
(2) Sistemele de IA menționate în anexa III sunt considerate, pe lângă sistemele de IA cu grad ridicat de risc menționate la alineatul (1), ca prezentând un grad ridicat de risc.
3. In afwijking van lid 2 wordt een in bijlage III bedoeld AI-systeem niet als AI-systeem met een hoog risico beschouwd wanneer het geen significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt, onder meer doordat het de uitkomst van de besluitvorming niet wezenlijk beïnvloedt.
(3) Prin derogare de la alineatul (2), un sistem de IA menționat în anexa III nu poate fi considerat ca prezentând un grad ridicat de risc dacă nu prezintă un risc semnificativ de a aduce prejudicii sănătății, siguranței sau drepturilor fundamentale ale persoanelor fizice, inclusiv prin faptul că nu influențează în mod semnificativ rezultatul procesului decizional.
De eerste alinea is van toepassing wanneer aan een van de volgende voorwaarden is voldaan:
Primul paragraf se aplică în cazul în care oricare dintre următoarele condiții este îndeplinită:
a)
het AI-systeem is bedoeld om een beperkte procedurele taak uit te voeren;
(a)
sistemul de IA este destinat să îndeplinească o sarcină procedurală restrânsă;
b)
het AI-systeem is bedoeld om het resultaat van een eerder voltooide menselijke activiteit te verbeteren;
(b)
sistemul de IA este destinat să îmbunătățească rezultatul unei activități umane finalizate anterior;
c)
het AI-systeem is bedoeld om besluitvormingspatronen of afwijkingen van eerdere besluitvormingspatronen op te sporen en is niet bedoeld om de eerder voltooide menselijke beoordeling zonder behoorlijke menselijke toetsing te vervangen of te beïnvloeden, of
(c)
sistemul de IA este destinat să depisteze modelele decizionale sau abaterile de la modelele decizionale anterioare și nu este menit să înlocuiască sau să influențeze evaluarea umană finalizată anterior, fără o revizuire umană adecvată; sau
d)
het AI-systeem is bedoeld om een voorbereidende taak uit te voeren voor een beoordeling die relevant is voor de in bijlage III vermelde gebruiksgevallen.
(d)
sistemul de IA este destinat să îndeplinească o sarcină pregătitoare pentru o evaluare relevantă în scopul cazurilor de utilizare enumerate în anexa III.
Niettegenstaande de eerste alinea wordt een in bijlage III bedoeld AI-systeem altijd als een AI-systeem met een hoog risico beschouwd indien het AI-systeem profilering van natuurlijke personen uitvoert.
În pofida primului paragraf, un sistem de IA menționat în anexa III este întotdeauna considerat ca prezentând un grad ridicat de risc dacă creează profiluri ale persoanelor fizice.
4. Een aanbieder die van mening is dat een in bijlage III bedoeld AI-systeem geen hoog risico inhoudt, documenteert zijn beoordeling voordat dat systeem in de handel wordt gebracht of in gebruik wordt gesteld. Die aanbieder is onderworpen aan de registratieverplichting van artikel 49, lid 2. Op verzoek van de nationale bevoegde autoriteiten verstrekt de aanbieder de documentatie van de beoordeling.
(4) Orice furnizor care consideră că un sistem de IA menționat în anexa III nu prezintă un grad ridicat de risc documentează evaluarea sa înainte ca sistemul respectiv să fie introdus pe piață sau pus în funcțiune. Furnizorul respectiv este supus obligației de înregistrare prevăzute la articolul 49 alineatul (2). La cererea autorităților naționale competente, furnizorul pune la dispoziție dovezile documentare în sprijinul evaluării.
5. De Commissie verstrekt na raadpleging van de Europese raad voor artificiële intelligentie (de “AI-board”) en uiterlijk op 2 februari 2026 richtsnoeren voor de praktische uitvoering van dit artikel in overeenstemming met artikel 96, samen met een uitgebreide lijst van praktische voorbeelden van gebruiksgevallen van AI-systemen met een hoog risico en zonder hoog risico.
(5) După consultarea Consiliului european pentru inteligența artificială (denumit în continuare „Consiliul IA”) și în termen de cel mult 2 februarie 2026, Comisia furnizează orientări care precizează modalitățile privind punerea în aplicare practică a prezentului articol, în conformitate cu articolul 96, împreună cu o listă cuprinzătoare de exemple practice de cazuri de utilizare a sistemelor de IA care prezintă un grad ridicat de risc și a celor care nu prezintă un grad ridicat de risc.
6. De Commissie is bevoegd overeenkomstig artikel 97 gedelegeerde handelingen vast te stellen om teneinde lid 3, tweede alinea, van dit artikel te wijzigen door nieuwe voorwaarden toe te voegen aan de daarin vastgelegde voorwaarden, of door hen te wijzigen, indien er concrete en betrouwbare bewijzen zijn voor het bestaan van AI-systemen die onder het toepassingsgebied van bijlage III vallen, maar die geen significant risico inhouden op schade voor de gezondheid, veiligheid of grondrechten van natuurlijke personen.
(6) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica alineatul (3) al doilea paragraf de la prezentul articol prin adăugarea de noi condiții față de cele prevăzute la dispoziția menționată sau prin modificarea acestora, în cazul în care există dovezi concrete și fiabile ale existenței unor sisteme de IA care intră în domeniul de aplicare al anexei III, dar care nu prezintă un risc semnificativ de a aduce prejudicii sănătății, siguranței sau drepturilor fundamentale ale persoanelor fizice.
7. De Commissie stelt overeenkomstig artikel 97 gedelegeerde handelingen vast om lid 3, tweede alinea, van dit artikel te wijzigen door de daarin vastgelegde voorwaarden te schrappen, indien er concrete en betrouwbare aanwijzingen zijn dat dit noodzakelijk is om het in deze verordening bepaalde niveau van bescherming van de gezondheid, de veiligheid en de grondrechten te behouden.
(7) Comisia adoptă acte delegate în conformitate cu articolul 97 pentru a modifica alineatul (3) al doilea paragraf de la prezentul articol prin eliminarea oricăreia dintre condițiile prevăzute la dispoziția menționată, în cazul în care există dovezi concrete și fiabile că acest lucru este necesar în scopul menținerii nivelului de protecție a sănătății, a siguranței și a drepturilor fundamentale prevăzut în prezentul regulament.
8. Overeenkomstig de leden 6 en 7 van dit artikel vastgestelde wijzigingen van de in lid 3, tweede alinea, vastgelegde voorwaarden doen geen afbreuk aan het in deze verordening bepaalde algemene niveau van bescherming van de gezondheid, de veiligheid en de grondrechten, en zorgen voor samenhang met de op grond van artikel 7, lid 1, vastgestelde gedelegeerde handelingen en houdenrekening met markt- en technologische ontwikkelingen.
(8) Orice modificare a condițiilor prevăzute la alineatul (3) al doilea paragraf, adoptată în conformitate cu alineatele (6) și (7) de la prezentul articol, nu reduce nivelul general de protecție a sănătății, a siguranței și a drepturilor fundamentale prevăzut în prezentul regulament și asigură corelarea cu actele delegate adoptate în temeiul articolului 7 alineatul (1) și ține seama de evoluțiile pieței și ale tehnologiei.
Artikel 7
Articolul 7
Wijzigingen in bijlage III
Modificări ale anexei III
1. De Commissie is bevoegd overeenkomstig artikel 97 gedelegeerde handelingen vast te stellen tot wijziging van bijlage III door hieraan gebruiksgevallen van AI-systemen met een hoog risico toe te voegen of te wijzigen wanneer aan beide van de volgende voorwaarden is voldaan:
(1) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica anexa III prin adăugarea de cazuri de utilizare a sistemelor de IA cu grad ridicat de risc sau prin modificarea unor astfel de cazuri dacă sunt îndeplinite cumulativ următoarele două condiții:
a)
de AI-systemen zijn bedoeld om te worden gebruikt op een van de gebieden als bedoeld in bijlage III;
(a)
sistemele de IA sunt destinate a fi utilizate în oricare dintre domeniile enumerate în anexa III;
b)
de AI-systemen vormen een risico op schade voor de gezondheid en veiligheid, of nadelige effecten op de grondrechten, en dat risico is gelijk aan of groter dan het risico op schade of nadelige effecten dat wordt gevormd door de AI-systemen met een hoog risico die reeds zijn opgenomen in bijlage III.
(b)
sistemele de IA prezintă un risc de a aduce prejudicii sănătății și siguranței sau un risc de impact negativ asupra drepturilor fundamentale, iar riscul respectiv este echivalent sau mai mare în raport cu riscul de a aduce prejudicii sau de a provoca un impact negativ prezentat de sistemele de IA cu grad ridicat de risc deja menționate în anexa III.
2. Bij de beoordeling van de voorwaarde van lid 1, punt b), houdt de Commissie rekening met de volgende criteria:
(2) Atunci când evaluează condiția prevăzută la alineatul (1) litera (b), Comisia ia în considerare următoarele criterii:
a)
het beoogde doel van het AI-systeem;
(a)
scopul preconizat al sistemului de IA;
b)
de mate waarin een AI-systeem is gebruikt of waarschijnlijk zal worden gebruikt;
(b)
măsura în care a fost utilizat sau este probabil să fie utilizat un sistem de IA;
c)
de aard van en de hoeveelheid gegevens die het AI-systeem verwerkt en gebruikt, met name of bijzondere categorieën persoonsgegevens worden verwerkt;
(c)
natura și volumul datelor prelucrate și utilizate de sistemul de IA, în special dacă sunt prelucrate categorii speciale de date cu caracter personal;
d)
de mate waarin het AI-systeem autonoom handelt en de mogelijkheid voor een mens om beslissingen of aanbevelingen die tot schade kunnen leiden terzijde te schuiven;
(d)
măsura în care sistemul de IA acționează în mod autonom și posibilitatea ca o persoană să anuleze o decizie sau recomandări care atrag un potențial prejudiciu;
e)
de mate waarin het gebruik van een AI-systeem reeds schade voor de gezondheid en veiligheid of nadelige effecten op de grondrechten heeft veroorzaakt of aanleiding heeft gegeven tot aanzienlijke zorgen in verband met de waarschijnlijkheid van dergelijke schade of nadelige effecten, zoals aangetoond bijvoorbeeld door verslagen of gedocumenteerde beweringen die zijn ingediend bij de nationale bevoegde autoriteiten of, in voorkomend geval, door andere verslagen;
(e)
măsura în care utilizarea unui sistem de IA a adus deja prejudicii sănătății și siguranței, a avut un impact negativ asupra drepturilor fundamentale sau a generat motive de îngrijorare semnificative în ceea ce privește probabilitatea unor astfel de prejudicii sau a unui astfel de impact negativ, astfel cum o demonstrează, de exemplu, rapoartele sau acuzațiile documentate prezentate autorităților naționale competente sau alte rapoarte, după caz;
f)
de potentiële omvang van dergelijke schade of dergelijke nadelige effecten, met name wat betreft de intensiteit ervan en de mogelijkheid dat meerdere personen worden getroffen of dat een bepaalde groep personen onevenredig wordt getroffen;
(f)
amploarea potențială a unor astfel de prejudicii sau a unui astfel de impact negativ, în special în ceea ce privește intensitatea și capacitatea sa de a afecta numeroase persoane sau de a afecta în mod disproporționat un anumit grup de persoane;
g)
de mate waarin potentieel geschade of nadelig getroffen personen afhankelijk zijn van de aan de hand van een AI-systeem geproduceerde uitkomst, met name omdat het om praktische of juridische redenen niet redelijkerwijs mogelijk is om van deze uitkomst af te zien;
(g)
măsura în care persoanele care sunt potențial prejudiciate sau afectate de un impact negativ depind de rezultatul produs cu ajutorul unui sistem de IA, în special deoarece, din motive practice sau juridice, nu este posibil în mod rezonabil să se renunțe la rezultatul respectiv;
h)
de mate waarin sprake is van een onevenwichtige machtsverhouding, of de potentieel geschade of nadelig getroffen personen zich in een kwetsbare positie bevinden ten opzichte van de gebruiksverantwoordelijke van een AI-systeem, met name als gevolg van status, autoriteit, kennis, economische of sociale omstandigheden of leeftijd;
(h)
măsura în care există un dezechilibru de putere sau persoanele care sunt potențial prejudiciate sau afectate de impactul negativ se află într-o poziție vulnerabilă în raport cu implementatorul unui sistem de IA, în special din cauza statutului, a autorității, a cunoștințelor, a circumstanțelor economice sau sociale sau a vârstei;
i)
de mate waarin de geproduceerde uitkomst waarbij een AI-systeem betrokken is niet gemakkelijk kan worden rechtgezet of omgekeerd, rekening houdend met de beschikbare technische oplossingen om die uitkomst recht te zetten of om te keren, waarbij van uitkomsten die nadelige effecten hebben op de gezondheid, veiligheid of grondrechten, niet wordt beschouwd dat zij eenvoudig kunnen worden rechtgezet of omgekeerd;
(i)
măsura în care rezultatul produs cu implicarea unui sistem de IA este ușor de corectat sau reversibil, avându-se în vedere soluțiile tehnice disponibile pentru corectare sau reversare și dat fiind că rezultatele care au un impact negativ asupra sănătății, siguranței sau drepturilor fundamentale nu sunt considerate ca fiind ușor de corectat sau reversibile;
j)
de omvang en waarschijnlijkheid van het voordeel dat het inzetten van het AI-systeem voor natuurlijke personen, groepen of de samenleving in het algemeen, met inbegrip van mogelijke verbeteringen op het gebied van productveiligheid, met zich meebrengt;
(j)
amploarea și probabilitatea beneficiilor implementării sistemului de IA pentru persoane fizice, grupuri sau societate în general, inclusiv îmbunătățirile posibile ale siguranței produselor;
k)
de mate waarin in het bestaande Unierecht is voorzien in:
(k)
măsura în care dreptul existent al Uniunii prevede:
i)
doeltreffende maatregelen om beroep aan te tekenen in verband met de risico’s van een AI-systeem, met uitzondering van vorderingen tot schadevergoeding;
(i)
măsuri reparatorii eficace în legătură cu riscurile prezentate de un sistem de IA, cu excepția cererilor de despăgubiri;
ii)
doeltreffende maatregelen om deze risico’s te voorkomen of aanzienlijk te beperken.
(ii)
măsuri eficace de prevenire sau de reducere substanțială a acestor riscuri.
3. De Commissie is bevoegd overeenkomstig artikel 97 gedelegeerde handelingen vast te stellen tot wijziging van bijlage III door AI-systemen met een hoog risico te schrappen wanneer aan beide van de volgende voorwaarden is voldaan:
(3) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica lista din anexa III prin eliminarea de sisteme de IA cu grad ridicat de risc în cazul în care sunt îndeplinite cumulativ următoarele două condiții:
a)
het betrokken AI-systeem met een hoog risico vormt, rekening houdend met de in lid 2 vermelde criteria, geen significant risico voor de grondrechten, de gezondheid of de veiligheid;
(a)
sistemul de IA cu grad ridicat de risc în cauză nu mai prezintă riscuri semnificative pentru drepturile fundamentale, sănătate sau siguranță, ținând seama de criteriile enumerate la alineatul (2);
b)
de schrapping leidt niet tot een lager algeheel beschermingsniveau wat betreft de gezondheid, de veiligheid en de grondrechten uit hoofde van het Unierecht.
(b)
eliminarea nu reduce nivelul general de protecție a sănătății, siguranței și drepturilor fundamentale în temeiul dreptului Uniunii.
AFDELING 2
SECȚIUNEA 2
Eisen voor AI-systemen met een hoog risico
Cerințe pentru sistemele de IA cu grad ridicat de risc
Artikel 8
Articolul 8
Naleving van de eisen
Respectarea cerințelor
1. AI-systemen met een hoog risico moeten voldoen aan de eisen van deze afdeling, rekening houdend met hun beoogde doel en de algemeen erkende stand van de techniek op het gebied van AI en AI-gerelateerde technologieën. Bij het waarborgen van de naleving van deze eisen wordt rekening gehouden met het in artikel 9 bedoelde systeem voor risicobeheer.
(1) Sistemele de IA cu grad ridicat de risc respectă cerințele stabilite în prezenta secțiune, ținând seama de scopul lor preconizat, precum și de stadiul de avansare general recunoscut al IA și al tehnologiilor conexe IA. Sistemul de gestionare a riscurilor menționat la articolul 9 este luat în considerare atunci când se asigură respectarea cerințelor respective.
2. Indien een product een AI-systeem omvat waarop zowel de vereisten van deze verordening als die van de in bijlage I, afdeling A, vermelde harmonisatiewetgeving van de Unie van toepassing zijn, zijn aanbieders ervoor verantwoordelijk te waarborgen dat hun product volledig voldoet aan alle toepasselijke vereisten uit hoofde van de toepasselijke harmonisatiewetgeving van de Unie. Om te waarborgen dat de in lid 1 bedoelde AI-systemen met een hoog risico voldoen aan de eisen van deze afdeling en om te zorgen voor consistentie, dubbel werk te voorkomen en de extra lasten tot een minimum te beperken, hebben aanbieders de keuze om in voorkomend geval de nodige test- en rapportageprocessen en door hen verstrekte informatie en documentatie over hun product op te nemen in de reeds bestaande documentatie en procedures die vereist zijn uit hoofde van de in bijlage I, afdeling A, bedoelde harmonisatiewetgeving van de Unie.
(2) În cazul în care un produs conține un sistem de IA căruia i se aplică cerințele prezentului regulament, precum și cerințele din legislația de armonizare a Uniunii care figurează în anexa I secțiunea A, furnizorii au responsabilitatea de a se asigura că produsul lor respectă pe deplin toate cerințele aplicabile impuse de legislația aplicabilă de armonizare a Uniunii. Pentru a asigura conformitatea sistemelor de IA cu grad ridicat de risc menționate la alineatul (1) cu cerințele prevăzute în prezenta secțiune și pentru a asigura coerența, a evita suprapunerile și a reduce la minimum sarcinile suplimentare, furnizorii au posibilitatea de a integra, după caz, procesele de testare și raportare necesare, informațiile și documentația pe care le furnizează cu privire la produsul lor în documentația și procedurile deja existente și sunt impuse în temeiul legislației de armonizare a Uniunii care figurează în anexa I secțiunea A.
Artikel 9
Articolul 9
Systeem voor risicobeheer
Sistemul de gestionare a riscurilor
1. Met betrekking tot AI-systemen met een hoog risico wordt een systeem voor risicobeheer vastgesteld, uitgevoerd, gedocumenteerd en in stand gehouden.
(1) Se instituie, se pune în aplicare, se documentează și se menține un sistem de gestionare a riscurilor în legătură cu sistemele de IA cu grad ridicat de risc.
2. Onder het systeem voor risicobeheer wordt verstaan een tijdens de gehele levensduur van een AI-systeem met een hoog risico doorlopend en gepland iteratief proces, dat periodieke systematische toetsing en actualisering vereist. Het omvat de volgende stappen:
(2) Sistemul de gestionare a riscurilor este înțeles ca un proces iterativ continuu planificat și derulat pe parcursul întregului ciclu de viață al unui sistem de IA cu grad ridicat de risc, necesitând în mod periodic actualizarea și revizuirea sistematică. Acesta cuprinde următoarele etape:
a)
het vaststellen en analyseren van de bekende en de redelijkerwijs te voorziene risico’s die het AI-systeem met een hoog risico kan inhouden voor de gezondheid, veiligheid of grondrechten indien het AI-systeem met een hoog risico in overeenstemming met het beoogde doel ervan wordt gebruikt;
(a)
identificarea și analiza riscurilor cunoscute și previzibile în mod rezonabil pe care sistemul de IA cu grad ridicat de risc le poate prezenta pentru sănătate, siguranță sau drepturile fundamentale atunci când sistemul de IA cu grad ridicat de risc este utilizat în conformitate cu scopul preconizat;
b)
het inschatten en evalueren van de risico’s die zich kunnen voordoen wanneer het AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan en in een situatie van redelijkerwijs te voorzien misbruik;
(b)
estimarea și evaluarea riscurilor care pot apărea atunci când sistemul de IA cu grad ridicat de risc este utilizat în conformitate cu scopul său preconizat și în condiții de utilizare necorespunzătoare previzibilă în mod rezonabil;
c)
het evalueren van andere risico’s die zich kunnen voordoen op basis van de analyse van de data die zijn verzameld door het systeem voor monitoring na het in de handel brengen, als bedoeld in artikel 72;
(c)
evaluarea altor riscuri care ar putea apărea pe baza analizei datelor colectate din sistemul de monitorizare ulterioară introducerii pe piață menționat la articolul 72;
d)
het vaststellen van gepaste en gerichte risicobeheersmaatregelen om de op grond van punt a) vastgestelde risico’s aan te pakken.
(d)
adoptarea unor măsuri adecvate și specifice de gestionare a riscurilor, concepute pentru a combate riscurile identificate în temeiul literei (a).
3. De in dit artikel bedoelde risico’s omvatten uitsluitend risico’s die redelijkerwijs kunnen worden beperkt of weggenomen via het ontwikkelen of ontwerpen van het AI-systeem met een hoog risico of de verstrekking van adequate technische informatie.
(3) Prezentul articol se referă numai la riscurile care pot fi atenuate sau eliminate în mod rezonabil prin dezvoltarea sau proiectarea sistemului de IA cu grad ridicat de risc sau prin furnizarea de informații tehnice adecvate.
4. Ten aanzien van de in lid 2, punt d), bedoelde risicobeheersmaatregelen wordt naar behoren rekening gehouden met de effecten en mogelijke wisselwerking die voortvloeien uit de gecombineerde toepassing van de in deze afdeling uiteengezette eisen, teneinde de risico’s doeltreffender tot een minimum te beperken en tegelijkertijd een passend evenwicht te bereiken bij de uitvoering van de maatregelen ter vervulling van de voorschriften.
(4) Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) țin seama în mod corespunzător de efectele și interacțiunea posibilă care rezultă din aplicarea combinată a cerințelor prevăzute în prezenta secțiune, în vederea reducerii la minimum a riscurilor într-un mod mai eficace, obținându-se totodată un echilibru adecvat în punerea în aplicare a măsurilor de îndeplinire a cerințelor respective.
5. De in lid 2, punt d), bedoelde risicobeheersmaatregelen zijn zodanig dat het desbetreffende restrisico in verband met elk gevaar en het totale restrisico van de AI-systemen met een hoog risico aanvaardbaar wordt geacht.
(5) Măsurile de gestionare a riscurilor menționate la alineatul (2) litera (d) sunt de așa natură încât riscul rezidual relevant asociat fiecărui pericol, precum și riscul rezidual global al sistemelor de IA cu grad ridicat de risc să fie considerate a fi acceptabile.
Bij het vaststellen van de passendste risicobeheersmaatregelen wordt het volgende gewaarborgd:
La identificarea celor mai adecvate măsuri de gestionare a riscurilor se asigură următoarele:
a)
uitsluiting of beperking van op grond van lid 2 vastgestelde en geëvalueerde risico’s voor zover technisch haalbaar door middel van een adequaat ontwerp en ontwikkeling van het AI-systeem met een hoog risico;
(a)
eliminarea sau reducerea riscurilor identificate și evaluate în temeiul alineatului (2), în măsura în care acest lucru este fezabil din punct de vedere tehnic prin proiectarea și dezvoltarea adecvată a sistemului de IA cu grad ridicat de risc;
b)
waar passend worden adequate maatregelen voor beperking en controle genomen voor het aanpakken van risico’s die niet kunnen worden uitgesloten;
(b)
după caz, punerea în aplicare a unor măsuri adecvate de atenuare și control pentru combaterea riscurilor care nu pot fi eliminate;
c)
verstrekking van op grond van artikel 13 vereiste informatie en waar passend opleiding voor gebruiksverantwoordelijken.
(c)
furnizarea informațiilor necesare în temeiul articolului 13 și, după caz, formarea implementatorilor.
Teneinde de risico’s in verband met het gebruik van het AI-systeem met een hoog risico weg te nemen of te beperken, wordt naar behoren aandacht besteed aan de te verwachten technische kennis, ervaring, scholing en opleiding van de gebruiksverantwoordelijke en de vermoedelijke context waarin het systeem dient te worden gebruikt.
În vederea eliminării sau reducerii riscurilor legate de utilizarea sistemului de IA cu grad ridicat de risc se acordă atenția cuvenită cunoștințelor tehnice, experienței, educației și formării preconizate din partea implementatorului, precum și contextului prezumtiv în care urmează să fie utilizat sistemul.
6. AI-systemen met een hoog risico worden getest met het oog op het vaststellen van de passendste en gerichte risicobeheersmaatregelen. De tests zorgen ervoor dat AI-systemen met een hoog risico consistent presteren ten aanzien van het beoogde doel ervan en in overeenstemming zijn met de eisen van deze afdeling.
(6) Sistemele de IA cu grad ridicat de risc sunt testate în scopul identificării celor mai adecvate măsuri specifice de gestionare a riscurilor. Testarea asigură faptul că sistemele de IA cu grad ridicat de risc funcționează într-un mod coerent cu scopul preconizat și că sunt conforme cu cerințele stabilite în prezenta secțiune.
7. De testprocedures kunnen onder meer bestaan in testen onder reële omstandigheden overeenkomstig artikel 60.
(7) Procedurile de testare pot include testarea în condiții reale, în conformitate cu articolul 60.
8. Het testen van AI-systemen met een hoog risico vindt, zoals passend, in de loop van het ontwikkelingsproces plaats en in ieder geval voordat het systeem in de handel wordt gebracht of in gebruik wordt gesteld. Er wordt getest aan de hand van vooraf vastgestelde beoordelingsmaatstaven en probabilistische drempels die passend zijn voor het beoogde doel van het AI-systeem met een hoog risico.
(8) Testarea sistemelor de IA cu grad ridicat de risc se efectuează, după caz, în orice moment pe parcursul procesului de dezvoltare și, în orice caz, înainte de introducerea pe piață sau de punerea în funcțiune a acestora. Testarea se efectuează pe baza unor indicatori și a unor praguri probabilistice definite în prealabil, care sunt adecvate scopului preconizat al sistemului de IA cu grad ridicat de risc.
9. Bij de uitvoering van het in de leden 1 tot en met 7 bepaalde systeem voor risicobeheer houden aanbieders rekening met de vraag of het beoogde doel van het AI-systeem met een hoog risico waarschijnlijk negatieve gevolgen zal hebben voor personen jonger dan 18 jaar en, in voorkomend geval, voor andere kwetsbare groepen.
(9) La punerea în aplicare a sistemului de gestionare a riscurilor descris la alineatele (1)-(7), furnizorii analizează dacă, având în vedere scopul său preconizat, sistemul de IA cu grad ridicat de risc este susceptibil să aibă un impact negativ asupra persoanelor cu vârsta sub 18 ani și, după caz, asupra altor grupuri vulnerabile.
10. Voor aanbieders van AI-systemen met een hoog risico die onderworpen zijn aan eisen met betrekking tot interne risicobeheerprocessen uit hoofde van andere relevante bepalingen van het Unierecht, kunnen de in de leden 1 tot en met 9 bepaalde aspecten deel uitmaken van of gecombineerd worden met de op grond van dat recht vastgestelde risicobeheerprocedures.
(10) Pentru furnizorii de sisteme de IA cu grad ridicat de risc care fac obiectul unor cerințe privind procesele interne de gestionare a riscurilor în temeiul altor dispoziții relevante din dreptul Uniunii, aspectele descrise la alineatele (1)-(9) pot face parte din procedurile de gestionare a riscurilor stabilite în temeiul legislației respective sau pot fi combinate cu acestea.
Artikel 10
Articolul 10
Data en datagovernance
Datele și guvernanța datelor
1. AI-systemen met een hoog risico die technieken gebruiken die het trainen van AI-modellen met data omvatten, worden ontwikkeld op basis van datasets voor training, validatie en tests die voldoen aan de in de leden 2 tot en met 5 bedoelde kwaliteitscriteria telkens wanneer dergelijke datasets worden gebruikt.
(1) Sistemele de IA cu grad ridicat de risc care utilizează tehnici ce implică antrenarea de modele de IA cu date se dezvoltă pe baza unor seturi de date de antrenament, de validare și de testare care îndeplinesc criteriile de calitate menționate la alineatele (2)-(5) ori de câte ori sunt utilizate astfel de seturi de date.
2. Datasets voor training, validatie en tests worden onderworpen aan praktijken op het gebied van databeheer die stroken met het beoogde doel van het AI-systeem met een hoog risico. Deze praktijken hebben in het bijzonder betrekking op:
(2) Seturile de date de antrenament, de validare și de testare fac obiectul unor practici de guvernanță și gestionare a datelor adecvate scopului preconizat al sistemului de IA cu grad ridicat de risc. Practicile respective se referă în special la:
a)
de relevante ontwerpkeuzes;
(a)
opțiunile de proiectare relevante;
b)
processen voor dataverzameling en de oorsprong van de data en, in het geval van persoonsgegevens, het oorspronkelijke doel van de dataverzameling;
(b)
procesele de colectare a datelor și originea datelor, iar în cazul datelor cu caracter personal, scopul inițial al colectării datelor;
c)
relevante verwerkingsactiviteiten voor datavoorbereiding, zoals annotatie, labelen, opschoning, actualisatie, verrijking en aggregatie;
(c)
operațiunile relevante de prelucrare în vederea pregătirii datelor, cum ar fi adnotarea, etichetarea, curățarea, actualizarea, îmbogățirea și agregarea;
d)
het opstellen van aannames, met name met betrekking tot de informatie die de data moeten meten en vertegenwoordigen;
(d)
formularea unor ipoteze, în special în ceea ce privește informațiile pe care datele ar trebui să le măsoare și să le reprezinte;
e)
een beoordeling van de beschikbaarheid, kwantiteit en geschiktheid van de datasets die nodig zijn;
(e)
o evaluare a disponibilității, a cantității și a adecvării seturilor de date necesare;
f)
een beoordeling met het oog op mogelijke vooringenomenheid die waarschijnlijk gevolgen heeft voor de gezondheid en de veiligheid van personen, nadelige effecten heeft op de grondrechten, of leidt tot discriminatie die op grond van het Unierecht verboden is, vooral wanneer data-outputs invloed hebben op inputs voor toekomstige operaties;
(f)
examinarea în vederea identificării unor posibile prejudecăți care sunt susceptibile să afecteze sănătatea și siguranța persoanelor, să aibă un impact negativ asupra drepturilor fundamentale sau să conducă la o discriminare interzisă în temeiul dreptului Uniunii, în special în cazul în care datele de ieșire influențează datele de intrare pentru operațiunile viitoare;
g)
en passende maatregelen om mogelijke overeenkomstig punt f) vastgestelde vertekeningen op te sporen, te voorkomen en te beperken;
(g)
măsuri adecvate pentru detectarea, prevenirea și atenuarea posibilelor prejudecăți identificate în conformitate cu litera (f);
h)
het identificeren van relevante leemten of tekortkomingen in de data die naleving van deze verordening in de weg staan, en de manier waarop deze leemten en tekortkomingen kunnen worden aangepakt.
(h)
identificarea lacunelor sau a deficiențelor relevante în materie de date care împiedică conformitatea cu prezentul regulament și a modului în care acestea pot fi abordate.
3. Datasets voor training, validatie en tests zijn relevant, voldoende representatief, en zoveel mogelijk foutenvrij en volledig met het oog op het beoogde doel. De datasets hebben bovendien de passende statistische kenmerken, onder meer, waar van toepassing, met betrekking tot de personen of groepen personen ten aanzien van wie de AI-systemen met een hoog risico moeten worden gebruikt. Deze kenmerken van de datasets kunnen op het niveau van de afzonderlijke datasets of combinatie daarvan worden verwezenlijkt.
(3) Seturile de date de antrenament, de validare și de testare sunt relevante, suficient de reprezentative, și pe cât posibil, fără erori și complete, având în vedere scopul preconizat. Acestea au proprietățile statistice corespunzătoare, inclusiv, după caz, în ceea ce privește persoanele sau grupurile de persoane în legătură cu care se intenționează să fie utilizat sistemul de IA cu grad ridicat de risc. Caracteristicile respective ale seturilor de date pot fi îndeplinite la nivelul seturilor de date individuale sau la nivelul unei combinații a acestora.
4. Ten aanzien van datasets wordt, voor zover vereist gezien het beoogde doel hiervan, rekening gehouden met de eigenschappen of elementen die specifiek zijn voor een bepaalde geografische, contextuele, functionele of gedragsomgeving waarin het AI-systeem met een hoog risico moet worden gebruikt.
(4) Seturile de date iau în considerare, în măsura impusă de scopul preconizat, caracteristicile sau elementele specifice cadrului geografic, contextual, comportamental sau funcțional specific în care este destinat să fie utilizat sistemul de IA cu grad ridicat de risc.
5. Voor zover dit strikt noodzakelijk is om de opsporing en correctie van vertekeningen te waarborgen in verband met de AI-systemen met een hoog risico overeenkomstig lid 2, punten f) en g), van dit artikel, mogen de aanbieders van dergelijke systemen uitzonderlijk bijzondere categorieën persoonsgegevens verwerken, mits passende waarborgen worden geboden voor de grondrechten en fundamentele vrijheden van natuurlijke personen. Naast de bepalingen van Verordeningen (EU) 2016/679 en (EU) 2018/1725 en Richtlijn (EU) 2016/680 moeten voor een dergelijke verwerking alle volgende voorwaarden van toepassing zijn vervuld:
(5) În măsura în care acest lucru este strict necesar pentru a asigura detectarea și corectarea prejudecăților în legătură cu sistemele de IA cu grad ridicat de risc în conformitate cu alineatul (2) literele (f) și (g) de la prezentul articol, furnizorii de astfel de sisteme pot prelucra în mod excepțional categoriile speciale de date cu caracter personal, sub rezerva unor garanții adecvate pentru drepturile și libertățile fundamentale ale persoanelor fizice. În plus față de dispozițiile prevăzute de Regulamentele (UE) 2016/679 și (UE) 2018/1725 și de Directiva (UE) 2016/680, pentru ca o astfel de prelucrare să aibă loc, trebuie să fie respectate toate condițiile următoare:
a)
de opsporing en correctie van vooringenomenheid kunnen niet doeltreffend worden vervuld door het verwerken van andere data, waaronder synthetische of geanonimiseerde data;
(a)
depistarea și corectarea prejudecăților nu poate fi realizată în mod eficace prin prelucrarea altor date, inclusiv a datelor sintetice sau anonimizate;
b)
de bijzondere categorieën persoonsgegevens zijn onderworpen aan technische beperkingen voor het hergebruik van persoonsgegevens, en geavanceerde beveiligings- en privacybeschermingsmaatregelen, waaronder pseudonimisering;
(b)
categoriile speciale de date cu caracter personal fac obiectul unor limitări tehnice privind reutilizarea datelor cu caracter personal și al unor măsuri avansate de securitate și de protecție a vieții private, inclusiv pseudonimizarea;
c)
de bijzondere categorieën persoonsgegevens zijn onderworpen aan maatregelen om ervoor te zorgen dat de verwerkte persoonsgegevens worden beveiligd, beschermd met passende waarborgen, waaronder strikte controles en documentatie van de toegang ertoe, om misbruik te voorkomen en ervoor te zorgen dat alleen personen die gemachtigd zijn toegang tot die persoonsgegevens hebben met passende vertrouwelijkheidsverplichtingen;
(c)
categoriile speciale de date cu caracter personal fac obiectul unor măsuri prin care să se asigure că datele cu caracter personal prelucrate sunt securizate și protejate, sub rezerva unor garanții adecvate, inclusiv controale stricte și documentarea accesului, pentru a se evita utilizarea necorespunzătoare și pentru a se asigura că numai persoanele autorizate cu obligații de confidențialitate corespunzătoare au acces la aceste date cu caracter personal;
d)
de bijzondere categorieën persoonsgegevens worden niet verzonden, doorgegeven of anderszins geraadpleegd door andere partijen;
(d)
categoriile speciale de date cu caracter personal nu trebuie să fie transmise, transferate sau accesate în alt mod de către alte părți;
e)
de bijzondere categorieën persoonsgegevens worden verwijderd zodra de vertekening is gecorrigeerd of de periode van bewaring van de persoonsgegevens ten einde is gekomen, indien dit eerder is;
(e)
categoriile speciale de date cu caracter personal sunt șterse după corectarea prejudecăților sau după ce datele cu caracter personal au ajuns la sfârșitul perioadei lor de păstrare, în funcție de care dintre acestea survine mai întâi;
f)
het register op grond van Verordeningen (EU) 2016/679 en (EU) 2018/1725 en Richtlijn (EU) 2016/680 van verwerkingsactiviteiten bevat de redenen waarom de verwerking van bijzondere categorieën persoonsgegevens strikt noodzakelijk was om vertekeningen op te sporen en waarom die doelstelling niet kon worden bereikt door de verwerking van andere data.
(f)
evidențele activităților de prelucrare în temeiul Regulamentelor (UE) 2016/679 și (UE) 2018/1725 și al Directivei (UE) 2016/680 includ motivele pentru care a fost strict necesară prelucrarea unor categorii speciale de date cu caracter personal pentru a depista și a corecta prejudecățile și motivele pentru care acest obiectiv nu putea fi realizat prin prelucrarea altor date.
6. Voor de ontwikkeling van AI-systemen met een hoog risico die geen technieken voor de training van modellen gebruiken, zijn de leden 2 tot en met 5 uitsluitend van toepassing op de datasets voor tests.
(6) Pentru dezvoltarea sistemelor de IA cu grad ridicat de risc care nu utilizează tehnici care implică antrenarea de modele de IA, alineatele (2)-(5) se aplică numai seturilor de date de testare.
Artikel 11
Articolul 11
Technische documentatie
Documentația tehnică
1. De technische documentatie van een AI-systeem met een hoog risico wordt opgesteld voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld, en wordt geactualiseerd.
(1) Documentația tehnică a unui sistem de IA cu grad ridicat de risc se întocmește înainte ca sistemul respectiv să fie introdus pe piață sau pus în funcțiune și se actualizează.
De technische documentatie wordt op zodanige wijze opgesteld dat wordt aangetoond dat het AI-systeem met een hoog risico in overeenstemming is met de eisen van deze afdeling en dat nationale bevoegde autoriteiten en aangemelde instanties over de noodzakelijke, op heldere en begrijpelijke wijze gestelde informatie beschikken om de overeenstemming van het AI-systeem met deze voorschriften te kunnen beoordelen. De documentatie omvat ten minste de in bijlage IV uiteengezette elementen. Kmo’s, met inbegrip van start-ups, kunnen de elementen van de in bijlage IV gespecificeerde technische documentatie op vereenvoudigde wijze verstrekken. Daartoe stelt de Commissie een vereenvoudigd formulier voor technische documentatie op dat is afgestemd op de behoeften van kleine en micro-ondernemingen. Kmo’s, met inbegrip van start-ups, die ervoor kiezen de in bijlage IV vereiste informatie op vereenvoudigde wijze te verstrekken, gebruiken het in dit lid bedoelde formulier. Aangemelde instanties aanvaarden het formulier met het oog op de conformiteitsbeoordeling.
Documentația tehnică se întocmește astfel încât să demonstreze că sistemul de IA cu grad ridicat de risc respectă cerințele prevăzute în prezenta secțiune și să furnizeze autorităților naționale competente și organismelor notificate informațiile necesare într-un mod clar și cuprinzător, pentru a evalua conformitatea sistemului de IA cu cerințele respective. Aceasta conține cel puțin elementele prevăzute în anexa IV. IMM-urile, inclusiv întreprinderile nou-înființate, pot furniza într-o manieră simplificată elementele documentației tehnice specificate în anexa IV. În acest scop, Comisia stabilește un formular simplificat de documentație tehnică care vizează nevoile întreprinderilor mici și ale microîntreprinderilor. În cazul în care IMM-urile, inclusiv întreprinderile nou-înființate, optează să furnizeze informațiile solicitate în anexa IV într-o manieră simplificată, acestea utilizează formularul menționat la prezentul alineat. Organismele notificate acceptă formularul în scopul evaluării conformității.
2. Wanneer een AI-systeem met een hoog risico dat verband houdt met een product dat valt onder de in bijlage I, afdeling A, opgenomen harmonisatiewetgeving van de Unie in de handel wordt gebracht of in gebruik wordt gesteld, wordt een enkel technisch document opgesteld dat alle informatie bevat zoals uiteengezet in lid 1, alsook de informatie die vereist is op grond van die rechtshandelingen.
(2) În cazul în care este introdus pe piață sau pus în funcțiune un sistem de IA cu grad ridicat de risc legat de un produs care face obiectul actelor legislative de armonizare ale Uniunii care figurează în anexa I secțiunea A, se întocmește o singură documentație tehnică ce conține toate informațiile prevăzute la alineatul (1), precum și informațiile necesare în temeiul respectivelor acte juridice.
3. De Commissie is bevoegd overeenkomstig artikel 97 gedelegeerde handelingen vast te stellen om, waar nodig, bijlage IV te wijzigen om, in het licht van de technische vooruitgang, te waarborgen dat in de technische documentatie alle noodzakelijke informatie wordt verstrekt om de overeenstemming van het systeem met de eisen van deze afdeling te kunnen beoordelen.
(3) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica anexa IV, atunci când este necesar, pentru a se asigura că, având în vedere progresul tehnic, documentația tehnică furnizează toate informațiile necesare pentru evaluarea conformității sistemului cu cerințele prevăzute în prezenta secțiune.
Artikel 12
Articolul 12
Registratie
Păstrarea evidențelor
1. AI-systemen met een hoog risico zijn dusdanig technisch vormgegeven dat gebeurtenissen gedurende de levenscyclus van het systeem automatisch worden geregistreerd (“logs”).
(1) Sistemele de IA cu grad ridicat de risc permit din punct de vedere tehnic înregistrarea automată a evenimentelor (fișiere de jurnalizare) de-a lungul duratei de viață a sistemului.
2. Teneinde ervoor te zorgen dat de werking van het AI-systeem met een hoog risico een niveau van traceerbaarheid heeft dat passend is voor het beoogde doel van het systeem, maken loggingfuncties het mogelijk om gebeurtenissen te registreren die relevant zijn ter:
(2) Pentru a asigura un nivel de trasabilitate a funcționării sistemului de IA cu grad ridicat de risc care să fie adecvat scopului preconizat al sistemului, capabilitățile de jurnalizare permit înregistrarea evenimentelor relevante pentru:
a)
identificatie van situaties die ertoe kunnen leiden dat het AI-systeem met een hoog risico een risico vormt in de zin van artikel 79, lid 1, of dat er een substantiële wijziging optreedt;
(a)
identificarea situațiilor care pot avea ca rezultat faptul că sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 79 alineatul (1) sau care pot conduce la o modificare substanțială;
b)
facilitering van de in artikel 72 bedoelde monitoring na het in de handel brengen, en
(b)
facilitarea monitorizării ulterioare introducerii pe piață menționate la articolul 72; și
c)
monitoring van de werking van in artikel 26, lid 5, bedoelde AI-systemen met een hoog risico.
(c)
monitorizarea funcționării sistemelor de IA cu grad ridicat de risc menționate la articolul 26 alineatul (5).
3. Voor AI-systemen met een hoog risico als bedoeld in punt 1, a), van bijlage III voorzien de loggingcapaciteiten ten minste in:
(3) În cazul sistemelor de IA cu grad ridicat de risc menționate în anexa III punctul 1 litera (a), capabilitățile de jurnalizare furnizează cel puțin:
a)
de registratie van de duur van elk gebruik van het systeem (begindatum en -tijd en einddatum en -tijd van elk gebruik);
(a)
înregistrarea perioadei fiecărei utilizări a sistemului (data și ora de începere, precum și data și ora de încheiere a fiecărei utilizări);
b)
de referentiedatabank aan de hand waarvan de inputdata zijn gecontroleerd door het systeem;
(b)
baza de date de referință în raport cu care au fost verificate de sistem datele de intrare;
c)
de inputdata ten aanzien waarvan de zoekopdracht een match heeft opgeleverd;
(c)
datele de intrare pentru care căutarea a generat o concordanță;
d)
de identificatie van de natuurlijke personen die betrokken zijn bij de verificatie van de resultaten, zoals bedoeld in artikel 14, lid 5.
(d)
identificarea persoanelor fizice implicate în verificarea rezultatelor, astfel cum se menționează la articolul 14 alineatul (5).
Artikel 13
Articolul 13
Transparantie en informatieverstrekking aan gebruiksverantwoordelijken
Transparența și furnizarea de informații implementatorilor
1. AI-systemen met een hoog risico worden op zodanige wijze ontworpen en ontwikkeld dat de werking ervan voldoende transparant is om gebruiksverantwoordelijken in staat te stellen de output van een systeem te interpreteren en op passende wijze te gebruiken. Een passende soort en mate van transparantie wordt gewaarborgd met het oog op de naleving van de relevante verplichtingen van de aanbieder en de gebruiksverantwoordelijke zoals uiteengezet in afdeling 3.
(1) Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât să se asigure că funcționarea lor este suficient de transparentă pentru a permite implementatorilor să interpreteze rezultatele sistemului și să le utilizeze în mod corespunzător. Se asigură un tip și un grad adecvat de transparență, în vederea respectării obligațiilor relevante ale furnizorului și ale implementatorului prevăzute în secțiunea 3.
2. AI-systemen met een hoog risico gaan vergezeld van gebruiksinstructies in een passend digitaal of ander formaat dat beknopte, volledige, juiste en duidelijke informatie bevat die relevant, toegankelijk en begrijpelijk is voor gebruiksverantwoordelijken.
(2) Sistemele de IA cu grad ridicat de risc sunt însoțite de instrucțiuni de utilizare într-un format digital adecvat sau în alt tip de format adecvat, care includ informații concise, complete, corecte și clare care sunt relevante, accesibile și ușor de înțeles pentru implementatori.
3. De gebruiksinstructies bevatten ten minste de volgende gegevens:
(3) Instrucțiunile de utilizare conțin cel puțin următoarele informații:
a)
de identiteit en de contactgegevens van de aanbieder en, in voorkomend geval, van zijn gemachtigde;
(a)
identitatea și datele de contact ale furnizorului și, după caz, ale reprezentantului său autorizat;
b)
de kenmerken, capaciteiten en beperkingen van de prestaties van het AI-systeem met een hoog risico, waaronder:
(b)
caracteristicile, capabilitățile și limitările performanței sistemului de IA cu grad ridicat de risc, inclusiv:
i)
het beoogde doel;
(i)
scopul său preconizat;
ii)
de mate van nauwkeurigheid, waaronder de beoordelingsmaatstaven, robuustheid en cyberbeveiliging als bedoeld in artikel 15 waarop het AI-systeem met een hoog risico is getest en gevalideerd en die kan worden verwacht, en eventuele bekende en te voorziene omstandigheden die een effect kunnen hebben op die verwachte mate van nauwkeurigheid, robuustheid en cyberbeveiliging;
(ii)
nivelul de acuratețe, inclusiv indicatorii săi, de robustețe și de securitate cibernetică menționat la articolul 15 în raport cu care sistemul de IA cu grad ridicat de risc a fost testat și validat și care poate fi preconizat, precum și orice circumstanță cunoscută și previzibilă care ar putea avea un impact asupra nivelului preconizat de acuratețe, robustețe și securitate cibernetică;
iii)
eventuele bekende of te voorziene omstandigheden in verband met het gebruik van het AI-systeem met een hoog risico in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, die kunnen leiden tot risico’s voor de gezondheid en veiligheid of de grondrechten als bedoeld in artikel 9, lid 2;
(iii)
orice circumstanță cunoscută sau previzibilă legată de utilizarea sistemului de IA cu grad ridicat de risc în conformitate cu scopul său preconizat sau în condiții de utilizare necorespunzătoare previzibilă în mod rezonabil, care poate conduce la riscurile pentru sănătate și siguranță sau pentru drepturile fundamentale menționate la articolul 9 alineatul (2);
iv)
in voorkomend geval, de technische capaciteiten en kenmerken van het AI-systeem met een hoog risico om informatie te verstrekken die relevant is om de output ervan toe te lichten;
(iv)
după caz, capabilitățile și caracteristicile tehnice ale sistemului de IA cu grad ridicat de risc de a furniza informații relevante pentru explicarea rezultatelor sale;
v)
in voorkomend geval, zijn prestaties met betrekking tot specifieke personen of groepen personen voor wie het systeem moet worden gebruikt;
(v)
după caz, performanțele sale în ceea ce privește anumite persoane sau grupuri de persoane în legătură cu care este destinat să fie utilizat sistemul;
vi)
in voorkomend geval, specificaties voor de inputdata of eventuele andere relevante informatie met betrekking tot de gebruikte datasets voor training, validatie en tests, rekening houdend met het beoogde doel van het AI-systeem met een hoog risico;
(vi)
după caz, specificațiile pentru datele de intrare sau orice altă informație relevantă în ceea ce privește seturile de date de antrenament, de validare și de testare utilizate, ținând seama de scopul preconizat al sistemului de IA cu grad ridicat de risc;
vii)
in voorkomend geval, informatie om de gebruiksverantwoordelijken in staat te stellen de output van het AI-systeem met een hoog risico te interpreteren en op passende wijze te gebruiken;
(vii)
după caz, informații care să le permită implementatorilor să interpreteze rezultatele sistemului de IA cu grad ridicat de risc și să le utilizeze în mod corespunzător;
c)
de wijzigingen van het AI-systeem met een hoog risico en de prestaties ervan die vooraf door de aanbieder zijn bepaald op het moment van de eerste conformiteitsbeoordeling, indien van toepassing;
(c)
modificările aduse sistemului de IA cu grad ridicat de risc și performanței acestuia care au fost predeterminate de către furnizor la momentul evaluării inițiale a conformității, dacă este cazul;
d)
de in artikel 14 bedoelde maatregelen voor menselijk toezicht, met inbegrip van de technische maatregelen die zijn getroffen om de interpretatie van de output van de AI-systemen met een hoog risico door gebruiksverantwoordelijken te vergemakkelijken;
(d)
măsurile de supraveghere umană menționate la articolul 14, inclusiv măsurile tehnice instituite pentru a facilita interpretarea rezultatelor sistemelor de IA cu grad ridicat de risc de către implementatori;
e)
de benodigde rekenkracht en hardware, de verwachte levensduur van het AI-systeem met een hoog risico en eventuele noodzakelijke maatregelen — en de frequentie daarvan — voor onderhoud en verzorging ter waarborging van de goede werking van dat AI-systeem, ook in verband met software-updates;
(e)
resursele de calcul și resursele hardware necesare, durata de viață preconizată a sistemului de IA cu grad ridicat de risc și orice măsuri de întreținere și de îngrijire, inclusiv frecvența lor, necesare pentru a asigura funcționarea corespunzătoare a sistemului de IA respectiv, inclusiv în ceea ce privește actualizările software-ului;
f)
in voorkomend geval, een beschrijving van de mechanismen in het AI-systeem met een hoog risico die gebruiksverantwoordelijken in staat stellen de logs naar behoren te verzamelen, op te slaan en te interpreteren overeenkomstig artikel 12.
(f)
după caz, o descriere a mecanismelor incluse în sistemul de IA cu grad ridicat de risc care să permită implementatorilor să colecteze, să stocheze și să interpreteze în mod corespunzător fișierele de jurnalizare în conformitate cu articolul 12.
Artikel 14
Articolul 14
Menselijk toezicht
Supravegherea umană
1. AI-systemen met een hoog risico worden zodanig ontworpen en ontwikkeld, met inbegrip van passende mens-machine-interface-instrumenten, dat hierop tijdens de periode dat zij worden gebruikt, op doeltreffende wijze toezicht kan worden uitgeoefend door natuurlijke personen.
(1) Sistemele de IA cu grad ridicat de risc sunt proiectate și dezvoltate astfel încât, prin includerea de instrumente adecvate de interfață om-mașină, să poată fi supravegheate în mod eficace de către persoane fizice în perioada în care sunt utilizate.
2. Het menselijk toezicht is gericht op het voorkomen of beperken van de risico’s voor de gezondheid, veiligheid of grondrechten die zich kunnen voordoen wanneer een AI-systeem met een hoog risico wordt gebruikt in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, met name wanneer dergelijke risico’s blijven bestaan ondanks de toepassing van andere eisen van deze afdeling.
(2) Supravegherea umană are ca scop prevenirea sau reducerea la minimum a riscurilor pentru sănătate, siguranță sau pentru drepturile fundamentale, care pot apărea atunci când un sistem de IA cu grad ridicat de risc este utilizat în conformitate cu scopul său preconizat sau în condiții de utilizare necorespunzătoare previzibilă în mod rezonabil, în special în cazurile în care astfel de riscuri persistă în pofida aplicării altor cerințe prevăzute în prezenta secțiune.
3. De toezichtmaatregelen staan in verhouding met de risico’s, de mate van autonomie en de gebruikscontext van het AI-systeem met een hoog risico en worden gewaarborgd door middel van een of alle van de volgende soorten maatregelen:
(3) Măsurile de supraveghere sunt proporționale cu riscurile specifice, cu nivelul de autonomie și cu contextul utilizării sistemului de IA cu grad ridicat de risc și se asigură fie prin unul dintre următoarele tipuri de măsuri, fie prin ambele:
a)
door de aanbieder bepaalde maatregelen die waar technisch haalbaar in het AI-systeem met een hoog risico worden ingebouwd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld;
(a)
măsuri identificate și încorporate, atunci când este fezabil din punct de vedere tehnic, în sistemul de IA cu grad ridicat de risc de către furnizor înainte ca acesta să fie introdus pe piață sau pus în funcțiune;
b)
door de aanbieder bepaalde maatregelen voordat het AI-systeem met een hoog risico in de handel wordt gebracht of in gebruik wordt gesteld en die passend zijn om door de gebruiksverantwoordelijke te worden uitgevoerd.
(b)
măsuri identificate de furnizor înainte de introducerea pe piață sau punerea în funcțiune a sistemului de IA cu grad ridicat de risc și care sunt adecvate pentru a fi puse în aplicare de implementator.
4. Met het oog op de uitvoering van de leden 1, 2 en 3 wordt het AI-systeem met een hoog risico zodanig aan de gebruiksverantwoordelijke verstrekt dat natuurlijke personen die verantwoordelijk zijn voor het menselijk toezicht, in staat worden gesteld om waar passend en evenredig:
(4) În scopul punerii în aplicare a alineatelor (1), (2) și (3), sistemul de IA cu grad ridicat de risc este pus la dispoziția implementatorului astfel încât persoanelor fizice cărora li se încredințează supravegherea umană să li se permită, în funcție de următoarele și proporțional cu acestea:
a)
de relevante capaciteiten en beperkingen van het AI-systeem met een hoog risico goed te begrijpen en de werking ervan naar behoren te kunnen monitoren, onder meer met het oog op het opsporen en aanpakken van onregelmatigheden, storingen en onverwachte prestaties;
(a)
să înțeleagă în mod corespunzător capacitățile și limitările relevante ale sistemului de IA cu grad ridicat de risc și să fie în măsură să monitorizeze în mod corespunzător funcționarea acestuia, inclusiv în vederea depistării și abordării anomaliilor, disfuncționalităților și performanțelor neașteptate;
b)
zich bewust te blijven van de mogelijke neiging om automatisch of te veel te vertrouwen op de output van een AI-systeem met een hoog risico (de zogenaamde “automation bias”), met name voor AI-systemen met een hoog risico die worden gebruikt om informatie of aanbevelingen te verstrekken voor beslissingen die door natuurlijke personen moeten worden genomen;
(b)
să rămână conștiente de posibila tendință de a se baza în mod automat sau excesiv pe rezultatele obținute de un sistem de IA cu grad ridicat de risc (prejudecăți legate de automatizare), în special în cazul sistemelor de IA cu grad ridicat de risc utilizate pentru a furniza informații sau recomandări pentru deciziile care urmează să fie luate de persoanele fizice;
c)
de output van het AI-systeem met een hoog risico juist te interpreteren, bijvoorbeeld de beschikbare instrumenten en methoden voor interpretatie;
(c)
să interpreteze corect rezultatele sistemului de IA cu grad ridicat de risc, ținând seama, de exemplu, de instrumentele și metodele de interpretare disponibile;
d)
in alle specifieke situaties te kunnen besluiten om het AI-systeem met een hoog risico niet te gebruiken of de output van het AI-systeem met een hoog risico op andere wijze te negeren, door een andere beslissing te vervangen of terug te draaien;
(d)
să decidă, în orice situație anume, să nu utilizeze sistemul de IA cu grad ridicat de risc sau să ignore, să anuleze sau să inverseze rezultatele sistemului de IA cu grad ridicat de risc;
e)
in te grijpen in de werking van het AI-systeem met een hoog risico of het systeem te onderbreken door middel van een stopknop of een vergelijkbare procedure waarmee het systeem op veilige wijze kan worden stopgezet.
(e)
să intervină în funcționarea sistemului de IA cu grad ridicat de risc sau să întrerupă sistemul prin intermediul unui buton „stop” sau al unei proceduri similare care să permită sistemului să se oprească în condiții de siguranță.
5. Voor AI-systemen met een hoog risico als bedoeld in bijlage III, punt 1, a), zijn de maatregelen als bedoeld in lid 3 van dit artikel zodanig dat zij waarborgen dat daarnaast door de gebruiksverantwoordelijke geen maatregelen worden getroffen of beslissingen worden genomen op basis van de identificatie door het systeem, tenzij deze identificatie door ten minste twee natuurlijke personen met de nodige bekwaamheid, opleiding en bevoegdheid apart zijn geverifieerd en bevestigd.
(5) În cazul sistemelor de IA cu grad ridicat de risc menționate în anexa III punctul 1 litera (a), măsurile menționate la alineatul (3) de la prezentul articol sunt de așa natură încât să asigure că, în plus, implementatorul nu ia nicio măsură sau decizie pe baza identificării care rezultă din sistem, cu excepția cazului în care identificarea respectivă a fost verificată și confirmată separat de cel puțin două persoane fizice care au competența, pregătirea și autoritatea necesare.
Het vereiste van een afzonderlijke verificatie door ten minste twee natuurlijke personen is niet van toepassing op AI-systemen met een hoog risico die gebruikt worden voor rechtshandhaving, migratie, grenstoezicht of asiel, in gevallen waarin het Unierecht of het nationale recht de toepassing van dit vereiste onevenredig acht.
Cerința unei verificări separate de către cel puțin două persoane fizice nu se aplică sistemelor de IA cu grad ridicat de risc utilizate în scopul aplicării legii sau în domeniul imigrației, al controlului la frontiere ori al azilului, în cazurile în care dreptul Uniunii sau dreptul intern consideră că aplicarea acestei cerințe este disproporționată.
Artikel 15
Articolul 15
Nauwkeurigheid, robuustheid en cyberbeveiliging
Acuratețe, robustețe și securitate cibernetică
1. AI-systemen met een hoog risico worden op zodanige wijze ontworpen en ontwikkeld dat deze een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging bieden, alsook consistente prestaties gedurende de levensduur met betrekking tot deze aspecten.
(1) Sistemele de IA cu grad ridicat de risc sunt concepute și dezvoltate astfel încât să atingă un nivel adecvat de acuratețe, robustețe și securitate cibernetică și să funcționeze în mod consecvent în aceste privințe pe parcursul întregului lor ciclu de viață.
2. Ter verduidelijking van de technische aspecten van de meting van het passende niveau van nauwkeurigheid en robuustheid als bedoeld in lid 1 en andere relevante prestatiestatistieken, moedigt de Commissie, in samenwerking met relevante belanghebbenden en organisaties, zoals metrologie- en benchmarkingautoriteiten, waar passend, de ontwikkeling van benchmarks en meetmethoden aan.
(2) Pentru a aborda aspectele tehnice ale modului de măsurare a nivelurilor adecvate de acuratețe și robustețe prevăzute la alineatul (1) și orice alți indicatori de performanță relevanți, Comisia, în cooperare cu părți interesate și organizații relevante precum autoritățile din domeniul metrologiei și al etalonării încurajează, după caz, elaborarea de valori de referință și metodologii de măsurare.
3. De niveaus van nauwkeurigheid en de relevante maatstaven voor de nauwkeurigheid van AI-systemen met een hoog risico worden vermeld in de bijbehorende gebruiksaanwijzingen.
(3) Nivelurile de acuratețe și indicatorii de acuratețe relevanți ai sistemelor de IA cu grad ridicat de risc se declară în instrucțiunile de utilizare aferente.
4. AI-systemen met een hoog risico zijn zo goed mogelijk bestand tegen fouten en onregelmatigheden die zich binnen het systeem of de omgeving waarin het systeem wordt gebruikt, kunnen voordoen, met name als gevolg van de interactie ervan met natuurlijke personen of andere systemen. In dat opzicht worden technische en organisatorische maatregelen genomen.
(4) Sistemele de IA cu grad ridicat de risc sunt cât mai reziliente posibil în ceea ce privește erorile, defecțiunile sau incoerențele care pot apărea în cadrul sistemului sau în mediul în care funcționează sistemul, în special din cauza interacțiunii lor cu persoane fizice sau cu alte sisteme. Se iau măsuri tehnice și organizatorice în acest sens.
De robuustheid van AI-systemen met een hoog risico kan worden gerealiseerd door middel van technische oplossingen voor redundantie, die plannen voor de back-up of de veiligheid bij defecten kunnen omvatten.
Robustețea sistemelor de IA cu grad ridicat de risc poate fi asigurată prin soluții tehnice redundante, care pot include planuri de rezervă sau de funcționare în caz de avarie.
AI-systemen met een hoog risico die blijven leren nadat ze in de handel zijn gebracht of in gebruik zijn gesteld, worden op zodanige wijze ontwikkeld dat het risico op beïnvloeding van toekomstige operaties door gebruik van vertekende outputs als input (“feedback loops”) wordt weggenomen of zo veel mogelijk worden beperkt en dat elke dergelijke feedback loop naar behoren wordt aangepakt met behulp van passende beperkende maatregelen.
Sistemele de IA cu grad ridicat de risc care continuă să învețe după ce au fost introduse pe piață sau puse în funcțiune sunt dezvoltate astfel încât să elimine sau să reducă pe cât posibil riscul ca eventuale rezultate distorsionate de prejudecăți să influențeze datele de intrare pentru operațiunile viitoare (bucle de feedback) și să se asigure că orice astfel de bucle de feedback sunt abordate în mod corespunzător prin măsuri de atenuare adecvate.
5. AI-systemen met een hoog risico zijn bestand tegen pogingen van ongeautoriseerde derden om het gebruik, de outputs of de prestaties ervan te wijzigen door gebruik te maken van de kwetsbaarheden van het systeem.
(5) Sistemele de IA cu grad ridicat de risc sunt reziliente în ceea ce privește încercările unor părți terțe neautorizate de a le modifica utilizarea, rezultatele sau performanța prin exploatarea vulnerabilităților sistemului.
De technische oplossingen die gericht zijn op het waarborgen van de cyberbeveiliging van AI-systemen met een hoog risico sluiten aan op de relevante omstandigheden en risico’s.
Soluțiile tehnice menite să asigure securitatea cibernetică a sistemelor de IA cu grad ridicat de risc sunt adecvate circumstanțelor relevante și riscurilor.
De technische oplossingen voor het aanpakken van AI-specifieke kwetsbaarheden omvatten, waar passend, maatregelen voor het voorkomen, traceren, reageren op, oplossen en beheersen van aanvallen waarmee een poging wordt gedaan tot het manipuleren van de dataset voor de training (de zogenaamde “datavervuiling”), van vooraf getrainde componenten die in de training zijn gebruikt (de zogenaamde “modelvervuiling”), van input die is gecreëerd om fouten van het model te veroorzaken (zogenaamde “vijandige voorbeelden” of “modelontwijking”), van aanvallen om vertrouwelijke gegevens te bemachtigen of van tekortkomingen van het model.
Soluțiile tehnice pentru abordarea vulnerabilităților specifice ale IA includ, după caz, măsuri de prevenire, depistare, răspuns, soluționare și control în privința atacurilor ce vizează manipularea setului de date de antrenament (otrăvirea datelor) sau a componentelor preantrenate utilizate la antrenament (otrăvirea modelelor), a datelor de intrare concepute să determine modelul de IA să facă o greșeală (exemple contradictorii sau eludarea modelelor), a atacurilor la adresa confidențialității sau a defectelor modelului.
AFDELING 3
SECȚIUNEA 3
Verplichtingen van aanbieders en gebruiksverantwoordelijken van AI-systemen met een hoog risico en andere partijen
Obligațiile furnizorilor și implementatorilor de sisteme de IA cu grad ridicat de risc și ale altor părți
Artikel 16
Articolul 16
Verplichtingen van aanbieders van AI-systemen met een hoog risico
Obligațiile furnizorilor de sisteme de IA cu grad ridicat de risc
Aanbieders van AI-systemen met een hoog risico:
Furnizorii de sisteme de IA cu grad ridicat de risc:
a)
zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2;
(a)
se asigură că sistemele lor de IA cu grad ridicat de risc respectă cerințele prevăzute în secțiunea 2;
b)
vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres;
(b)
indică pe sistemul de IA cu grad ridicat de risc sau, în cazul în care acest lucru nu este posibil, pe ambalaj sau în documentele care îl însoțesc, după caz, numele lor, denumirea lor comercială înregistrată sau marca lor înregistrată, adresa la care pot fi contactați;
c)
beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met artikel 17;
(c)
dispun de un sistem de management al calității în conformitate cu articolul 17;
d)
bewaren de in artikel 18 bedoelde documentatie;
(d)
păstrează documentația menționată la articolul 18;
e)
bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben;
(e)
atunci când acestea se află sub controlul lor, păstrează fișierele de jurnalizare generate automat de sistemele lor de IA cu grad ridicat de risc menționate la articolul 19;
f)
zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld;
(f)
se asigură că sistemul de IA cu grad ridicat de risc este supus procedurii relevante de evaluare a conformității menționată la articolul 43, înainte de introducerea sa pe piață sau de punerea sa în funcțiune;
g)
stellen een EU-conformiteitsverklaring op, in overeenstemming met artikel 47;
(g)
elaborează o declarație de conformitate UE în conformitate cu articolul 47;
h)
brengen de CE-markering aan op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig artikel 48;
(h)
aplică marcajul CE pe sistemul de IA cu grad ridicat de risc sau, în cazul în care acest lucru nu este posibil, pe ambalajul sau în documentația sa însoțitoare, pentru a indica conformitatea cu prezentul regulament, în conformitate cu articolul 48;
i)
leven de registratieverplichtingen als bedoeld in artikel 49, lid 1, na;
(i)
respectă obligațiile de înregistrare menționate la articolul 49 alineatul (1);
j)
nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van artikel 20 vereiste informatie;
(j)
iau măsurile corective necesare și furnizează informațiile prevăzute la articolul 20;
k)
tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2;
(k)
la cererea motivată a unei autorități naționale competente, demonstrează conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în secțiunea 2;
l)
zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882.
(l)
se asigură că sistemul de IA cu grad ridicat de risc respectă cerințele de accesibilitate, în conformitate cu Directivele (UE) 2016/2102 și (UE) 2019/882.
Artikel 17
Articolul 17
Systeem voor kwaliteitsbeheer
Sistemul de management al calității
1. Aanbieders van AI-systemen met een hoog risico voorzien in een systeem voor kwaliteitsbeheer dat de naleving van deze verordening waarborgt. Dit systeem wordt op systematische en ordelijke wijze gedocumenteerd in de vorm van schriftelijke beleidslijnen, procedures en instructies en omvat ten minste de volgende aspecten:
(1) Furnizorii de sisteme de IA cu grad ridicat de risc instituie un sistem de management al calității care asigură conformitatea cu prezentul regulament. Acest sistem este documentat în mod sistematic și ordonat sub formă de politici, proceduri și instrucțiuni scrise și include cel puțin următoarele aspecte:
a)
een strategie voor de naleving van de regelgeving, inclusief de naleving van de conformiteitsbeoordelingsprocedures en de procedures voor het beheer van de wijzigingen van het AI-systeem met een hoog risico;
(a)
o strategie pentru conformitatea cu reglementările, inclusiv conformitatea cu procedurile de evaluare a conformității și cu procedurile de gestionare a modificărilor aduse sistemului de IA cu grad ridicat de risc;
b)
technieken, procedures en systematische maatregelen die moeten worden toegepast voor het ontwerp, de controle van het ontwerp en de verificatie van het ontwerp van het AI-systeem met een hoog risico;
(b)
tehnicile, procedurile și acțiunile sistematice care trebuie utilizate pentru proiectarea, controlul proiectării și verificarea proiectării sistemului de IA cu grad ridicat de risc;
c)
technieken, procedures en systematische maatregelen die moeten worden toegepast voor de ontwikkeling, de kwaliteitscontrole en de kwaliteitsborging van het AI-systeem met een hoog risico;
(c)
tehnicile, procedurile și acțiunile sistematice care trebuie utilizate pentru dezvoltarea, controlul calității și asigurarea calității sistemului de IA cu grad ridicat de risc;
d)
procedures voor het inspecteren, testen en valideren die vóór, tijdens en na de ontwikkeling van het AI-systeem met een hoog risico moeten worden uitgevoerd en de regelmaat waarmee zij moeten worden uitgevoerd;
(d)
procedurile de examinare, testare și validare care trebuie efectuate înainte, în timpul și după dezvoltarea sistemului de IA cu grad ridicat de risc, precum și frecvența cu care acestea trebuie efectuate;
e)
technische specificaties, met inbegrip van normen, die moeten worden toegepast en, wanneer de relevante geharmoniseerde normen niet volledig worden toegepast of geen betrekking hebben op alle relevante eisen van afdeling 2, de middelen die worden gebruikt om ervoor te zorgen dat het AI-systeem met een hoog risico in overeenstemming is met deze eisen;
(e)
specificațiile tehnice, inclusiv standardele, care trebuie aplicate și, în cazul în care standardele armonizate relevante nu sunt aplicate integral sau nu vizează toate cerințele relevante prevăzute în secțiunea 2, mijloacele care trebuie utilizate pentru a se asigura că sistemul de IA cu grad ridicat de risc respectă cerințele respective;
f)
systemen en procedures voor databeheer, met inbegrip van dataverwerving, -verzameling, -analyse, -labeling, -opslag, -zuivering, -aggregatie en -behoud en datamining en eventuele andere operaties met betrekking tot de data die worden uitgevoerd voorafgaand aan en met het oog op het in de handel brengen of in gebruik stellen van AI-systemen met een hoog risico;
(f)
sisteme și proceduri pentru gestionarea datelor, inclusiv obținerea datelor, colectarea datelor, analiza datelor, etichetarea datelor, stocarea datelor, filtrarea datelor, extragerea datelor, agregarea datelor, păstrarea datelor și orice altă operațiune privind datele care este efectuată înainte și în scopul introducerii pe piață sau al punerii în funcțiune a sistemelor de IA cu grad ridicat de risc;
g)
het systeem voor risicobeheer zoals bedoeld in artikel 9;
(g)
sistemul de gestionare a riscurilor menționat la articolul 9;
h)
het opzetten, toepassen en onderhouden van een systeem voor monitoring na het in de handel brengen, overeenkomstig artikel 72;
(h)
instituirea, implementarea și întreținerea unui sistem de monitorizare ulterioară introducerii pe piață, în conformitate cu articolul 72;
i)
procedures in verband met het melden van een ernstig incident in overeenstemming met artikel 73;
(i)
procedurile legate de raportarea unui incident grav în conformitate cu articolul 73;
j)
de communicatie met nationale bevoegde autoriteiten, andere relevante autoriteiten, met inbegrip van autoriteiten die de toegang tot data verlenen of ondersteunen, aangemelde instanties, andere operatoren, klanten of andere belanghebbenden;
(j)
gestionarea comunicării cu autoritățile naționale competente, cu alte autorități relevante, inclusiv cu cele care furnizează sau sprijină accesul la date, cu organismele notificate, cu alți operatori, cu clienți sau cu alte părți interesate;
k)
systemen en procedures voor de registratie van alle relevante documentatie en informatie;
(k)
sisteme și proceduri pentru păstrarea evidențelor tuturor documentelor și informațiilor relevante;
l)
het beheer van hulpmiddelen, met inbegrip van maatregelen in verband met de voorzieningszekerheid;
(l)
gestionarea resurselor, inclusiv măsurile legate de securitatea aprovizionării;
m)
een kader voor de verantwoording, waarin de verantwoordelijkheden van het management en ander personeel uiteen worden gezet met betrekking tot alle aspecten van dit lid.
(m)
un cadru de asigurare a răspunderii care stabilește responsabilitățile cadrelor de conducere și ale altor categorii de personal în ceea ce privește toate aspectele enumerate la prezentul alineat.
2. De uitvoering van de in lid 1 bedoelde aspecten is evenredig aan de omvang van de organisatie van de aanbieder. Aanbieders voldoen hoe dan ook aan de striktheid en het beschermingsniveau die nodig zijn om te garanderen dat hun AI-systemen met een hoog risico aan deze verordening voldoen.
(2) Punerea în aplicare a aspectelor menționate la alineatul (1) este proporțională cu dimensiunea organizației furnizorului. Furnizorii respectă, indiferent de situație, gradul de precizie și nivelul de protecție necesare pentru a asigura conformitatea cu prezentul regulament a sistemelor lor de IA cu grad ridicat de risc.
3. Aanbieders van AI-systemen met een hoog risico die onderworpen zijn aan verplichtingen met betrekking tot kwaliteitsbeheersystemen of een gelijkwaardige functie uit hoofde van het desbetreffende sectorale Unierecht, kunnen de in lid 1 genoemde aspecten opnemen als onderdeel van de op grond van dat recht vastgestelde kwaliteitsbeheersystemen.
(3) Furnizorii de sisteme de IA cu grad ridicat de risc care fac obiectul unor obligații în ceea ce privește sistemele de management al calității sau o funcție echivalentă a acestora în temeiul dreptului sectorial relevant al Uniunii pot include aspectele descrise la alineatul (1) ca parte din sistemele de management al calității stabilite în temeiul dreptului respectiv.
4. Voor aanbieders die in de hoedanigheid van financiële instellingen onderworpen zijn aan eisen met betrekking tot hun interne governance, regelingen of processen uit hoofde van het desbetreffende Unierecht inzake financiële diensten, wordt met uitzondering van lid 1, punten g), h) en i), van dit artikel de verplichting een systeem voor kwaliteitsbeheer in te voeren geacht te zijn vervuld door te voldoen aan de regels inzake interne governance, regelingen of processen uit hoofde van het desbetreffende Unierecht inzake financiële diensten. Daartoe wordt rekening gehouden met eventuele geharmoniseerde normen als bedoeld in artikel 40.
(4) În cazul furnizorilor care sunt instituții financiare supuse unor cerințe privind guvernanța internă, măsurile sau procesele interne în temeiul dreptului Uniunii din domeniul serviciilor financiare, se consideră că obligația de instituire a unui sistem de management al calității, cu excepția alineatului (1) literele (g), (h) și (i) de la prezentul articol, este îndeplinită prin respectarea normelor privind măsurile sau procesele de guvernanță internă în temeiul dreptului relevant al Uniunii din domeniul serviciilor financiare. În acest scop, se ține seama de toate standardele armonizate menționate la articolul 40.
Artikel 18
Articolul 18
Bewaring van documentatie
Păstrarea evidențelor
1. De aanbieder houdt gedurende een periode van tien jaar nadat het AI-systeem met een hoog risico in de handel is gebracht of in gebruik is gesteld de volgende elementen ter beschikking van de nationale bevoegde autoriteiten:
(1) Pentru o perioadă de 10 ani după introducerea pe piață sau punerea în funcțiune a sistemului de IA cu grad ridicat de risc, furnizorul păstrează la dispoziția autorităților naționale competente:
a)
de technische documentatie als bedoeld in artikel 11;
(a)
documentația tehnică menționată la articolul 11;
b)
de documentatie betreffende het in artikel 17 bedoelde systeem voor kwaliteitsbeheer;
(b)
documentația privind sistemul de management al calității menționată la articolul 17;
c)
in voorkomend geval de documentatie betreffende de door aangemelde instanties goedgekeurde wijzigingen;
(c)
documentația privind modificările aprobate de organismele notificate, după caz;
d)
in voorkomend geval de besluiten en andere documenten die door de aangemelde instanties zijn afgegeven;
(d)
deciziile și alte documente emise de organismele notificate, după caz;
e)
de EU-conformiteitsverklaring als bedoeld in artikel 47.
(e)
declarația de conformitate UE prevăzută la articolul 47.
2. Elke lidstaat stelt de voorwaarden vast waaronder de in lid 1 bedoelde documentatie gedurende de in dat lid genoemde periode ter beschikking van de nationale bevoegde autoriteiten blijft voor de gevallen waarin een aanbieder of zijn op zijn grondgebied gevestigde gemachtigde failliet gaat of zijn activiteiten vóór het verstrijken van die termijn staakt.
(2) Fiecare stat membru stabilește condițiile în care documentația menționată la alineatul (1) rămâne la dispoziția autorităților naționale competente pentru perioada indicată la alineatul respectiv pentru cazurile în care un furnizor sau reprezentantul autorizat al acestuia stabilit pe teritoriul său intră în faliment sau își încetează activitatea înainte de sfârșitul perioadei respective.
3. Aanbieders die in de hoedanigheid van financiële instellingen onderworpen zijn aan eisen met betrekking tot hun interne governance, regelingen of processen uit hoofde van het Unierecht voor financiële diensten, bewaren de technische documentatie als onderdeel van de documentatie die bewaard wordt krachtens het desbetreffende Unierecht inzake financiële diensten.
(3) Furnizorii care sunt instituții financiare supuse unor cerințe privind guvernanța internă, măsurile sau procesele lor interne în temeiul dreptului Uniunii din domeniul serviciilor financiare păstrează documentația tehnică ca parte a documentației păstrate în temeiul dreptului relevant al Uniunii din domeniul serviciilor financiare.
Artikel 19
Articolul 19
Automatisch gegenereerde logs
Fișiere de jurnalizare generate automat
1. Aanbieders van AI-systemen met een hoog risico bewaren de in artikel 12, lid 1, bedoelde logs die automatisch worden gegenereerd door hun AI-systemen met een hoog risico voor zover dergelijke logs onder hun controle vallen. Onverminderd het toepasselijke Unie- of nationale recht worden deze logs bewaard gedurende een periode, die passend is voor het beoogde doel van het AI-systeem met een hoog risico, van ten minste zes maanden, tenzij anders is bepaald in het toepasselijke Unie- of nationaal recht, met name het Unierecht inzake de bescherming van persoonsgegevens.
(1) Furnizorii de sisteme de IA cu grad ridicat de risc păstrează fișierele de jurnalizare menționate la articolul 12 alineatul (1), generate automat de sistemele de IA cu grad ridicat de risc ale acestora, în măsura în care astfel de fișiere de jurnalizare se află sub controlul lor. Fără a aduce atingere dreptului Uniunii sau dreptului intern aplicabil, fișiere de jurnalizare se păstrează pentru o perioadă adecvată scopului preconizat al sistemului de IA cu grad ridicat de risc, de cel puțin șase luni, cu excepția cazului în care se prevede altfel în dreptul Uniunii sau în dreptul intern aplicabil, în special în dreptul Uniunii privind protecția datelor cu caracter personal.
2. Aanbieders die in de hoedanigheid van financiële instellingen onderworpen zijn aan eisen met betrekking tot hun interne governance, regelingen of processen uit hoofde van het Unierecht inzake financiële diensten, bewaren de automatisch door hun AI-systemen met een hoog risico gegenereerde logs, als onderdeel van de documentatie die bewaard wordt krachtens het desbetreffende recht inzake financiële diensten.
(2) Furnizorii care sunt instituții financiare supuse unor cerințe privind guvernanța lor internă, măsurile sau procesele lor interne în temeiul dreptului Uniunii din domeniul serviciilor financiare păstrează fișierele de jurnalizare generate automat de sistemele lor de IA cu grad ridicat de risc ca parte a documentației păstrate în temeiul dreptului relevant din domeniul serviciilor financiare.
Artikel 20
Articolul 20
Corrigerende maatregelen en mededelingsverplichting
Măsuri corective și obligația de informare
1. Aanbieders van AI-systemen met een hoog risico die van mening zijn of redenen hebben om aan te nemen dat een door hen in de handel gebracht of in gebruik gesteld AI-systeem met een hoog risico niet in overeenstemming is met deze verordening, nemen onmiddellijk de nodige corrigerende maatregelen om dat systeem naargelang het geval in overeenstemming te brengen, uit de handel te nemen, te deactiveren of terug te roepen. Zij stellen de distributeurs van het betrokken AI-systeem met een hoog risico en, indien van toepassing, de gebruiksverantwoordelijken, de gemachtigden en importeurs dienovereenkomstig in kennis.
(1) Furnizorii de sisteme de IA cu grad ridicat de risc care consideră sau au motive să considere că un sistem de IA cu grad ridicat de risc pe care l-au introdus pe piață ori pe care l-au pus în funcțiune nu este în conformitate cu prezentul regulament întreprind imediat măsurile corective necesare pentru ca sistemul să fie adus în conformitate sau să fie retras, dezactivat sau rechemat, după caz. Aceștia informează în acest sens distribuitorii sistemului de IA cu grad ridicat de risc în cauză și, dacă este cazul, implementatorii, reprezentantul autorizat și importatorii.
2. Wanneer het AI-systeem met een hoog risico een risico vormt in de zin van artikel 79, lid 1, en de aanbieder kennis neemt van dat risico, onderzoekt hij onmiddellijk de oorzaken in samenwerking met, in voorkomend geval, de gebruiksverantwoordelijke die het risico heeft gemeld, informeert hij de markttoezichtautoriteiten die bevoegd zijn voor het betrokken AI-systeem met een hoog risico en, in voorkomend geval, de aangemelde instantie die een certificaat voor het AI-systeem met een hoog risico heeft afgegeven overeenkomstig artikel 44, met name over de aard van de non-conformiteit en over eventuele relevante getroffen corrigerende maatregelen.
(2) În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 79 alineatul (1), iar furnizorul ia cunoștință de riscul respectiv, acesta investighează imediat cauzele, în colaborare cu implementatorul care efectuează raportarea, după caz, și informează autoritățile de supraveghere a pieței competente pentru sistemul de IA cu grad ridicat de risc în cauză și, după caz, organismul notificat care a eliberat un certificat pentru sistemul de IA cu grad ridicat de risc respectiv în conformitate cu articolul 44, în special cu privire la natura neconformității și la orice măsură corectivă relevantă întreprinsă.
Artikel 21
Articolul 21
Samenwerking met bevoegde autoriteiten
Cooperarea cu autoritățile competente
1. Op een met redenen omkleed verzoek van een bevoegde autoriteit, verstrekken aanbieders van AI-systemen met een hoog risico die autoriteit alle informatie en documentatie die noodzakelijk is om de overeenstemming van het AI-systeem met een hoog risico met de eisen van afdeling 2 aan te tonen, in een eenvoudig door de instantie te begrijpen en door de betrokken lidstaat gekozen officiële taal van de instellingen van de Unie.
(1) La cererea motivată a unei autorități competente, furnizorii de sisteme de IA cu grad ridicat de risc furnizează autorității respective toate informațiile și documentația necesare pentru a demonstra conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prevăzute în secțiunea 2, într-o limbă care poate fi ușor înțeleasă de către autoritatea respectivă și care este una dintre limbile oficiale ale instituțiilor Uniunii, astfel cum sunt indicate de statul membru în cauză.
2. Op een met redenen omkleed verzoek van een bevoegde autoriteit verlenen aanbieders die verzoekende bevoegde autoriteit, indien van toepassing, toegang tot de in artikel 12, lid 1, bedoelde logs die automatisch zijn gegenereerd door hun AI-systeem met een hoog risico voor zover dergelijke logs onder hun controle vallen.
(2) La cererea motivată a unei autorități competente, furnizorii acordă, de asemenea, autorității competente solicitante, după caz, acces la fișierele de jurnalizare generate automat ale sistemului de IA cu grad ridicat de risc menționate la articolul 12 alineatul (1), în măsura în care respectivele fișiere de jurnalizare se află sub controlul lor.
3. De door de bevoegde autoriteit krachtens dit artikel verkregen informatie en documentatie worden verwerkt overeenkomstig de in artikel 78 vastgestelde vertrouwelijkheidsverplichtingen.
(3) Toate informațiile obținute de autoritățile competente în temeiul prezentului articol sunt tratate în conformitate cu obligațiile de confidențialitate prevăzute la articolul 78.
Artikel 22
Articolul 22
Gemachtigden van aanbieders van AI-systemen met een hoog risico
Reprezentanții autorizați ai furnizorilor de sisteme de IA cu grad ridicat de risc
1. Aanbieders die in derde landen zijn gevestigd, wijzen voordat zij hun AI-systemen met een hoog risico in de Unie in de handel brengen, middels een schriftelijke machtiging een gemachtigde aan die is gevestigd in de Unie.
(1) Înainte de a-și pune la dispoziție sistemele de IA cu grad ridicat de risc pe piața Uniunii, furnizorii stabiliți în țări terțe desemnează, prin mandat scris, un reprezentant autorizat care este stabilit în Uniune.
2. De aanbieder stelt zijn gemachtigde in staat de taken uit te voeren die staan gespecificeerd in het mandaat dat hij van de aanbieder heeft ontvangen.
(2) Furnizorul permite reprezentantului său autorizat să îndeplinească sarcinile prevăzute în mandatul primit de la furnizor.
3. De gemachtigde voert de taken uit die gespecificeerd zijn in het mandaat dat hij van de aanbieder heeft ontvangen. Hij legt op verzoek een kopie van het mandaat over aan de markttoezichtautoriteiten, in een door de bevoegde autoriteit aangegeven officiële taal van de instellingen van de Unie. Voor de toepassing van deze verordening geeft het mandaat de gemachtigde de bevoegdheid om de volgende taken te verrichten:
(3) Reprezentantul autorizat îndeplinește sarcinile prevăzute în mandatul primit de la furnizor. Acesta furnizează autorităților de supraveghere a pieței, la cerere, o copie a mandatului, într-una din limbile oficiale ale instituțiilor Uniunii, astfel cum este indicată de autoritatea competentă. În sensul prezentului regulament, mandatul îl autorizează pe reprezentantul autorizat să îndeplinească următoarele sarcini:
a)
nagaan of de in artikel 47 bedoelde EU-conformiteitsverklaring en de in artikel 11 bedoelde technische documentatie zijn opgesteld en of de aanbieder een passende conformiteits-beoordelingsprocedure heeft uitgevoerd;
(a)
să verifice dacă au fost întocmite declarația de conformitate UE menționată la articolul 47 și documentația tehnică menționată la articolul 11 și dacă furnizorul a desfășurat o procedură corespunzătoare de evaluare a conformității;
b)
gedurende een periode van tien jaar nadat het AI-systeem met een hoog risico in de handel is gebracht of in gebruik is gesteld, de contactgegevens van de aanbieder die de gemachtigde heeft aangewezen alsmede een kopie van de in artikel 47 bedoelde EU-conformiteitsverklaring, de technische documentatie en, in voorkomend geval, het door de aangemelde instantie afgegeven certificaat, ter beschikking houden van de bevoegde autoriteiten en de in artikel 74, lid 10, bedoelde nationale autoriteiten of organen;
(b)
să păstreze la dispoziția autorităților competente și a autorităților sau organismelor naționale menționate la articolul 74 alineatul (10), pentru o perioadă de 10 ani de la introducerea pe piață sau punerea în funcțiune a sistemului de IA cu grad ridicat de risc, datele de contact ale furnizorului care a desemnat reprezentantul autorizat, o copie a declarației de conformitate UE menționată la articolul 47, documentația tehnică și, dacă este cazul, certificatul eliberat de organismul notificat;
c)
een bevoegde autoriteit op met redenen omkleed verzoek alle informatie en documentatie verstrekken, met inbegrip van de in punt b) van deze alinea bedoelde documentatie, die noodzakelijk is om de overeenstemming van een AI-systeem met een hoog risico met de eisen van afdeling 2 aan te tonen, met inbegrip van de in artikel 12, lid 1, bedoelde logs die automatisch zijn gegenereerd door het AI-systeem met een hoog risico voor zover dergelijke logs onder de controle van de aanbieder vallen;
(c)
să furnizeze unei autorități competente, pe baza unei cereri motivate, toate informațiile și documentația, inclusiv cele menționate la litera (b) de la prezentul paragraf, necesare pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în secțiunea 2, inclusiv accesul la fișierele de jurnalizare, astfel cum sunt menționate la articolul 12 alineatul (1), generate automat de sistemul de IA cu grad ridicat de risc, în măsura în care aceste fișiere de jurnalizare se află sub controlul furnizorului;
d)
op met redenen omkleed verzoek samenwerken met bevoegde autoriteiten met betrekking tot alle maatregelen die door deze autoriteiten worden getroffen in verband met het AI-systeem met een hoog risico, met name om de risico’s van dat systeem te verminderen en te beperken;
(d)
să coopereze cu autoritățile competente, în urma unei cereri motivate, cu privire la orice acțiune întreprinsă de acestea din urmă în legătură cu sistemul de IA cu grad ridicat de risc, în special pentru a reduce și a atenua riscurile prezentate de sistemul de IA cu grad ridicat de risc;
e)
waar toepasselijk, voldoen aan de in artikel 49, lid 1, bedoelde registratieverplichtingen of, indien de registratie door de aanbieder zelf wordt uitgevoerd, waarborgen dat de in bijlage VIII, afdeling A, punt 3, bedoelde informatie juist is.
(e)
după caz, să respecte obligațiile de înregistrare menționate la articolul 49 alineatul (1) sau, dacă înregistrarea este efectuată chiar de furnizor, să se asigure că informațiile menționate la secțiunea A punctul 3 din anexa VIII sunt corecte.
Door het mandaat wordt de gemachtigde aangesteld als aanspreekpunt, naast of in plaats van de aanbieder, voor de bevoegde autoriteiten, met betrekking tot alle vraagstukken die verband houden met het waarborgen van de naleving van deze verordening.
Mandatul împuternicește reprezentantul autorizat să fie contactat, în afara sau în locul furnizorului, de către autoritățile competente, cu referire la toate aspectele legate de asigurarea conformității cu prezentul regulament.
4. De gemachtigde beëindigt het mandaat indien hij van mening is of redenen heeft om aan te nemen dat de aanbieder in strijd met zijn verplichtingen op grond van deze verordening handelt. Hij stelt daar dan, met opgave van redenen, de relevante markttoezichtautoriteit onmiddellijk van in kennis, alsmede, in voorkomend geval, de relevante aangemelde instantie.
(4) Reprezentantul autorizat își reziliază mandatul dacă consideră sau are motive să considere că furnizorul acționează contrar obligațiilor care îi revin în temeiul prezentului regulament. Într-un astfel de caz, el informează imediat autoritatea relevantă de supraveghere a pieței, precum și, după caz, organismul notificat relevant, cu privire la rezilierea mandatului și la motivele acesteia.
Artikel 23
Articolul 23
Verplichtingen van importeurs
Obligațiile importatorilor
1. Alvorens een AI-systeem met een hoog risico in de handel wordt gebracht, zorgen de importeurs ervoor dat het systeem in overeenstemming is met deze verordening door na te gaan of:
(1) Înainte de introducerea pe piață a unui sistem de IA cu grad ridicat de risc, importatorii unui astfel de sistem se asigură că sistemul este în conformitate cu prezentul regulament, verificând dacă:
a)
de relevante conformiteitsbeoordelingsprocedure als bedoeld in artikel 43 is uitgevoerd door de aanbieder van het AI-systeem met een hoog risico;
(a)
procedura relevantă de evaluare a conformității menționată la articolul 43 a fost efectuată de furnizorul sistemului de IA cu grad ridicat de risc;
b)
de aanbieder de technische documentatie heeft opgesteld in overeenstemming met artikel 11 en bijlage IV;
(b)
furnizorul a întocmit documentația tehnică în conformitate cu articolul 11 și cu anexa IV;
c)
de vereiste CE-markering op het systeem is aangebracht en het systeem vergezeld gaat van de in artikel 47 bedoelde EU-conformiteitsverklaring en gebruiksaanwijzingen;
(c)
sistemul poartă marcajul CE necesar și este însoțit de declarația de conformitate UE menționată la articolul 47 și de instrucțiunile de utilizare;
d)
de aanbieder een gemachtigde heeft aangewezen, in overeenstemming met artikel 22, lid 1.
(d)
furnizorul a desemnat un reprezentant autorizat în conformitate cu articolul 22 alineatul (1).
2. Ingeval een importeur afdoende redenen heeft om aan te nemen dat een AI-systeem met een hoog risico niet in overeenstemming is met deze verordening, vervalst is of vergezeld gaat van vervalste documenten, brengt hij het systeem niet in de handel voordat het in overeenstemming is gebracht. Wanneer het AI-systeem met een hoog risico een risico vormt in de zin van artikel 79, lid 1, stelt de importeur de aanbieder van het systeem, de gemachtigden, en de markttoezichtautoriteiten hiervan in kennis.
(2) În cazul în care un importator are suficiente motive să considere că un sistem de IA cu grad ridicat de risc nu este în conformitate cu prezentul regulament, sau este falsificat ori însoțit de o documentație falsificată, acesta nu introduce sistemul respectiv pe piață înainte de a fi adus în conformitate. În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 79 alineatul (1), importatorul informează în acest sens furnizorul sistemului, reprezentanții autorizați și autoritățile de supraveghere a pieței.
3. Importeurs vermelden hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres voor het AI-systeem met een hoog risico op de verpakking of in de bij het product gevoegde documentatie, indien van toepassing.
(3) Importatorii indică numele lor, denumirea lor comercială înregistrată sau marca lor înregistrată și adresa la care pot fi contactați în privința sistemului de IA cu grad ridicat de risc și pe ambalajul acestuia sau în documentele care îl însoțesc, dacă este cazul.
4. Importeurs zorgen gedurende de periode dat zij voor een AI-systeem met een hoog risico verantwoordelijk zijn voor opslag- en vervoersomstandigheden, indien van toepassing, die de overeenstemming van het systeem met de eisen van afdeling 2 niet in het gedrang brengen.
(4) Importatorii se asigură că, pe întreaga perioadă în care un sistem de IA cu grad ridicat de risc se află în responsabilitatea lor, condițiile de depozitare sau de transport, după caz, nu periclitează conformitatea sa cu cerințele prevăzute în secțiunea 2.
5. Importeurs bewaren gedurende een periode van tien jaar nadat het AI-systeem met een hoog risico in de handel is gebracht of in gebruik is gesteld, een kopie van het door de aangemelde instantie afgegeven certificaat, en in voorkomend geval tevens een kopie van de gebruiksaanwijzing en van de in artikel 47 bedoelde EU-conformiteitsverklaring.
(5) Importatorii păstrează, timp de 10 ani de la introducerea pe piață sau punerea în funcțiune a sistemului de IA cu grad ridicat de risc, o copie a certificatului eliberat de organismul notificat, după caz, a instrucțiunilor de utilizare și a declarației de conformitate UE menționată la articolul 47.
6. Importeurs verstrekken ter staving van de conformiteit van een AI-systeem met een hoog risico met de eisen van afdeling 2, de relevante bevoegde autoriteiten op met redenen omkleed verzoek alle nodige informatie en documentatie, met inbegrip van de in lid 5 bedoelde informatie en documentatie, in een gemakkelijk voor die autoriteit te begrijpen taal. Hiertoe zorgen zij er tevens voor dat aan deze autoriteiten de technische documentatie ter beschikking kan worden gesteld.
(6) Importatorii furnizează autorităților competente relevante, pe baza unei cereri motivate, toate informațiile și documentația necesare, inclusiv cele menționate la alineatul (5), pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în secțiunea 2, într-o limbă care poate fi ușor înțeleasă de acestea. În acest scop, aceștia se asigură, de asemenea, că documentația tehnică poate fi pusă la dispoziția autorităților respective.
7. Importeurs werken met de relevante bevoegde autoriteiten samen met betrekking tot alle maatregelen die door deze autoriteiten worden getroffen in verband met het AI-systeem met een hoog risico dat door de importeurs in de handel is gebracht, met name om de risico’s van dat systeem te verminderen en te beperken.
(7) Importatorii cooperează cu autoritățile competente relevante cu privire la orice acțiune întreprinsă de autoritățile respective în legătură cu un sistem de IA cu grad ridicat de risc introdus pe piață de importatori, în special pentru a reduce sau a atenua riscurile prezentate de acesta.
Artikel 24
Articolul 24
Verplichtingen van distributeurs
Obligațiile distribuitorilor
1. Voordat zij een AI-systeem met een hoog risico op de markt aanbieden, controleren distributeurs of daarop de vereiste CE-markering is aangebracht, of het systeem vergezeld gaat van de in artikel 47 bedoelde EU-conformiteitsverklaring en gebruiksinstructies en of de aanbieder en importeur van dat systeem, naargelang het geval, hun respectievelijke verplichtingen als vastgelegd in artikel 16, punten b) en c), en artikel 23, lid 3, hebben nageleefd.
(1) Înainte de a pune la dispoziție pe piață un sistem de IA cu grad ridicat de risc, distribuitorii verifică dacă acesta poartă marcajul CE necesar, dacă este însoțit de o copie a declarației de conformitate UE menționată la articolul 47 și de instrucțiunile de utilizare și dacă furnizorul și importatorul sistemului respectiv, după caz, au respectat obligațiile lor respective prevăzute la articolul 16 literele (b) și (c) și la articolul 23 alineatul (3).
2. Wanneer een distributeur van mening is of redenen heeft om, op grond van de informatie waarover hij beschikt, aan te nemen dat een AI-systeem met een hoog risico niet in overeenstemming is met de eisen van afdeling 2, brengt hij het AI-systeem met een hoog risico niet in de handel voordat het in overeenstemming is gebracht met deze eisen. Daarnaast stelt de distributeur, wanneer het AI-systeem met een hoog risico een risico vormt in de zin van artikel 79, lid 1, de aanbieder of de importeur van het AI-systeem, naargelang als van toepassing, hiervan in kennis.
(2) În cazul în care un distribuitor consideră sau are motive să considere, pe baza informațiilor pe care le deține, că un sistem de IA cu grad ridicat de risc nu este în conformitate cu cerințele prevăzute în secțiunea 2, acesta nu pune la dispoziție pe piață sistemul de IA cu grad ridicat de risc înainte ca sistemul să fie adus în conformitate cu cerințele respective. În plus, în cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 79 alineatul (1), distribuitorul informează furnizorul sau importatorul sistemului, după caz, în acest sens.
3. Distributeurs zorgen gedurende de periode waarin zij voor een AI-systeem met een hoog risico verantwoordelijk zijn voor opslag- en vervoersomstandigheden, indien van toepassing, die de overeenstemming van het systeem met de eisen van afdeling 2 niet in het gedrang brengen.
(3) Distribuitorii se asigură că, atât timp cât un sistem de IA cu grad ridicat de risc se află în responsabilitatea lor, condițiile de depozitare sau de transport, după caz, nu periclitează conformitatea sistemului cu cerințele prevăzute în secțiunea 2.
4. Een distributeur die van mening is of redenen heeft om, op grond van de informatie waarover hij beschikt, aan te nemen dat een AI-systeem met een hoog risico dat hij op de markt heeft aangeboden, niet in overeenstemming is met de eisen van afdeling 2, neemt de noodzakelijke corrigerende maatregelen om dat systeem in overeenstemming te brengen met deze eisen, uit de handel te nemen of terug te roepen of zorgt ervoor dat de aanbieder, de importeur of een eventuele betrokken operator, waar passend, dergelijke corrigerende maatregelen treft. Indien het AI-systeem met een hoog risico een risico vormt in de zin van artikel 79, lid 1, stelt de distributeur de aanbieder of importeur van het systeem en de autoriteiten die bevoegd zijn voor het betreffende AI-systeem met een hoog risico hiervan onmiddellijk in kennis, waarbij hij in het bijzonder de non-conformiteit en de eventueel getroffen corrigerende maatregelen uitvoerig beschrijft.
(4) Un distribuitor care consideră sau are motive să considere, pe baza informațiilor pe care le deține, că un sistem de IA cu grad ridicat de risc pe care l-a pus la dispoziție pe piață nu este în conformitate cu cerințele prevăzute în secțiunea 2 ia măsurile corective necesare pentru a aduce sistemul în conformitate cu cerințele respective, pentru a-l retrage sau pentru a-l rechema sau se asigură că furnizorul, importatorul sau orice operator relevant, după caz, ia măsurile corective respective. În cazul în care sistemul de IA cu grad ridicat de risc prezintă un risc în sensul articolului 79 alineatul (1), distribuitorul informează imediat în acest sens furnizorul sau importatorul sistemului și autoritățile competente pentru sistemul de IA cu grad ridicat de risc în cauză, oferind informații detaliate, în special despre neconformitate și orice măsură corectivă întreprinsă.
5. Op een met redenen omkleed verzoek van een relevante bevoegde autoriteit verstrekken distributeurs van een AI-systeem met een hoog risico die autoriteit alle informatie en documentatie met betrekking tot de op grond van de leden 1 tot en met 4 door hen genomen maatregelen die nodig zijn om aan te tonen dat het systeem voldoet aan de eisen van afdeling 2.
(5) Pe baza unei cereri motivate a unei autorități competente relevante, distribuitorii unor sisteme de IA cu grad ridicat de risc furnizează autorității respective toate informațiile și documentația referitoare la acțiunile lor în temeiul alineatelor (1)-(4), necesare pentru a demonstra conformitatea respectivelor sisteme cu grad ridicat de risc cu cerințele prevăzute în secțiunea 2.
6. Distributeurs werken met de relevante bevoegde autoriteiten samen met betrekking tot alle maatregelen die door deze autoriteiten worden getroffen in verband met het AI-systeem met een hoog risico dat door de distributeurs op de markt is aangeboden, met name om de risico’s van dat systeem te verminderen of te beperken.
(6) Distribuitorii cooperează cu autoritățile competente relevante cu privire la orice acțiune întreprinsă de autoritățile respective în legătură cu un sistem de IA cu grad ridicat de risc pus la dispoziție pe piață de distribuitori, în special pentru a reduce sau a atenua riscul prezentat de acesta.
Artikel 25
Articolul 25
Verantwoordelijkheden in de AI-waardeketen
Responsabilitățile de-a lungul lanțului valoric al IA
1. In de volgende omstandigheden wordt een distributeur, importeur, gebruiksverantwoordelijke of derde voor de toepassing van deze verordening beschouwd als een aanbieder van een AI-systeem met een hoog risico en is hij onderworpen aan de verplichtingen van de aanbieder uit hoofde van artikel 16:
(1) Se consideră că orice distribuitor, importator, implementator sau altă parte terță este furnizor al unui sistem de IA cu grad ridicat de risc în sensul prezentului regulament și este supus obligațiilor care îi revin furnizorului în temeiul articolului 16, în oricare dintre următoarele situații:
a)
hij zet zijn naam of merk op een AI-systeem met een hoog risico dat reeds in de handel is gebracht of in gebruik is gesteld, onverminderd contractuele regelingen waarin wordt bepaald dat de verplichtingen anders worden toegewezen;
(a)
își aplică numele sau marca comercială pe un sistem de IA cu grad ridicat de risc deja introdus pe piață sau pus în funcțiune, fără a aduce atingere dispozițiilor contractuale care prevăd o repartizare diferită a obligațiilor;
b)
hij brengt een substantiële wijziging aan in een AI-systeem met een hoog risico dat reeds in de handel is gebracht of reeds in gebruik is gesteld op zodanige wijze dat het systeem een AI-systeem met een hoog risico blijft op grond van artikel 6;
(b)
modifică substanțial un sistem de IA cu grad ridicat de risc care a fost deja introdus pe piață sau a fost deja pus în funcțiune, astfel încât acesta rămâne un sistem de IA cu grad ridicat de risc în temeiul articolului 6;
c)
hij wijzigt het beoogde doel van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, dat niet als een systeem met een hoog risico is geclassificeerd en reeds in de handel is gebracht of in gebruik is gesteld, op zodanige wijze dat het betrokken AI-systeem een AI-systeem met een hoog risico overeenkomstig artikel 6 wordt.
(c)
modifică scopul preconizat al un sistem de IA, inclusiv al unui sistem IA de uz general, care nu a fost clasificat ca prezentând un grad ridicat de risc și a fost deja introdus pe piață sau pus în funcțiune, astfel încât sistemul de IA în cauză devine un sistem IA cu grad ridicat de risc în conformitate cu articolul 6.
2. Wanneer sprake is van de in lid 1 bedoelde omstandigheden, wordt de aanbieder die het AI-systeem voor het eerst in de handel heeft gebracht of in gebruik heeft gesteld, niet langer beschouwd als aanbieder van dat specifieke AI-systeem voor de toepassing van deze verordening. Die oorspronkelijke aanbieder werkt nauw samen met nieuwe aanbieders, stelt de nodige informatie beschikbaar en verstrekt de redelijkerwijs verwachte technische toegang en andere bijstand die nodig zijn om te voldoen aan de verplichtingen van deze verordening, met name wat betreft de naleving van de conformiteitsbeoordeling van AI-systemen met een hoog risico. Dit lid is niet van toepassing in gevallen waarin de oorspronkelijke aanbieder duidelijk heeft aangegeven dat zijn AI-systeem niet mag worden gewijzigd in een AI-systeem met een hoog risico en derhalve niet onder de verplichting valt om de documentatie te verstrekken.
(2) În cazul în care se produc circumstanțele menționate la alineatul (1), furnizorul care a introdus inițial pe piață sau a pus în funcțiune sistemul de IA nu mai este considerat furnizorul respectivului sistem de IA în sensul prezentului regulament. Acest furnizor inițial cooperează îndeaproape cu noii furnizori și pune la dispoziție informațiile necesare și oferă accesul tehnic și alte tipuri de asistență preconizate în mod rezonabil care sunt necesare pentru îndeplinirea obligațiilor prevăzute în prezentul regulament, în special în ceea ce privește respectarea cerințelor privind evaluarea conformității sistemelor de IA cu grad ridicat de risc. Prezentul alineat nu se aplică în cazurile în care furnizorul inițial a specificat în mod clar că sistemul său de IA nu trebuie transformat într-un sistem de IA cu grad ridicat de risc și, prin urmare, nu intră sub incidența obligației de a preda documentația.
3. Bij AI-systemen met een hoog risico die veiligheidscomponenten van producten zijn die vallen onder de in bijlage I, afdeling A, genoemde harmonisatiewetgeving van de Unie, wordt de productfabrikant beschouwd als de aanbieder van het AI-systeem met een hoog risico en is hij onderworpen aan de verplichtingen krachtens artikel 16 in een van de volgende situaties:
(3) În cazul sistemelor de IA cu grad ridicat de risc care sunt componente de siguranță ale unor produse cărora li se aplică actele legislative de armonizare ale Uniunii care figurează în anexa I secțiunea A, fabricantul produselor respective este considerat furnizorul sistemului de IA cu grad ridicat de risc și este supus obligațiilor menționate la articolul 16 în oricare dintre următoarele situații:
a)
het AI-systeem met een hoog risico wordt samen met het product onder de naam of het merk van de productfabrikant in de handel gebracht;
(a)
sistemul de IA cu grad ridicat de risc este introdus pe piață împreună cu produsul sub numele sau marca comercială a fabricantului produsului;
b)
het AI-systeem met een hoog risico wordt onder de naam of het merk van de productfabrikant in gebruik gesteld nadat het product in de handel is gebracht.
(b)
sistemul de IA cu grad ridicat de risc este pus în funcțiune sub numele sau marca comercială a fabricantului produsului după ce produsul a fost introdus pe piață.
4. De aanbieder van een AI-systeem met een hoog risico en de derde partij die instrumenten, diensten, onderdelen of processen voor AI-systemen levert die worden gebruikt of geïntegreerd in een AI-systeem met een hoog risico, preciseren in een schriftelijke overeenkomst de nodige informatie, capaciteiten, technische toegang en andere bijstand, op basis van de algemeen erkende stand van de techniek, om de aanbieder van het AI-systeem met een hoog risico in staat te stellen volledig te voldoen aan de verplichtingen van deze verordening. Dit lid is niet van toepassing op derden die andere instrumenten, diensten, processen of onderdelen dan AI-modellen voor algemene doeleinden onder een vrije en opensource licentie toegankelijk maken voor het publiek.
(4) Furnizorul unui sistem de IA cu grad ridicat de risc și partea terță care furnizează un sistem de IA, instrumente, servicii, componente sau procese care sunt utilizate sau integrate într-un sistem de IA cu grad ridicat de risc specifică, printr-un acord scris, pe baza stadiului de avansare general recunoscut al tehnologiei, informațiile, capabilitățile, accesul tehnic și alte tipuri de asistență necesare pentru a permite furnizorului sistemului de IA cu grad ridicat de risc să respecte întru totul obligațiile prevăzute în prezentul regulament. Prezentul alineat nu se aplică terților care pun la dispoziția publicului instrumente, servicii, procese sau componente, în afara modelelor de IA de uz general, sub licență liberă și deschisă.
Het AI-bureau kan vrijwillige modelvoorwaarden ontwikkelen en aanbevelen voor contracten tussen aanbieders van AI-systemen met een hoog risico en derden die instrumenten, diensten, componenten of processen leveren die worden gebruikt of geïntegreerd in AI-systemen met een hoog risico. Bij de ontwikkeling van die vrijwillige modelvoorwaarden moet het AI-bureau rekening houden met de contractuele eisen die kunnen gelden in specifieke sectoren of businesscases. De vrijwillige modelvoorwaarden worden gepubliceerd en kosteloos beschikbaar gesteld in een gemakkelijk bruikbaar elektronisch formaat.
Oficiul pentru IA poate elabora și recomanda un model voluntar de clauze pentru contractele dintre furnizorii de sisteme de IA cu grad ridicat de risc și părțile terțe care furnizează instrumente, servicii, componente sau procese care sunt utilizate sau integrate în sistemele de IA cu grad ridicat de risc. Atunci când elaborează modelul voluntar de clauze, Oficiul pentru IA ia în considerare eventualele cerințe contractuale aplicabile în anumite sectoare sau situații economice. Modelul voluntar de clauze se publică și este disponibil gratuit într-un format electronic ușor de utilizat.
5. De leden 2 en 3 doen geen afbreuk aan de noodzaak om intellectuele-eigendomsrechten, vertrouwelijke bedrijfsinformatie en bedrijfsgeheimen te eerbiedigen en te beschermen overeenkomstig het Unierecht en het nationale recht.
(5) Alineatele (2) și (3) nu aduc atingere necesității de a respecta și de a proteja drepturile de proprietate intelectuală și informațiile comerciale confidențiale sau secretele comerciale în conformitate cu dreptul Uniunii și cu dreptul intern.
Artikel 26
Articolul 26
Verplichtingen van gebruiksverantwoordelijken van AI-systemen met een hoog risico
Obligațiile implementatorilor de sisteme de IA cu grad ridicat de risc
1. Gebruiksverantwoordelijken van AI-systemen met een hoog risico nemen passende technische en organisatorische maatregelen om te waarborgen dat zij dergelijke systemen gebruiken in overeenstemming met de gebruiksaanwijzingen die bij de systemen zijn gevoegd, op grond van de leden 3 en 6.
(1) Implementatorii sistemelor de IA cu grad ridicat de risc iau măsuri tehnice și organizatorice corespunzătoare pentru a oferi siguranța că utilizează astfel de sisteme în conformitate cu instrucțiunile de utilizare care însoțesc sistemele, în temeiul alineatelor (3) și (6).
2. Gebruiksverantwoordelijken dragen het menselijk toezicht op aan natuurlijke personen die over de nodige bekwaamheid, opleiding en autoriteit beschikken en de nodige ondersteuning krijgen.
(2) Implementatorii încredințează supravegherea umană unor persoane fizice care au competența, formarea și autoritatea necesare, precum și sprijinul necesar.
3. De verplichtingen van de leden 1 en 2 doen geen afbreuk aan andere verplichtingen van gebruiksverantwoordelijken op grond van het Unie- of nationaal recht en aan de vrijheid van gebruiksverantwoordelijken om hun eigen middelen en activiteiten te organiseren voor de uitvoering van de maatregelen inzake menselijk toezicht zoals aangegeven door de aanbieder.
(3) Obligațiile de la alineatele (1) și (2) nu aduc atingere altor obligații ale implementatorilor în temeiul dreptului Uniunii sau al dreptului intern și nici libertății implementatorilor de a-și organiza propriile resurse și activități în scopul punerii în aplicare a măsurilor de supraveghere umană indicate de furnizor.
4. Onverminderd de leden 1 en 2 zorgt de gebruiksverantwoordelijke, voor zover hij controle heeft over de inputdata, ervoor dat de inputdata relevant en voldoende representatief zijn voor het beoogde doel van het AI-systeem met een hoog risico.
(4) Fără a aduce atingere alineatelor (1) și (2), în măsura în care exercită controlul asupra datelor de intrare, implementatorul se asigură că datele de intrare sunt relevante și suficient de reprezentative în raport cu scopul preconizat al sistemului de IA cu grad ridicat de risc.
5. Gebruiksverantwoordelijken monitoren de werking van het AI-systeem met een hoog risico op basis van de gebruiksaanwijzingen en stellen in voorkomend geval de aanbieders in kennis overeenkomstig artikel 72. Wanneer gebruiksverantwoordelijken redenen hebben om aan te nemen dat het gebruik overeenkomstig de gebruiksaanwijzingen ertoe kan leiden dat dat AI-systeem een risico vormt in de zin van artikel 79, lid 1, stellen zij de aanbieder of distributeur en de betreffende markttoezichtautoriteit hiervan zonder onnodige vertraging in kennis en onderbreken zij het gebruik van dat systeem. Wanneer gebruiksverantwoordelijke een ernstig incident vaststellen, stellen zij ook onmiddellijk eerst de aanbieder hiervan in kennis, en vervolgens de importeur of distributeur en de betreffende markttoezichtautoriteiten van dat incident. Wanneer de gebruiksverantwoordelijke de aanbieder niet kan bereiken, is artikel 73 mutatis mutandis van toepassing. Deze verplichting geldt niet voor gevoelige operationele gegevens van gebruiksverantwoordelijke van AI-systemen die de hoedanigheid van rechtshandhavingsinstanties hebben.
(5) Implementatorii monitorizează funcționarea sistemului de IA cu grad ridicat de risc pe baza instrucțiunilor de utilizare și, atunci când este cazul, informează furnizorii în conformitate cu articolul 72. În cazul în care au motive să considere că utilizarea sistemului de IA cu grad ridicat de risc în conformitate cu instrucțiunile poate conduce la situația în care sistemul de IA respectiv prezintă un risc în sensul articolului 79 alineatul (1), implementatorii informează fără întârzieri nejustificate furnizorul sau distribuitorul și autoritatea relevantă de supraveghere a pieței și suspendă utilizarea sistemului respectiv. De asemenea, în cazul în care au identificat un incident grav, implementatorii informează imediat mai întâi furnizorul, și apoi importatorul sau distribuitorul și autoritățile relevante de supraveghere a pieței cu privire la incidentul respectiv. În cazul în care implementatorul nu poate comunica cu furnizorul, articolul 73 se aplică mutatis mutandis. Această obligație nu vizează datele operaționale sensibile ale implementatorilor sistemelor de IA care sunt autorități de aplicare a legii.
Voor gebruiksverantwoordelijke die in de hoedanigheid van financiële instellingen onderworpen zijn aan eisen met betrekking tot hun interne governance, regelingen of processen uit hoofde van het Unierecht inzake financiële diensten, wordt de monitoringsverplichting overeenkomstig de eerste alinea geacht te zijn vervuld door te voldoen aan de regels inzake interne governance, regelingen of processen en -mechanismen uit hoofde van het desbetreffende recht inzake financiële diensten.
În cazul implementatorilor care sunt instituții financiare supuse unor cerințe privind guvernanța internă, măsurile sau procesele interne în temeiul dreptului Uniunii din domeniul serviciilor financiare, se consideră că obligația de monitorizare prevăzută la primul paragraf este îndeplinită prin respectarea normelor privind mecanismele, procesele și măsurile de guvernanță internă în temeiul dreptului relevant din domeniul serviciilor financiare.
6. Gebruiksverantwoordelijken van AI-systemen met een hoog risico bewaren de logs die automatisch worden gegenereerd door dat AI-systeem met een hoog risico voor zover dergelijke logs onder hun controle vallen gedurende een periode die passend is voor het beoogde doel van het AI-systeem met een hoog risico, of ten minste zes maanden, tenzij anders is bepaald in het toepasselijke Unie- of nationaal recht, meer in het bijzonder het Unierecht over de bescherming van persoonsgegevens.
(6) Implementatorii sistemelor de IA cu grad ridicat de risc păstrează fișierele de jurnalizare generate automat de respectivele sisteme de IA cu grad ridicat de risc, în măsura în care aceste fișiere de jurnalizare se află sub controlul lor pentru o perioadă adecvată scopului preconizat al sistemului de IA cu grad ridicat de risc, de cel puțin șase luni, cu excepția cazului în care se prevede altfel în dreptul Uniunii sau în dreptul intern aplicabil, în special în dreptul Uniunii privind protecția datelor cu caracter personal.
Gebruiksverantwoordelijken die in de hoedanigheid van financiële instellingen onderworpen zijn aan eisen met betrekking tot hun interne governance, regelingen of processen uit hoofde van het Unierecht inzake financiële diensten, bewaren de logs als onderdeel van de documentatie die bewaard wordt krachtens het desbetreffende Unierecht inzake financiële diensten.
Implementatorii care sunt instituții financiare supuse unor cerințe privind guvernanța internă, măsurile sau procesele interne în temeiul dreptului Uniunii din domeniul serviciilor financiare păstrează fișierele de jurnalizare ca parte a documentației păstrate în temeiul dreptului relevant al Uniunii din domeniul serviciilor financiare.
7. Voordat een AI-systeem met een hoog risico op de werkplek in gebruik wordt gesteld of wordt gebruikt, delen gebruiksverantwoordelijken die werkgever zijn werknemersvertegenwoordigers en de betrokken werknemers mee dat zij zullen worden onderworpen aan het gebruik van het AI-systeem met een hoog risico. Deze informatie wordt, indien van toepassing, verstrekt in overeenstemming met de in het Unie- en nationaal recht vastgelegde regels en procedures en de praktijk inzake informatie van werknemers en hun vertegenwoordigers.
(7) Înainte de a pune în funcțiune sau de a utiliza un sistem de IA cu grad ridicat de risc la locul de muncă, implementatorii care sunt angajatori informează reprezentanții lucrătorilor și lucrătorii afectați că vor fi implicați în utilizarea sistemului de IA cu grad ridicat de risc. Informațiile respective sunt furnizate, după caz, în conformitate cu normele și procedurile prevăzute în dreptul și practicile de la nivelul Uniunii și de la nivel național privind informarea lucrătorilor și a reprezentanților acestora.
8. Gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis.
(8) Implementatorii sistemelor de IA cu grad ridicat de risc care sunt autorități publice sau instituții, organe, oficii sau agenții ale Uniunii respectă obligațiile de înregistrare menționate la articolul 49. În cazul în care constată că sistemul de IA cu grad ridicat de risc pe care intenționează să îl utilizeze nu a fost înregistrat în baza de date a UE menționată la articolul 71, implementatorii respectivi nu utilizează sistemul respectiv și informează furnizorul sau distribuitorul.
9. Indien van toepassing, gebruiken gebruiksverantwoordelijken van AI-systemen met een hoog risico de informatie die op grond van artikel 13 van deze verordening wordt verstrekt om hun verplichting na te komen om een gegevensbeschermingseffectbeoordeling uit te voeren op grond van artikel 35 van Verordening (EU) 2016/679 of artikel 27 van Richtlijn (EU) 2016/680.
(9) După caz, implementatorii de sisteme de IA cu grad ridicat de risc utilizează informațiile furnizate în temeiul articolului 13 din prezentul regulament pentru a-și respecta obligația de a efectua o evaluare a impactului asupra protecției datelor în temeiul articolului 35 din Regulamentul (UE) 2016/679 sau al articolului 27 din Directiva (UE) 2016/680.
10. Onverminderd Richtlijn (EU) 2016/680 verzoekt de gebruiksverantwoordelijke van een AI-systeem met een hoog risico voor biometrische identificatie op afstand achteraf in het kader van een onderzoek waarbij gericht wordt gezocht naar een persoon die wordt verdacht van of veroordeeld is voor het plegen van een strafbaar feit, vooraf of zonder onnodige vertraging en uiterlijk 48 uur na het feit, om toestemming van een gerechtelijke instantie of administratieve instantie, van wie de beslissing bindend is en onderworpen is aan rechterlijke toetsing, voor het gebruik van dat systeem, behalve wanneer het wordt gebruikt voor de initiële identificatie van een potentiële verdachte op basis van objectieve en verifieerbare feiten die rechtstreeks verband houden met het strafbare feit. Elk gebruik wordt beperkt tot hetgeen strikt noodzakelijk is voor het onderzoek naar een specifiek strafbaar feit.
(10) Fără a aduce atingere Directivei (UE) 2016/680, în cadrul unei investigații pentru căutarea în mod specific a unei persoane suspectate sau condamnate de a fi comis o infracțiune, implementatorul unui sistem de IA cu grad ridicat de risc pentru identificarea biometrică la distanță ulterioară solicită o autorizație, ex ante sau fără întârzieri nejustificate și în termen de cel mult 48 de ore, din partea unei autorități judiciare sau a unei autorități administrative a cărei decizie are efect obligatoriu și face obiectul controlului jurisdicțional, pentru utilizarea sistemului respectiv, cu excepția cazului în care este utilizat pentru identificarea inițială a unui potențial suspect pe baza unor fapte obiective și verificabile legate direct de infracțiune. Fiecare utilizare se limitează la ceea ce este strict necesar pentru investigarea unei anumite infracțiuni.
Indien de op grond van de eerste alinea verzochte toestemming wordt geweigerd, wordt het gebruik van het systeem voor biometrische identificatie op afstand achteraf dat verband houdt met de verzochte toestemming met onmiddellijke ingang stopgezet en worden de persoonsgegevens die verband houden met het gebruik van het AI-systeem met een hoog risico waarvoor de toestemming is gevraagd, gewist.
În cazul în care autorizația solicitată în temeiul primului paragraf este respinsă, utilizarea sistemului de identificare biometrică la distanță ulterioară legat de autorizația solicitată respectivă se oprește cu efect imediat, iar datele cu caracter personal legate de utilizarea sistemului de IA cu grad ridicat de risc pentru care a fost solicitată autorizația se șterg.
Een dergelijk AI-systeem met een hoog risico voor biometrische identificatie op afstand achteraf mag in geen geval op niet-gerichte wijze worden gebruikt voor rechtshandhavingsdoeleinden, zonder enig verband met een strafbaar feit, een strafrechtelijke procedure, een werkelijke en actuele of werkelijke en te verwachten dreiging van een strafbaar feit, of zoektocht naar een specifieke vermiste persoon. Er moet voor worden gezorgd dat rechtshandhavingsinstanties geen enkel besluit met nadelige rechtsgevolgen voor een persoon mogen nemen op basis van uitsluitend de output van dergelijke systemen voor biometrische identificatie op afstand achteraf.
În niciun caz, un astfel de sistem de IA cu grad ridicat de risc pentru identificarea biometrică la distanță ulterioară nu se utilizează într-un mod nedirecționat în scopul aplicării legii, dacă nu implică nicio legătură cu o infracțiune, cu o procedură penală, cu o amenințare reală și prezentă sau reală și previzibilă vizând o infracțiune sau căutarea unei anumite persoane dispărute. Se asigură faptul că autoritățile de aplicare a legii nu pot lua nicio decizie care produce un efect juridic negativ asupra unei persoane exclusiv pe baza rezultatelor unor astfel de sisteme de identificare biometrică la distanță ulterioară.
Deze alinea doet geen afbreuk aan artikel 9 van Verordening (EU) 2016/679 en artikel 10 van Richtlijn (EU) 2016/680 voor de verwerking van biometrische gegevens.
Prezentul alineat nu aduce atingere dispozițiilor de la articolul 9 din Regulamentul (UE) 2016/679 și de la articolul 10 din Directiva (UE) 2016/680 privind prelucrarea datelor biometrice.
Ongeacht het doel of de gebruiksverantwoordelijke wordt elk gebruik van dergelijke AI-systemen met een hoog risico gedocumenteerd in het desbetreffende politiedossier en op verzoek ter beschikking gesteld van de relevante markttoezichtautoriteit en de nationale gegevensbeschermingsautoriteit, met uitzondering van gevoelige operationele gegevens in verband met rechtshandhaving. Deze alinea doet geen afbreuk aan de bij Richtlijn (EU) 2016/680 aan de toezichthoudende autoriteiten verleende bevoegdheden.
Indiferent de scop sau de implementator, fiecare utilizare a acestor sisteme de IA cu grad ridicat de risc este documentată în dosarul relevant al poliției și este pusă la dispoziția autorității relevante de supraveghere a pieței și a autorității naționale pentru protecția datelor, la cerere, exceptând divulgarea datelor operaționale sensibile legate de aplicarea legii. Prezentul paragraf nu aduce atingere competențelor conferite autorităților de supraveghere de Directiva (UE) 2016/680.
Gebruiksverantwoordelijken dienen bij de relevante markttoezichtautoriteiten en de nationale gegevensbeschermingsautoriteiten jaarverslagen in over hun gebruik van systemen voor biometrische identificatie op afstand achteraf, met uitzondering van gevoelige operationele gegevens in verband met rechtshandhaving. De verslagen kunnen worden samengevoegd, zodat ze informatie bevatten over meerdere soorten van inzetten.
Implementatorii prezintă autorităților relevante de supraveghere a pieței și autorităților naționale pentru protecția datelor rapoarte anuale cu privire la utilizarea sistemelor de identificare biometrică la distanță ulterioară, exceptând divulgarea datelor operaționale sensibile legate de aplicarea legii. Rapoartele pot fi agregate pentru a cuprinde mai multe implementări.
De lidstaten kunnen, in overeenstemming met het Unierecht, beperkendere wetgeving invoeren inzake het gebruik van systemen voor biometrische identificatie op afstand achteraf.
Statele membre pot introduce, în conformitate cu dreptul Uniunii, legi mai restrictive privind utilizarea sistemelor de identificare biometrică la distanță ulterioară.
11. Onverminderd artikel 50 van deze verordening informeren gebruiksverantwoordelijken van in bijlage III bedoelde AI-systemen met een hoog risico die beslissingen met betrekking tot natuurlijke personen nemen of helpen nemen, de natuurlijke personen dat het AI-systeem met een hoog risico op hen wordt toegepast. Op AI-systemen met een hoog risico die voor rechtshandhavingsdoeleinden worden gebruikt, is artikel 13 van Richtlijn (EU) 2016/680 van toepassing.
(11) Fără a afecta dispozițiile de la articolul 50 din prezentul regulament, implementatorii de sisteme de IA cu grad ridicat de risc menționate în anexa III, care iau decizii sau contribuie la luarea deciziilor referitoare la persoane fizice, informează persoanele fizice că fac obiectul utilizării sistemului de IA cu grad ridicat de risc. În cazul sistemelor de IA cu grad ridicat de risc utilizate în scopul aplicării legii, se aplică articolul 13 din Directiva (UE) 2016/680.
12. Gebruiksverantwoordelijken werken samen met de relevante bevoegde autoriteiten bij alle door deze autoriteiten genomen maatregelen met betrekking tot een AI-systeem met een hoog risico met het oog op de uitvoering van deze verordening.
(12) Implementatorii cooperează cu autoritățile competente relevante pentru orice acțiune întreprinsă de respectivele autorități în legătură cu sistemul de IA cu grad ridicat de risc pentru a pune în aplicare prezentul regulament.
Artikel 27
Articolul 27
Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico
Evaluarea impactului sistemelor de IA cu grad ridicat de risc asupra drepturilor fundamentale
1. Voordat een AI-systeem met een hoog risico als bedoeld in artikel 6, lid 2, in gebruik wordt gesteld, met uitzondering van AI-systemen met een hoog risico die bedoeld zijn om te worden gebruikt op het in punt 2 van bijlage III vermelde gebied, voeren gebruiksverantwoordelijken die publiekrechtelijke organen zijn of particuliere entiteiten zijn die openbare diensten verlenen, en gebruiksverantwoordelijken van AI-systemen met een hoog risico als bedoeld in bijlage III, punt 5, b) en c), een beoordeling uit van de gevolgen voor de grondrechten die het gebruik van een dergelijk systeem kan opleveren. Daartoe voeren gebruiksverantwoordelijken een beoordeling uit die bestaat uit:
(1) Înainte de a implementa un sistem de IA cu grad ridicat de risc, astfel cum este menționat la articolul 6 alineatul (2), cu excepția sistemelor de IA cu grad ridicat de risc destinate a fi utilizate în domeniul menționat la punctul 2 din anexa III, implementatorii care sunt organisme de drept public sau entități private care furnizează servicii publice și implementatorii de sisteme de IA cu grad ridicat de risc menționate la punctul 5 literele (b) și (c) din anexa III efectuează o evaluare a impactului asupra drepturilor fundamentale pe care îl poate produce utilizarea unor astfel de sisteme. În acest scop, implementatorii efectuează o evaluare care constă în:
a)
een beschrijving van de processen van de gebruiksverantwoordelijke waarbij het AI-systeem met een hoog risico zal worden gebruikt in overeenstemming met het beoogde doel ervan;
(a)
o descriere a proceselor implementatorului în care sistemele de IA cu grad ridicat de risc urmează a fi utilizate în conformitate cu scopul lor preconizat;
b)
een beschrijving van de periode waarbinnen en de frequentie waarmee elk AI-systeem met een hoog risico zal worden gebruikt;
(b)
o descriere a perioadei de timp pentru care se intenționează utilizarea fiecărui sistem de IA cu grad ridicat de risc, precum și a frecvenței utilizării respective;
c)
categorieën van natuurlijke personen en groepen die naar verwachting gevolgen zullen ondervinden van het gebruik van het systeem in een specifieke context;
(c)
categoriile de persoane fizice și grupurile susceptibile a fi afectate de utilizarea sa în contextul specific;
d)
de specifieke risico’s op schade die waarschijnlijk gevolgen zullen hebben voor de op grond van punt c) van dit lid geïdentificeerde categorieën natuurlijke personen of groepen personen, rekening houdend met de door de aanbieder op grond van artikel 13 verstrekte informatie;
(d)
riscurile specifice de prejudicii susceptibile a avea un impact asupra categoriilor de persoane fizice sau a grupurilor de persoane identificate în temeiul literei (c) de la prezentul alineat, ținând seama de informațiile comunicate de furnizor în temeiul articolului 13;
e)
een beschrijving van de uitvoering van maatregelen voor menselijk toezicht, overeenkomstig de gebruiksaanwijzing;
(e)
o descriere a punerii în aplicare a măsurilor de supraveghere umană, în conformitate cu instrucțiunile de utilizare;
f)
de maatregelen die moeten worden genomen wanneer die risico’s zich voordoen, met inbegrip van de regelingen voor interne governance en klachtenregelingen.
(f)
măsurile care trebuie să fie luate în cazul în care riscurile respective se materializează, inclusiv mecanismele de guvernanță internă și mecanismele de tratare a plângerilor.
2. De verplichting als neergelegd in lid 1 is van toepassing op het eerste gebruik van een AI-systeem met een hoog risico. De gebruiksverantwoordelijke kan in soortgelijke gevallen gebruik maken van eerder uitgevoerde effectbeoordelingen op het gebied van de grondrechten of bestaande effectbeoordelingen die door de aanbieder zijn uitgevoerd. Indien de gebruiksverantwoordelijke tijdens het gebruik van het AI-systeem met een hoog risico ziet dat een van de in lid 1 vermelde elementen is gewijzigd of niet langer actueel is, neemt de gebruiksverantwoordelijke de nodige maatregelen om de informatie te actualiseren.
(2) Obligația prevăzută la alineatul (1) se aplică primei utilizări a sistemului de IA cu grad ridicat de risc. În cazuri similare, implementatorul poate să se bazeze pe evaluări ale impactului asupra drepturilor fundamentale efectuate anterior sau pe evaluări existente efectuate de furnizor. În cazul în care consideră că, în timpul utilizării sistemului de IA cu grad ridicat de risc, oricare dintre elementele enumerate la alineatul (1) s-a schimbat sau nu mai este actualizat, implementatorul ia măsurile necesare pentru a actualiza informațiile.
3. Zodra de in lid 1 van dit artikel bedoelde beoordeling is uitgevoerd, stelt de gebruiksverantwoordelijke de markttoezichtautoriteit in kennis van de resultaten ervan, en dient hij als onderdeel van de kennisgeving het in lid 5 van dit artikel bedoelde ingevulde sjabloon in. In het in artikel 46, lid 1, bedoelde geval kunnen gebruiksverantwoordelijken van de verplichting tot kennisgeving worden vrijgesteld.
(3) După efectuarea evaluării menționate la alineatul (1) de la prezentul articol, implementatorul notifică autorității de supraveghere a pieței rezultatele sale, transmițând modelul completat menționat la alineatul (5) de la prezentul articol ca parte a notificării. În cazul menționat la articolul 46 alineatul (1), implementatorii pot fi scutiți de această obligație de notificare.
4. Indien een van de in dit artikel vastgelegde verplichtingen reeds is nagekomen door de gegevensbeschermingseffectbeoordeling die is uitgevoerd op grond van artikel 35 van Verordening (EU) 2016/679 of artikel 27 van Richtlijn (EU) 2016/680, vormt de in lid 1 van dit artikel bedoelde effectbeoordeling op het gebied van de grondrechten een aanvulling op die gegevensbeschermingseffectbeoordeling.
(4) În cazul în care oricare dintre obligațiile prevăzute la prezentul articol este deja respectată ca urmare a evaluării impactului asupra protecției datelor efectuate în temeiul articolului 35 din Regulamentul (UE) 2016/679 sau al articolului 27 din Directiva (UE) 2016/680, evaluarea impactului asupra drepturilor fundamentale menționată la alineatul (1) de la prezentul articol completează respectiva evaluare a impactului asupra protecției datelor.
5. Het AI-bureau ontwikkelt een sjabloon voor een vragenlijst, onder meer via een geautomatiseerd instrument, om gebruiksverantwoordelijken te helpen hun verplichtingen uit hoofde van dit artikel op vereenvoudigde wijze na te komen.
(5) Oficiul pentru IA elaborează un model de chestionar, inclusiv prin intermediul unui instrument automatizat, pentru a-i ajuta pe implementatori să își respecte obligațiile care le revin în temeiul prezentului articol într-un mod simplificat.
AFDELING 4
SECȚIUNEA 4
Aanmeldende autoriteiten en aangemelde instanties
Autoritățile de notificare și organismele notificate
Artikel 28
Articolul 28
Aanmeldende autoriteiten
Autoritățile de notificare
1. Elke lidstaat wijst ten minste één aanmeldende autoriteit aan of richt een aanmeldende autoriteit op die verantwoordelijk is voor het opzetten en uitvoeren van de nodige procedures voor de beoordeling, aanwijzing en aanmelding van conformiteitsbeoordelingsinstanties en voor het toezicht erop. Deze procedures worden ontwikkeld in samenwerking tussen de aanmeldende autoriteiten van alle lidstaten.
(1) Fiecare stat membru desemnează sau instituie cel puțin o autoritate de notificare responsabilă cu instituirea și efectuarea procedurilor necesare pentru evaluarea, desemnarea și notificarea organismelor de evaluare a conformității și pentru monitorizarea acestora. Procedurile respective se elaborează în cooperare între autoritățile de notificare ale tuturor statelor membre.
2. De lidstaten kunnen besluiten de beoordeling en het toezicht als bedoeld in lid 1 overeenkomstig Verordening (EG) nr. 765/2008 te laten uitvoeren door een nationale accreditatie-instantie in de zin van die verordening.
(2) Statele membre pot decide ca evaluarea și monitorizarea menționate la alineatul (1) să fie efectuate de un organism național de acreditare în sensul Regulamentului (CE) nr. 765/2008 și în conformitate cu acesta.
3. Aanmeldende autoriteiten worden zodanig opgericht en georganiseerd en functioneren zodanig dat zich geen belangenconflicten met conformiteitsbeoordelingsinstanties voordoen en dat de objectiviteit en onpartijdigheid van hun activiteiten gewaarborgd zijn.
(3) Autoritățile de notificare sunt instituite și organizate și funcționează astfel încât să nu apară niciun conflict de interese cu organismele de evaluare a conformității și să se protejeze obiectivitatea și imparțialitatea activităților lor.
4. Aanmeldende autoriteiten worden zodanig georganiseerd dat besluiten in verband met de aanmelding van conformiteitsbeoordelingsinstanties worden genomen door bekwame personen die niet de beoordeling van die instanties hebben verricht.
(4) Autoritățile de notificare sunt organizate astfel încât deciziile cu privire la notificarea organismelor de evaluare a conformității să fie luate de persoane competente, altele decât cele care au efectuat evaluarea organismelor respective.
5. Aanmeldende autoriteiten bieden of verrichten geen activiteiten die worden uitgevoerd door conformiteitsbeoordelingsinstanties en verlenen geen adviezen op commerciële of concurrentiële basis.
(5) Autoritățile de notificare nu oferă și nu prestează nici activități pe care le prestează organismele de evaluare a conformității și nici servicii de consultanță în condiții comerciale sau concurențiale.
6. Aanmeldende autoriteiten waarborgen dat de door hen verkregen informatie overeenkomstig artikel 78 vertrouwelijk wordt behandeld.
(6) Autoritățile de notificare garantează confidențialitatea informațiilor pe care le obțin, în conformitate cu articolul 78.
7. Aanmeldende autoriteiten beschikken over een toereikend aantal bekwame personeelsleden om hun taken naar behoren uit te voeren. Bekwame personeelsleden beschikken, indien van toepassing, over de nodige deskundigheid voor hun functies op gebieden als informatietechnologie, AI en recht, met inbegrip van het toezicht op de grondrechten.
(7) Autoritățile de notificare au la dispoziție un număr adecvat de membri competenți ai personalului în vederea îndeplinirii corespunzătoare a sarcinilor lor. Membrii competenți ai personalului dețin cunoștințele de specialitate necesare, după caz, pentru funcția pe care o îndeplinesc, în domenii precum tehnologiile informației, IA și drept, inclusiv supravegherea drepturilor fundamentale.
Artikel 29
Articolul 29
Verzoek om aanmelding van een conformiteitsbeoordelingsinstantie
Cererea de notificare a unui organism de evaluare a conformității
1. Conformiteitsbeoordelingsinstanties dienen een verzoek om aanmelding in bij de aanmeldende autoriteit van de lidstaat waar zij zijn gevestigd.
(1) Organismele de evaluare a conformității depun o cerere de notificare la autoritatea de notificare a statului membru în care sunt stabilite.
2. Het verzoek om aanmelding gaat vergezeld van een beschrijving van de conformiteitsbeoordelingsactiviteiten, de conformiteitsbeoordelingsmodule(s) en de soorten AI-systemen waarvoor de conformiteitsbeoordelingsinstantie verklaart bekwaam te zijn en, indien dit bestaat, van een accreditatiecertificaat dat is afgegeven door een nationale accreditatie-instantie, waarin wordt verklaard dat de conformiteitsbeoordelingsinstantie voldoet aan de eisen van artikel 31.
(2) Cererea de notificare este însoțită de o descriere a activităților de evaluare a conformității, a modulului sau modulelor de evaluare a conformității și a tipurilor de sisteme de IA pentru care organismul de evaluare a conformității se consideră a fi competent, precum și de un certificat de acreditare, în cazul în care există, eliberat de un organism național de acreditare care să ateste că organismul de evaluare a conformității satisface cerințele prevăzute la articolul 31.
Geldige documenten met betrekking tot bestaande aanwijzingen van de verzoekende aangemelde instantie uit hoofde van andere harmonisatiewetgeving van de Unie worden bijgevoegd.
Se adaugă orice document valabil referitor la desemnările existente ale organismului notificat solicitant în temeiul oricăror alte acte legislative de armonizare ale Uniunii.
3. Wanneer de betrokken conformiteitsbeoordelingsinstantie geen accreditatiecertificaat kan overleggen, verschaft zij de aanmeldende autoriteit alle bewijsstukken die nodig zijn om haar overeenstemming met de eisen van artikel 31 te verifiëren en te erkennen en om daar geregeld toezicht op te houden.
(3) În cazul în care un organism de evaluare a conformității nu poate prezenta un certificat de acreditare, acesta prezintă autorității de notificare toate documentele justificative necesare pentru verificarea, recunoașterea și monitorizarea periodică a conformității acestuia cu cerințele prevăzute la articolul 31.
4. Voor aangemelde instanties die uit hoofde van andere harmonisatiewetgeving van de Unie zijn aangewezen, kunnen waar passend alle documenten en certificaten met betrekking tot die aanwijzingen worden gebruikt om hun aanwijzingsprocedure krachtens deze verordening te ondersteunen. Om de voor aangemelde instanties verantwoordelijke autoriteit in staat te stellen de continue naleving van alle eisen van artikel 31 te monitoren en te verifiëren, werkt de aangemelde instantie de in de leden 2 en 3 bij dit artikel bedoelde documentatie telkens bij wanneer relevante veranderingen plaatsvinden.
(4) În cazul organismelor notificate care sunt desemnate în temeiul oricăror alte acte legislative de armonizare ale Uniunii, toate documentele și certificatele legate de aceste desemnări pot fi utilizate pentru a sprijini procedura de desemnare a acestora în temeiul prezentului regulament, după caz. Organismul notificat actualizează documentația menționată la alineatele (2) și (3) de la prezentul articol ori de câte ori au loc modificări relevante, pentru a oferi autorității naționale responsabile de organismele notificate posibilitatea de a monitoriza și de a verifica respectarea continuă a tuturor cerințelor prevăzute la articolul 31.
Artikel 30
Articolul 30
Aanmeldingsprocedure
Procedura de notificare
1. Aanmeldende autoriteiten mogen uitsluitend conformiteitsbeoordelingsinstanties aanmelden die aan de eisen van artikel 31 voldoen.
(1) Autoritățile de notificare pot notifica numai organismele de evaluare a conformității care îndeplinesc cerințele prevăzute la articolul 31.
2. Aanmeldende autoriteiten melden elke in lid 1 bedoeld conformiteitsbeoordelingsinstantie aan bij de Commissie en de andere lidstaten door middel van het door de Commissie ontwikkelde en beheerde elektronische aanmeldingssysteem.
(2) Autoritățile de notificare înștiințează Comisia și celelalte state membre prin intermediul instrumentului de notificare electronică dezvoltat și administrat de Comisie cu privire la fiecare organism de evaluare a conformității menționat la alineatul (1).
3. Bij de in lid 2 van dit artikel bedoelde aanmelding worden de conformiteitsbeoordelingsactiviteiten, de conformiteitsbeoordelingsmodule(s), de soorten AI-systemen in kwestie en de desbetreffende bekwaamheidsattestatie uitvoerig beschreven. Indien een aanmelding niet gebaseerd is op een accreditatiecertificaat als bedoeld in artikel 29, lid 2, verschaft de aanmeldende autoriteit de Commissie en de andere lidstaten de bewijsstukken waaruit de bekwaamheid van de conformiteitsbeoordelingsinstantie blijkt, evenals de regeling die waarborgt dat de instantie regelmatig wordt gecontroleerd en zal blijven voldoen aan de eisen van artikel 31.
(3) Notificarea menționată la alineatul (2) de la prezentul articol include detalii complete privind activitățile de evaluare a conformității, modulul sau modulele de evaluare a conformității și tipurile de sisteme de IA în cauză, precum și atestarea relevantă a competenței. În cazul în care notificarea nu se bazează pe un certificat de acreditare menționat la articolul 29 alineatul (2), autoritatea de notificare prezintă Comisiei și celorlalte state membre documentele justificative care atestă competența organismului de evaluare a conformității și măsurile adoptate pentru a se asigura că organismul respectiv va fi monitorizat periodic și că va îndeplini în continuare cerințele prevăzute la articolul 31.
4. De betrokken conformiteitsbeoordelingsinstantie mag de activiteiten van een aangemelde instantie alleen verrichten als de Commissie en de andere lidstaten binnen twee weken na aanmelding door een aanmeldende autoriteit indien een accreditatiecertificaat bedoeld in artikel 29, lid 2, wordt gebruikt en binnen twee maanden na aanmelding door de aanmeldende autoriteit indien de in artikel 29, lid 3, bedoelde bewijsstukken worden gebruikt, geen bezwaren hebben ingediend.
(4) Organismul de evaluare a conformității în cauză poate exercita activitățile unui organism notificat numai în cazul în care nu există obiecții din partea Comisiei sau a celorlalte state membre, transmise în termen de două săptămâni de la o notificare din partea unei autorități de notificare, în cazul în care se include un certificat de acreditare menționat la articolul 29 alineatul (2), sau în termen de două luni de la o notificare din partea unei autorități de notificare, în cazul în care se includ documentele justificative menționate la articolul 29 alineatul (3).
5. Indien er bezwaar wordt ingediend, treedt de Commissie onverwijld in overleg met de betrokken lidstaten en de conformiteitsbeoordelingsinstantie. Met het oog daarop besluit de Commissie of de toelating gerechtvaardigd is. De Commissie richt haar besluit aan de betrokken lidstaat en aan de relevante conformiteitsbeoordelingsinstantie.
(5) În cazul în care se ridică obiecții, Comisia inițiază fără întârziere consultații cu statele membre relevante și cu organismul de evaluare a conformității. În lumina acestora, Comisia decide dacă autorizația este justificată. Comisia comunică decizia luată statului membru în cauză și organismului relevant de evaluare a conformității.
Artikel 31
Articolul 31
Voorschriften in verband met aangemelde instanties
Cerințe cu privire la organismele notificate
1. Een aangemelde instantie wordt naar het recht van een lidstaat opgericht en bezit rechtspersoonlijkheid.
(1) Un organism notificat este instituit în temeiul dreptului intern al unui stat membru și are personalitate juridică.
2. Aangemelde instanties voldoen aan de eisen inzake organisatie, kwaliteitsbeheer, personeel en processen die nodig zijn voor het vervullen van hun taken, alsook aan de passende cyberbeveiligingseisen.
(2) Organismele notificate îndeplinesc cerințele organizatorice, de management al calității, de resurse și în materie de procese care sunt necesare pentru îndeplinirea sarcinilor lor, precum și cerințele adecvate în materie de securitate cibernetică.
3. De organisatiestructuur, de toewijzing van verantwoordelijkheden, de rapportagelijnen en het functioneren van aangemelde instanties moeten ervoor zorgen dat er vertrouwen is in hun uitvoering en de resultaten van de conformiteitsbeoordelingsactiviteiten die de aangemelde instanties verrichten.
(3) Structura organizațională, alocarea responsabilităților, liniile de raportare și funcționarea organismelor notificate asigură încrederea în performanța acestora și în rezultatele activităților de evaluare a conformității pe care le desfășoară organismele notificate.
4. Aangemelde instanties zijn onafhankelijk van de aanbieder van een AI-systeem met een hoog risico met betrekking waartoe de aanbieder conformiteitsbeoordelingsactiviteiten verricht. Aangemelde instanties zijn ook onafhankelijk van andere operatoren die een economisch belang hebben in beoordeelde AI-systemen met een hoog risico, alsook van concurrenten van de aanbieder. Dit belet echter niet dat beoordeelde AI-systemen met een hoog risico die nodig zijn voor activiteiten van de conformiteitsbeoordelingsinstantie worden gebruikt of dat dergelijke AI-systemen met een hoog risico voor persoonlijke doeleinden worden gebruikt.
(4) Organismele notificate sunt independente de furnizorul unui sistem de IA cu grad ridicat de risc în legătură cu care efectuează activități de evaluare a conformității. Organismele notificate sunt, de asemenea, independente de orice alt operator care are un interes economic în legătură cu sistemele de IA cu grad ridicat de risc evaluate, precum și de orice concurent al furnizorului. Acest lucru nu împiedică utilizarea sistemelor de IA cu grad ridicat de risc evaluate care sunt necesare pentru operațiunile organismului de evaluare a conformității sau utilizarea sistemelor respective de IA cu grad ridicat de risc în scopuri personale.
5. Een conformiteitsbeoordelingsinstantie, haar hoogste leidinggevenden en het personeel dat de conformiteitsbeoordelingstaken verricht, zijn niet rechtstreeks of als vertegenwoordiger van de betrokken partijen betrokken bij het ontwerpen, ontwikkelen, verhandelen of gebruiken van de AI-systemen met een hoog risico. Zij oefent geen activiteiten uit die de onafhankelijkheid van haar oordeel of haar integriteit met betrekking tot de conformiteitsbeoordelingsactiviteiten waarvoor zij is aangemeld in het gedrang kunnen brengen. Dit geldt met name voor adviesdiensten.
(5) Nici organismul de evaluare a conformității, personalul său de conducere de nivel superior, nici personalul responsabil cu îndeplinirea sarcinilor acestuia de evaluare a conformității nu sunt direct implicați în proiectarea, dezvoltarea, comercializarea sau utilizarea sistemelor de IA cu grad ridicat de risc și nici nu reprezintă părțile implicate în respectivele activități. Aceștia nu se implică în nicio activitate susceptibilă de a le afecta imparțialitatea sau integritatea în ceea ce privește activitățile de evaluare a conformității pentru care sunt notificați. Această dispoziție se aplică în special serviciilor de consultanță.
6. Aangemelde instanties worden zodanig georganiseerd en functioneren zodanig dat de onafhankelijkheid, objectiviteit en onpartijdigheid van hun activiteiten gewaarborgd zijn. Aangemelde instanties documenteren en implementeren een structuur en procedures voor het waarborgen van de onpartijdigheid en voor het bevorderen en toepassen van de onpartijdigheidsbeginselen in hun gehele organisatie, onder het personeel en in de beoordelingsactiviteiten.
(6) Organismele notificate sunt organizate și funcționează astfel încât să garanteze independența, obiectivitatea și imparțialitatea activităților lor. Organismele notificate documentează și pun în aplicare o structură și proceduri pentru garantarea imparțialității și pentru promovarea și punerea în practică a principiilor imparțialității în întreaga organizație, pentru tot personalul lor și pentru toate activitățile lor de evaluare.
7. Aangemelde instanties beschikken over gedocumenteerde procedures die waarborgen dat hun personeel, comités, dochterondernemingen, onderaannemers, geassocieerde instanties of personeel van externe instanties overeenkomstig artikel 78 de informatie die zij tijdens conformiteitsbeoordelingsactiviteiten in hun bezit krijgen vertrouwelijk houden, behalve wanneer de openbaarmaking ervan wettelijk vereist is. Het personeel van aangemelde instanties is gebonden aan het beroepsgeheim ten aanzien van alle informatie waarvan het kennisneemt bij de uitoefening van de taken uit hoofde van deze verordening, behalve ten opzichte van de aanmeldende autoriteiten van de lidstaat waar de activiteiten plaatsvinden.
(7) Organismele notificate dispun de proceduri documentate care să asigure că personalul, comitetele, filialele, subcontractanții lor, precum și orice organism asociat sau membru al personalului organismelor externe respectă, în conformitate cu articolul 78, confidențialitatea informațiilor care le parvin în timpul derulării activităților de evaluare a conformității, cu excepția cazurilor în care divulgarea acestora este impusă prin lege. Personalul organismelor notificate este obligat să păstreze secretul profesional referitor la toate informațiile obținute în cursul îndeplinirii sarcinilor sale în temeiul prezentului regulament, excepție făcând relația cu autoritățile de notificare ale statului membru în care se desfășoară activitățile sale.
8. Aangemelde instanties beschikken over de nodige procedures voor de uitoefening van hun activiteiten, waarin voldoende rekening wordt gehouden met de omvang van een aanbieder, de sector waarin deze actief is, de structuur en de relatieve complexiteit van het betreffende AI-systeem.
(8) Organismele notificate dispun de proceduri pentru desfășurarea activităților, care să țină seama în mod corespunzător de dimensiunile unui furnizor, de sectorul în care acesta își desfășoară activitatea, de structura sa și de gradul de complexitate al sistemului de IA în cauză.
9. Aangemelde instanties sluiten voor hun conformiteitsbeoordelingsactiviteiten een passende aansprakelijkheidsverzekering af, tenzij de wettelijke aansprakelijkheid krachtens het nationale recht door de lidstaat van vestiging wordt gedekt of die lidstaat zelf rechtstreeks verantwoordelijk is voor de conformiteitsbeoordeling.
(9) Organismele notificate încheie o asigurare de răspundere civilă adecvată pentru activitățile lor de evaluare a conformității, cu excepția cazului în care răspunderea este asumată de statul membru pe teritoriul căruia sunt stabilite, în conformitate cu dreptul intern, sau în care însuși statul membru respectiv este direct responsabil pentru evaluarea conformității.
10. Aangemelde instanties zijn in staat al hun taken uit hoofde van deze verordening te verrichten met de grootste mate van beroepsintegriteit en met de vereiste bekwaamheid op het specifieke gebied, ongeacht of deze taken door de aangemelde instanties zelf dan wel namens hen en onder hun verantwoordelijkheid worden verricht.
(10) Organismele notificate sunt capabile să își îndeplinească toate sarcinile în temeiul prezentului regulament cu cel mai înalt grad de integritate profesională și cu competența necesară în domeniul specific, indiferent dacă sarcinile respective sunt realizate de organismele notificate înseși sau în numele și pe răspunderea acestora.
11. Aangemelde instanties beschikken over voldoende interne deskundigheid om de namens hen door externe partijen verrichte taken doeltreffend te kunnen evalueren. De aangemelde instantie moet permanent beschikken over voldoende administratief, technisch, juridisch en wetenschappelijk personeel dat ervaring heeft met en kennis over de relevante soorten AI-systemen, gegevens en gegevensverwerking en de voorschriften van afdeling 2.
(11) Organismele notificate dispun de suficiente competențe interne pentru a putea evalua în mod efectiv sarcinile îndeplinite de părți externe în numele lor. Organismul notificat dispune în permanență de suficient personal administrativ, tehnic, juridic și științific care deține experiență și cunoștințe în ceea ce privește tipurile relevante de sisteme de IA, de date și de calculul datelor, precum și în ceea ce privește cerințele prevăzute în secțiunea 2.
12. Aangemelde instanties nemen deel aan coördinatieactiviteiten als bedoeld in artikel 38. Zij nemen ook rechtstreeks deel aan of worden vertegenwoordigd in Europese normalisatie-instellingen of zorgen ervoor op de hoogte te zijn van actuele relevante normen.
(12) Organismele notificate participă la activitățile de coordonare menționate la articolul 38. De asemenea, acestea participă direct sau sunt reprezentate în cadrul organizațiilor de standardizare europene sau se asigură că sunt la curent cu situația referitoare la standardele relevante.
Artikel 32
Articolul 32
Vermoeden van conformiteit met voorschriften met betrekking tot aangemelde instanties
Prezumția de conformitate cu cerințele referitoare la organismele notificate
Wanneer een conformiteitsbeoordelingsinstantie aantoont dat zij voldoet aan de criteria in de ter zake doende geharmoniseerde normen of delen ervan, waarvan de referentienummers in het Publicatieblad van de Europese Unie zijn bekendgemaakt, wordt zij geacht aan de eisen van artikel 31 te voldoen, op voorwaarde dat de van toepassing zijnde geharmoniseerde normen deze eisen dekken.
În cazul în care un organism de evaluare a conformității își demonstrează conformitatea cu criteriile prevăzute în standardele armonizate relevante sau în părți din acestea, ale căror referințe au fost publicate în Jurnalul Oficial al Uniunii Europene, se consideră că acesta este în conformitate cu cerințele prevăzute la articolul 31, în măsura în care standardele armonizate aplicabile vizează aceste cerințe.
Artikel 33
Articolul 33
Dochterondernemingen van aangemelde instanties en onderaanneming
Filiale ale organismelor notificate și subcontractare
1. Wanneer de aangemelde instantie specifieke taken in verband met de conformiteits-beoordeling door een onderaannemer of door een dochteronderneming laat uitvoeren, waarborgt zij dat de onderaannemer of dochteronderneming aan de eisen van artikel 31 voldoet, en brengt zij de aanmeldende autoriteit hiervan op de hoogte.
(1) În cazul în care un organism notificat subcontractează anumite sarcini legate de evaluarea conformității sau recurge la o filială, acesta se asigură că subcontractantul sau filiala îndeplinește cerințele stabilite la articolul 31 și informează autoritatea de notificare în acest sens.
2. Aangemelde instanties nemen de volledige verantwoordelijkheid op zich voor de door onderaannemers of dochterondernemingen verrichte taken.
(2) Organismele notificate preiau întreaga responsabilitate pentru sarcinile îndeplinite de orice subcontractant sau filială.
3. Activiteiten mogen uitsluitend met instemming van de aanbieder door een onderaannemer of dochteronderneming worden uitgevoerd. Aangemelde instanties maken een lijst van hun dochterondernemingen openbaar.
(3) Activitățile pot fi subcontractate sau îndeplinite de o filială doar cu acordul furnizorului. Organismele notificate pun la dispoziția publicului o listă a filialelor acestora.
4. De relevante documenten betreffende de beoordeling van de kwalificaties van de onderaannemer of dochteronderneming en de door hen uit hoofde van deze verordening uitgevoerde werkzaamheden worden gedurende een periode van vijf jaar vanaf de einddatum van de onderaanneming ter beschikking van de aanmeldende autoriteit gehouden.
(4) Documentele relevante privind evaluarea calificărilor subcontractantului sau ale filialei și activitatea desfășurată de aceștia în temeiul prezentului regulament sunt puse la dispoziția autorității de notificare pentru o perioadă de cinci ani de la data încetării subcontractării.
Artikel 34
Articolul 34
Operationele verplichtingen van aangemelde instanties
Obligații operaționale ale organismelor notificate
1. Aangemelde instanties controleren de conformiteit van AI-systemen met een hoog risico overeenkomstig de conformiteitsbeoordelingsprocedures van artikel 43.
(1) Organismele notificate verifică conformitatea sistemelor de IA cu grad ridicat de risc în conformitate cu procedurile de evaluare a conformității prevăzute la articolul 43.
2. Aangemelde instanties vermijden onnodige lasten voor aanbieders bij de uitvoering van hun activiteiten en houden terdege rekening met de omvang van de aanbieder, de sector waarin hij actief is, zijn structuur en de mate van complexiteit van het betrokken AI-systeem met een hoog risico, met name om de administratieve lasten en nalevingskosten voor micro- en kleine ondernemingen in de zin van Aanbeveling 2003/361/EG tot een minimum te beperken. De aangemelde instantie eerbiedigt echter de striktheid en het beschermingsniveau die nodig zijn opdat het AI-systeem met een hoog risico voldoet aan de eisen van deze verordening.
(2) Organismele notificate evită sarcinile inutile pentru furnizori atunci când aceștia își desfășoară activitățile și țin seama în mod corespunzător de dimensiunile furnizorilor, de sectorul în care aceștia își desfășoară activitatea, de structura acestora și de gradul de complexitate al sistemului de IA cu grad ridicat de risc în cauză, în special în vederea reducerii la minimum a sarcinilor administrative și a costurilor de asigurare a conformității pentru microîntreprinderi și întreprinderile mici în sensul Recomandării 2003/361/CE. Organismul notificat respectă totuși gradul de precizie și nivelul de protecție impuse pentru conformitatea sistemului de IA cu grad ridicat de risc cu cerințele prezentului regulament.
3. Aangemelde instanties stellen alle relevante documentatie, waaronder de documentatie van de aanbieder, ter beschikking van de in artikel 28 bedoelde aanmeldende autoriteit, en verstrekken die aan haar op verzoek, teneinde haar in staat te stellen haar beoordelings-, aanwijzings-, kennisgevings- en monitoringsactiviteiten te verrichten, en de in deze afdeling beschreven beoordeling te vergemakkelijken.
(3) Organismele notificate pun la dispoziția autorității de notificare menționate la articolul 28 și transmit la cerere toată documentația relevantă, inclusiv documentația furnizorilor, pentru a îi permite acestei autorități să își desfășoare activitățile de evaluare, desemnare, notificare și monitorizare și pentru a facilita evaluarea descrisă în prezenta secțiune.
Artikel 35
Articolul 35
Identificatienummers en lijsten van aangemelde instanties
Numerele de identificare și listele organismelor notificate
1. De Commissie kent elke aangemelde instantie één enkel identificatienummer toe, zelfs wanneer een instantie op grond van meer dan één handeling van de Unie is aangemeld.
(1) Comisia atribuie un număr unic de identificare fiecărui organism notificat, chiar și în cazul în care un organism este notificat în temeiul mai multor acte ale Uniunii.
2. De Commissie maakt de lijst van krachtens deze verordening aangemelde instanties openbaar, onder vermelding van hun identificatienummers en de activiteiten waarvoor zij zijn aangemeld. De Commissie zorgt ervoor dat de lijst actueel blijft.
(2) Comisia pune la dispoziția publicului lista organismelor notificate în temeiul prezentului regulament, incluzând numerele de identificare ale acestora și activitățile pentru care au fost notificate. Comisia se asigură că lista este actualizată.
Artikel 36
Articolul 36
Wijzigingen in de aanmelding
Modificări ale notificărilor
1. De aanmeldende autoriteit stelt de Commissie en de andere lidstaten via het in artikel 30, lid 2, bedoelde elektronische aanmeldingssysteem in kennis van alle relevante wijzigingen in de aanmelding van een aangemelde instantie.
(1) Autoritatea de notificare înștiințează Comisia și celelalte state membre cu privire la orice modificare relevantă adusă notificării unui organism notificat prin intermediul instrumentului de notificare electronică menționat la articolul 30 alineatul (2).
2. De in artikel 29 en artikel 30 vastgelegde procedures zijn van toepassing op uitbreidingen van de reikwijdte van de aanmelding.
(2) Procedurile prevăzute la articolele 29 și 30 se aplică extinderilor domeniului de aplicare al notificării.
Voor andere wijzigingen met betrekking tot de aanmelding dan uitbreidingen van de reikwijdte, zijn de procedures van de leden 3 tot en met 9 van toepassing.
În ceea ce privește modificările aduse notificării, altele decât extinderile domeniului său de aplicare, se aplică procedurile prevăzute la alineatele (3)-(9).
3. Indien een aangemelde instantie besluit haar conformiteitsbeoordelingsactiviteiten stop te zetten, brengt zij de aanmeldende autoriteit en de betrokken aanbieders zo snel mogelijk, en in het geval van een geplande stopzetting minstens één jaar voor de stopzetting van haar activiteiten, daarvan op de hoogte. De certificaten van de aangemelde instantie kunnen gedurende een periode van negen maanden na de stopzetting van de activiteiten van de aangemelde instantie geldig blijven, op voorwaarde dat een andere aangemelde instantie schriftelijk heeft bevestigd dat zij de verantwoordelijkheid voor de AI-systemen met een hoog risico waarop die certificaten betrekking hebben, op zich zal nemen. Die laatste aangemelde instantie verricht vóór het einde van die periode van negen maanden een volledige beoordeling van de betrokken AI-systemen met een hoog risico, alvorens er nieuwe certificaten voor af te leveren. Ingeval de aangemelde instantie haar activiteiten heeft gestaakt, trekt de aanmeldende autoriteit de aanwijzing in.
(3) În cazul în care un organism notificat decide să își înceteze activitățile de evaluare a conformității, acesta informează autoritatea de notificare și furnizorii vizați cât mai curând posibil și, în cazul unei încetări planificate, cu cel puțin un an înainte de încetarea activităților. Certificatele organismului notificat pot rămâne valabile pentru o perioadă de nouă luni de la încetarea activității organismului notificat, cu condiția ca un alt organism notificat să fi confirmat în scris că își va asuma responsabilitățile pentru sistemele de IA cu grad ridicat de risc care fac obiectul respectivelor certificate. Acest din urmă organism notificat efectuează o evaluare completă a sistemelor de IA cu grad ridicat de risc în cauză până la finalul respectivei perioade de nouă luni, înainte de emiterea de noi certificate pentru aceste sisteme. În cazul în care organismul notificat și-a încetat activitatea, autoritatea de notificare retrage desemnarea.
4. Wanneer een aanmeldende autoriteit voldoende reden heeft om van mening te zijn dat een aangemelde instantie niet meer aan de eisen van artikel 31 voldoet of haar verplichtingen niet nakomt, moet de aanmeldende autoriteit de kwestie onverwijld zo zorgvuldig mogelijk onderzoeken. In die context stelt zij de betrokken aangemelde instantie in kennis van de geopperde bezwaren en biedt zij haar de mogelijkheid haar standpunten kenbaar te maken. Als de aanmeldende autoriteit tot de conclusie komt dat de aangemelde instantie niet meer aan de eisen van artikel 31 voldoet of haar verplichtingen niet nakomt, wordt de aanwijzing door haar beperkt, geschorst of ingetrokken, als passend, afhankelijk van de ernst van het niet naleven van die eisen of verplichtingen. Zij brengt de Commissie en de andere lidstaten daar onmiddellijk van op de hoogte.
(4) În cazul în care o autoritate de notificare are motive suficiente să considere că un organism notificat nu mai îndeplinește cerințele prevăzute la articolul 31 sau că acesta nu își îndeplinește obligațiile, autoritatea de notificare respectivă investighează fără întârziere chestiunea, cu cea mai mare diligență. În acest context, aceasta informează organismul notificat în cauză cu privire la obiecțiile ridicate și îi oferă posibilitatea de a-și face cunoscute punctele de vedere. În cazul în care ajunge la concluzia că organismul notificat nu mai îndeplinește cerințele prevăzute la articolul 31 sau că nu își îndeplinește obligațiile, autoritatea de notificare restricționează, suspendă sau retrage desemnarea, după caz, în funcție de gravitatea încălcării cerințelor sau a neîndeplinirii obligațiilor. Autoritatea de notificare informează de îndată Comisia și celelalte state membre în consecință.
5. Indien de aanwijzing van een aangemelde instantie wordt geschorst, beperkt of geheel of gedeeltelijk wordt ingetrokken, stelt die aangemelde instantie de betrokken aanbieders binnen tien dagen hiervan in kennis.
(5) În cazul în care desemnarea sa a fost suspendată, restricționată sau retrasă integral sau parțial, organismul notificat informează furnizorii în cauză în termen de 10 zile.
6. Indien een aanwijzing wordt beperkt, geschorst of ingetrokken, onderneemt de aanmeldende autoriteit de nodige stappen om ervoor te zorgen dat de dossiers van de betrokken aangemelde instantie worden bewaard en op verzoek ter beschikking worden gesteld van aanmeldende autoriteiten in andere lidstaten en van markttoezichtautoriteiten.
(6) În caz de restricționare, suspendare sau retragere a unei desemnări, autoritatea de notificare ia măsurile necesare pentru a se asigura că dosarele organismului notificat în cauză sunt păstrate și le pun la dispoziția autorităților de notificare din alte state membre și a autorităților de supravegherea pieței, la cererea acestora.
7. In geval van beperking, schorsing of intrekking van een aanwijzing:
(7) În caz de restricționare, suspendare sau retragere a unei desemnări, autoritatea de notificare:
a)
beoordeelt de aanmeldende autoriteit het gevolg voor de door de aangemelde instantie afgegeven certificaten;
(a)
evaluează impactul asupra certificatelor eliberate de organismul notificat;
b)
dient de aanmeldende autoriteit binnen drie maanden na mededeling van de wijzigingen in de aanwijzing een verslag over haar bevindingen in bij de Commissie en de overige lidstaten;
(b)
prezintă Comisiei și celorlalte state membre un raport conținând constatările sale în termen de trei luni de la data la care a notificat modificările aduse desemnării;
c)
schrijft de aanmeldende autoriteit voor dat de aangemelde instantie binnen een redelijke, door de autoriteit bepaalde termijn, onterecht afgegeven certificaten schorst of intrekt, zulks om de voortdurende conformiteit van de in de handel gebrachte AI-systemen met een hoog risico te waarborgen;
(c)
solicită organismului notificat să suspende sau să retragă, într-un interval rezonabil de timp stabilit de către autoritate, orice certificat care a fost eliberat în mod necorespunzător, pentru a asigura menținerea conformității sistemelor de IA cu grad ridicat de risc de pe piață;
d)
stelt de aanmeldende autoriteit de Commissie en de lidstaten in kennis van certificaten die moeten worden geschorst of ingetrokken;
(d)
informează Comisia și statele membre cu privire la certificatele pentru care a solicitat suspendarea sau retragerea;
e)
verstrekt de aanmeldende autoriteit de nationale bevoegde autoriteiten van de lidstaat waar de aanbieder zijn geregistreerde vestigingsplaats heeft, alle relevante informatie over de certificaten waarvan zij de schorsing of intrekking heeft gelast; die autoriteit neemt de gepaste maatregelen die nodig zijn om een mogelijk risico voor de gezondheid, veiligheid of grondrechten af te wenden.
(e)
furnizează autorităților naționale competente din statul membru în care furnizorul își are sediul social toate informațiile relevante cu privire la certificatele pentru care a solicitat suspendarea sau retragerea; autoritățile respective iau măsurile corespunzătoare, acolo unde este necesar, pentru evitarea unui risc potențial pentru sănătate, siguranță sau drepturile fundamentale.
8. Met uitzondering van onterecht afgegeven certificaten en indien een aanwijzing is geschorst of beperkt, blijven de certificaten geldig in een van de volgende omstandigheden:
(8) Cu excepția certificatelor eliberate în mod necorespunzător și în cazul în care o desemnare a fost suspendată sau restricționată, certificatele rămân valabile în una dintre următoarele circumstanțe:
a)
de aanmeldende autoriteit heeft binnen één maand na de schorsing of beperking bevestigd dat er met betrekking tot de certificaten waarop de schorsing of beperking van toepassing is, geen risico’s voor de gezondheid, veiligheid of grondrechten bestaan, en de aanmeldende autoriteit heeft voorzien in een termijn voor maatregelen om de schorsing of beperking te ondervangen, of
(a)
autoritatea de notificare a confirmat, în termen de o lună de la suspendare sau restricționare, că nu există niciun risc pentru sănătate, siguranță sau drepturile fundamentale în legătură cu certificatele afectate de suspendare sau de restricționare și a prezentat un calendar pentru acțiunile de remediere a suspendării sau a restricționării; sau
b)
de aanmeldende autoriteit heeft bevestigd dat er geen certificaten in verband met de schorsing zullen worden afgegeven, gewijzigd, of opnieuw afgegeven gedurende de schorsing of beperking en geeft aan of de aangemelde instantie het vermogen heeft om de bestaande, voor de periode van schorsing of beperking afgegeven certificaten te blijven monitoren en daarvoor verantwoordelijk te blijven; indien de aanmeldende autoriteit vaststelt dat de aangemelde instantie niet in staat is bestaande afgegeven certificaten te ondersteunen, bevestigt de aanbieder van het systeem waarop het certificaat betrekking heeft binnen drie maanden na de schorsing of beperking aan de nationale bevoegde autoriteiten van de lidstaat waar hij zijn geregistreerde vestigingsplaats heeft via schriftelijke weg dat in plaats van de aangemelde instantie een andere gekwalificeerde aangemelde instantie tijdelijk de certificaten tijdens de periode van schorsing of beperking zal monitoren en er de verantwoordelijkheid voor zal dragen.
(b)
autoritatea de notificare a confirmat că, pe durata suspendării sau restricționării nu se va emite, modifica sau emite din nou niciun certificat relevant pentru suspendare și declară dacă organismul notificat are capabilitatea de a continua să monitorizeze și să rămână responsabil de certificatele existente pe care le-a emis pe perioada suspendării sau a restricționării; în cazul în care autoritatea de notificare stabilește că organismul notificat nu are capabilitatea de a gestiona certificatele existente pe care le-a emis, furnizorul sistemului care face obiectul certificatului confirmă în scris autorităților naționale competente ale statului membru în care își are sediul social, în termen de trei luni de la suspendare sau restricționare, că un alt organism notificat calificat își asumă temporar funcțiile organismului notificat de a monitoriza și de a rămâne responsabil de certificate pe perioada suspendării sau a restricționării.
9. Met uitzondering van onterecht afgegeven certificaten en indien een aanwijzing is ingetrokken, blijven de certificaten in de volgende omstandigheden negen maanden geldig:
(9) Cu excepția certificatelor eliberate în mod necorespunzător și, în cazul în care desemnarea a fost retrasă, certificatele rămân valabile pe o perioadă de nouă luni în următoarele circumstanțe:
a)
de nationale bevoegde autoriteit van de lidstaat waar de aanbieder van het onder het certificaat vallende AI-systeem met een hoog risico zijn geregistreerde vestigingsplaats heeft, bevestigd heeft dat de betreffende AI-systemen met een hoog risico geen risico voor de gezondheid, veiligheid of grondrechten inhouden, en
(a)
autoritatea națională competentă din statul membru în care furnizorul sistemului de IA cu grad ridicat de risc care face obiectul certificatului își are sediul social a confirmat că nu există niciun risc pentru sănătate, siguranță sau drepturile fundamentale asociat sistemelor de IA cu grad ridicat de risc în cauză; și
b)
een andere aangemelde instantie schriftelijk heeft bevestigd dat zij de onmiddellijke verantwoordelijkheid voor deze AI-systemen op zich neemt en haar beoordeling binnen twaalf maanden na intrekking van de aanwijzing afrondt.
(b)
un alt organism notificat a confirmat în scris că își va asuma responsabilitatea imediat pentru respectivele sisteme de IA și își încheie evaluarea în termen de 12 luni de la retragerea desemnării.
Onder de in de eerste alinea bedoelde omstandigheden kan de nationale bevoegde autoriteit van de lidstaat waarin de aanbieder van het systeem waarop het certificaat betrekking heeft, zijn vestigingsplaats heeft, de voorlopige geldigheidsduur van de certificaten verlengen met perioden van drie maanden, die samen niet meer dan twaalf maanden mogen bedragen.
În situația menționată la primul paragraf, autoritatea națională competentă din statul membru în care își are sediul social furnizorul sistemului care face obiectul certificatului poate prelungi valabilitatea provizorie a certificatelor cu perioade suplimentare de trei luni, care nu depășesc 12 luni în total.
De nationale bevoegde autoriteit of de aangemelde instantie die de functies van de door de wijziging van de aanwijzing getroffen aangemelde instantie vervult, stelt de Commissie, de andere lidstaten en de andere aangemelde instanties hiervan onmiddellijk in kennis.
Autoritatea națională competentă sau organismul notificat care își asumă funcțiile organismului notificat afectat de modificarea desemnării informează imediat în acest sens Comisia, celelalte state membre și celelalte organisme notificate.
Artikel 37
Articolul 37
Betwisting van de bekwaamheid van aangemelde instanties
Contestarea competenței organismelor notificate
1. De Commissie onderzoekt indien nodig alle gevallen waarin er redenen zijn om te twijfelen aan de bekwaamheid van een aangemelde instantie of te twijfelen of een aangemelde instantie nog aan de eisen van artikel 31 voldoet en haar toepasselijke verantwoordelijkheden nakomt.
(1) Dacă este necesar, Comisia investighează toate cazurile în care există motive de îndoială cu privire la competența unui organism notificat sau la îndeplinirea în continuare de către un organism notificat a cerințelor prevăzute la articolul 31 și a responsabilităților sale aplicabile.
2. De aanmeldende autoriteit verstrekt de Commissie op verzoek alle relevante informatie over de aanmelding of het op peil houden van de bekwaamheid van de betrokken aangemelde instantie.
(2) Autoritatea de notificare furnizează Comisiei, la cerere, toate informațiile relevante referitoare la notificarea sau menținerea competenței organismului notificat în cauză.
3. De Commissie ziet erop toe dat alle gevoelige informatie die zij in de loop van haar onderzoeken op grond van dit artikel ontvangt, overeenkomstig artikel 78 vertrouwelijk wordt behandeld.
(3) Comisia se asigură că toate informațiile sensibile obținute în cursul investigațiilor sale în temeiul prezentului articol sunt tratate în mod confidențial în conformitate cu articolul 78.
4. Wanneer de Commissie vaststelt dat een aangemelde instantie niet of niet meer aan de aanmeldingseisen voldoet, brengt zij de aanmeldende lidstaat daarvan op de hoogte en verzoekt zij deze lidstaat de nodige corrigerende maatregelen te nemen, en zo nodig de aanmelding te schorsen of in te trekken. Indien de lidstaat niet de nodige corrigerende actie onderneemt, kan de Commissie door middel van een uitvoeringshandeling de aanwijzing schorsen, beperken of intrekken. De uitvoeringshandeling wordt vastgesteld volgens de in artikel 98, lid 2, bedoelde onderzoeksprocedure.
(4) În cazul în care constată că un organism notificat nu îndeplinește sau nu mai îndeplinește cerințele pentru a fi notificat, Comisia informează statul membru notificator în consecință și îi solicită acestuia să ia măsurile corective necesare, inclusiv suspendarea sau retragerea notificării, dacă este necesar. În cazul în care statul membru nu ia măsurile corective necesare, Comisia poate, prin intermediul unui act de punere în aplicare, să suspende, să restricționeze sau să retragă desemnarea. Actul de punere în aplicare respectiv se adoptă în conformitate cu procedura de examinare menționată la articolul 98 alineatul (2).
Artikel 38
Articolul 38
Coördinatie van aangemelde instanties
Coordonarea organismelor notificate
1. Ten aanzien van AI-systemen met een hoog risico zorgt de Commissie voor het instellen en naar behoren uitvoeren van passende coördinatie en samenwerking tussen aangemelde instanties die zich bezighouden met de conformiteitsbeoordelingsprocedures krachtens deze verordening in de vorm van een sectorale groep van aangemelde instanties.
(1) Comisia se asigură că, în ceea ce privește sistemele de IA cu grad ridicat de risc, se instituie și se realizează în mod adecvat o coordonare și o cooperare corespunzătoare între organismele notificate care desfășoară activități în ceea ce privește procedurile de evaluare a conformității în temeiul prezentului regulament, sub forma unui grup sectorial al organismelor notificate.
2. Elke aanmeldende autoriteit zorgt ervoor dat de door haar aangemelde instanties rechtstreeks of via aangestelde vertegenwoordigers aan de werkzaamheden van een in lid 1 vermelde groep deelnemen.
(2) Fiecare autoritate de notificare se asigură că organismele notificate de aceasta participă la activitatea unui grup menționat la alineatul (1), în mod direct sau prin intermediul unor reprezentanți desemnați.
3. De Commissie voorziet in de uitwisseling van kennis en beste praktijken tussen aanmeldende autoriteiten.
(3) Comisia se ocupă de organizarea unor schimburi de cunoștințe și bune practici între autoritățile de notificare.
Artikel 39
Articolul 39
Conformiteitsbeoordelingsinstanties van derde landen
Organisme de evaluare a conformității din țări terțe
Conformiteitsbeoordelingsinstanties die zijn opgericht naar het recht van een derde land waarmee de Unie een overeenkomst heeft gesloten, kunnen worden gemachtigd de activiteiten van aangemelde instanties krachtens deze verordening te verrichten, mits zij aan de in artikel 31 vastgelegde voorschriften voldoen of een gelijkwaardig nalevingsniveau waarborgen.
Organismele de evaluare a conformității instituite în temeiul legislației unei țări terțe cu care Uniunea a încheiat un acord pot fi autorizate să desfășoare activitățile organismelor notificate în temeiul prezentului regulament, cu condiția ca aceste organisme să îndeplinească cerințele prevăzute la articolul 31 sau să asigure un nivel de conformitate echivalent.
AFDELING 5
SECȚIUNEA 5
Normen, conformiteitsbeoordeling, certificaten, registratie
Standarde, evaluarea conformității, certificate, înregistrare
Artikel 40
Articolul 40
Geharmoniseerde normen en normalisatieproducten
Standarde armonizate și documente de standardizare
1. AI-systemen met een hoog risico of AI-modellen voor algemene doeleinden die in overeenstemming zijn met geharmoniseerde normen of delen daarvan, waarvan de referenties in het Publicatieblad van de Europese Unie zijn bekendgemaakt, overeenkomstig Verordening (EU) nr. 1025/2012, worden geacht in overeenstemming te zijn met de in afdeling 2 van dit hoofdstuk beschreven eisen, of, naargelang het geval, de in hoofdstuk V, afdelingen 2 en 3, van deze verordening beschreven verplichtingen, voor zover die eisen of verplichtingen door die normen worden gedekt.
(1) Sistemele de IA cu grad ridicat de risc sau modelele de IA de uz general care sunt în conformitate cu standardele armonizate sau cu o parte a acestora, ale căror referințe au fost publicate în Jurnalul Oficial al Uniunii Europene în conformitate cu Regulamentul (UE) nr. 1025/2012, sunt considerate a fi în conformitate cu cerințele stabilite în secțiunea 2 din prezentul capitol sau, după caz, cu obligațiile prevăzute în capitolul V secțiunile 2 și 3 din prezentul regulament, în măsura în care standardele respective vizează cerințele sau obligațiile respective.
2. Overeenkomstig artikel 10 van Verordening (EU) nr. 1025/2012 dient de Commissie zonder onnodige vertraging normalisatieverzoeken in die betrekking hebben op alle eisen van afdeling 2 van dit hoofdstuk en, in voorkomend geval, normalisatieverzoeken die betrekking hebben op verplichtingen van hoofdstuk V, afdelingen 2 en 3, van deze verordening. In het normalisatieverzoek wordt ook gevraagd om producten met betrekking tot rapporterings- en documentatieprocessen om de prestaties van hulpbronnen van AI-systemen te verbeteren, zoals het verminderen van het energieverbruik en het verbruik van andere hulpbronnen van AI-systemen met een hoog risico tijdens de levenscyclus ervan, en met betrekking tot de energie-efficiënte ontwikkeling van AI-modellen voor algemene doeleinden. Bij het opstellen van een normalisatieverzoek raadpleegt de Commissie de AI-board en de relevante belanghebbenden, met inbegrip van het adviesforum.
(2) În conformitate cu articolul 10 din Regulamentul (UE) nr. 1025/2012, Comisia emite, fără întârzieri nejustificate, solicitări de standardizare care vizează toate cerințele prevăzute în secțiunea 2 din prezentul capitol și, după caz, solicitări de standardizare care vizează obligațiile prevăzute în capitolul V secțiunile 2 și 3 din prezentul regulament. De asemenea, în cadrul solicitărilor de standardizare se cere furnizarea de documente privind procesele de raportare și documentare pentru a îmbunătăți performanța în materie de resurse a sistemelor de IA, cum ar fi reducerea consumului de energie și de alte resurse pentru sistemul de IA cu grad ridicat de risc pe parcursul ciclului său de viață, precum și privind dezvoltarea eficientă din punct de vedere energetic a modelelor de IA de uz general. Atunci când elaborează o solicitare de standardizare, Comisia consultă Consiliul IA și părțile interesate relevante, inclusiv forumul consultativ.
Bij het richten van een normalisatieverzoek aan Europese normalisatie-instellingen specificeert de Commissie dat normen duidelijk en consistent moeten zijn, met inbegrip van de normen die in de verschillende sectoren ontwikkeld zijn voor producten die onder de in bijlage I vermelde bestaande harmonisatiewetgeving van de Unie vallen, en tot doel hebben ervoor te zorgen dat AI-systemen met een hoog risico of AI-modellen voor algemene doeleinden die in de Unie in de handel worden gebracht of in gebruik worden gesteld, voldoen aan de relevante eisen of verplichtingen van deze verordening.
Atunci când adresează o solicitare de standardizare organizațiilor de standardizare europene, Comisia precizează că standardele trebuie să fie clare și coerente inclusiv cu standardele elaborate în diferitele sectoare pentru produsele care fac obiectul legislației existente de armonizare a Uniunii care figurează în anexa I, având drept scop să asigure faptul că sistemele de IA cu grad ridicat de risc sau modelele de IA de uz general introduse pe piață sau puse în funcțiune în Uniune îndeplinesc cerințele sau obligațiile relevante prevăzute în prezentul regulament.
De Commissie verzoekt de Europese normalisatieorganisaties aan te tonen dat zij alles in het werk stellen om de in de eerste en tweede alinea van dit lid bedoelde doelstellingen te verwezenlijken overeenkomstig artikel 24 van Verordening (EU) nr. 1025/2012.
Comisia solicită organizațiilor de standardizare europene să furnizeze dovezi ale tuturor eforturilor depuse pentru a îndeplini obiectivele menționate la primul și al doilea paragraf de la prezentul alineat, în conformitate cu articolul 24 din Regulamentul (UE) nr. 1025/2012.
3. De deelnemers aan het normalisatieproces streven naar het bevorderen van investeringen en innovatie in AI, onder andere door voor meer rechtszekerheid te zorgen, en het concurrentievermogen en de groei van de markt van de Unie, naar het bijdragen aan de versterking van de wereldwijde samenwerking op het gebied van normalisatie, rekening houdend met bestaande internationale normen op het gebied van AI die in overeenstemming zijn met de waarden, grondrechten en belangen van de Unie, en naar het verbeteren van de multistakeholdergovernance door te zorgen voor een evenwichtige vertegenwoordiging van de belangen en de effectieve deelname van alle relevante belanghebbenden overeenkomstig de artikelen 5, 6 en 7 van Verordening (EU) nr. 1025/2012.
(3) Participanții la procesul de standardizare urmăresc să promoveze investițiile și inovarea în IA, inclusiv prin sporirea securității juridice, precum și competitivitatea și creșterea pieței Uniunii, să contribuie la consolidarea cooperării la nivel mondial în materie de standardizare, ținând seama de standardele internaționale existente în domeniul IA care sunt în concordanță cu valorile, drepturile fundamentale și interesele Uniunii, și să consolideze guvernanța multipartită, asigurând o reprezentare echilibrată a intereselor și participarea efectivă a tuturor părților interesate relevante, în conformitate cu articolele 5, 6 și 7 din Regulamentul (UE) nr. 1025/2012.
Artikel 41
Articolul 41
Gemeenschappelijke specificaties
Specificații comune
1. De Commissie kan uitvoeringshandelingen vaststellen tot vaststelling van gemeenschappelijke specificaties voor de eisen van afdeling 2 van dit hoofdstuk of, in voorkomend geval, voor de verplichtingen van hoofdstuk V, afdelingen 2 en 3, indien aan de volgende voorwaarden is voldaan:
(1) Comisia poate să adopte acte de punere în aplicare de stabilire a specificațiilor comune pentru cerințele prevăzute în secțiunea 2 din prezentul capitol sau, după caz, pentru obligațiile prevăzute în secțiunile 2 și 3 din capitolul V, în cazul în care sunt îndeplinite următoarele condiții:
a)
de Commissie heeft op grond van artikel 10, lid 1, van Verordening (EU) nr. 1025/2012 een of meer Europese normalisatieorganisaties verzocht een geharmoniseerde norm op te stellen voor de in afdeling 2 van dit hoofdstuk beschreven eisen, of, in voorkomend geval, voor de verplichtingen van hoofdstuk V, afdelingen 2 en 3, en:
(a)
Comisia a solicitat, în temeiul articolului 10 alineatul (1) din Regulamentul (UE) nr. 1025/2012, uneia sau mai multor organizații de standardizare europene să elaboreze un standard armonizat pentru cerințele prevăzute în secțiunea 2 din prezentul capitol sau, după caz, pentru obligațiile prevăzute în secțiunile 2 și 3 din capitolul V, și:
i)
het verzoek is door geen enkele van de Europese normalisatieorganisaties aanvaard, of
(i)
solicitarea nu a fost acceptată de niciuna dintre organizațiile de standardizare europene; sau
ii)
de geharmoniseerde normen waarop dat verzoek betrekking heeft, worden niet binnen de overeenkomstig artikel 10, lid 1, van Verordening (EU) nr. 1025/2012 vastgestelde termijn geleverd, of
(ii)
nu sunt prezentate standarde armonizate care să răspundă solicitării respective în termenul stabilit în conformitate cu articolul 10 alineatul (1) din Regulamentul (UE) nr. 1025/2012; sau
iii)
in de relevante geharmoniseerde normen wordt onvoldoende rekening gehouden met problemen op het gebied van de grondrechten, of
(iii)
standardele armonizate relevante nu abordează suficient preocupările legate de drepturile fundamentale; sau
iv)
de geharmoniseerde normen voldoen niet aan het verzoek, en
(iv)
standardele armonizate nu sunt conforme cu solicitarea; și
b)
er is geen referentie van geharmoniseerde normen overeenkomstig Verordening (EU) nr. 1025/2012 bekendgemaakt in het Publicatieblad van de Europese Unie voor de eisen van afdeling 2 van dit hoofdstuk of, in voorkomend geval, voor de verplichtingen van hoofdstuk V, afdelingen 2 en 3, en een dergelijke referentie zal naar verwachting niet binnen een redelijke termijn worden bekendgemaakt.
(b)
nicio referință la standardele armonizate care vizează cerințele prevăzute în secțiunea 2 din prezentul capitol sau, după caz, obligațiile prevăzute în secțiunile 2 și 3 din capitolul V, nu a fost publicată în Jurnalul Oficial al Uniunii Europene în conformitate cu Regulamentul (UE) nr. 1025/2012, și nu se preconizează publicarea niciunei astfel de referințe într-un termen rezonabil.
Bij het opstellen van de gemeenschappelijke specificaties raadpleegt de Commissie het in artikel 67 bedoelde adviesforum.
La redactarea specificațiilor comune, Comisia consultă forumul consultativ menționat la articolul 67.
De in de eerste alinea van dit lid bedoelde uitvoeringshandelingen worden vastgesteld volgens de in artikel 98, lid 2, bedoelde onderzoeksprocedure.
Actele de punere în aplicare menționate la primul paragraf de la prezentul alineat se adoptă în conformitate cu procedura de examinare menționată la articolul 98 alineatul (2).
2. Alvorens een ontwerpuitvoeringshandeling op te stellen, stelt de Commissie het in artikel 22 van Verordening (EU) nr. 1025/2012 bedoelde comité ervan in kennis dat zij van oordeel is dat aan de voorwaarden van lid 1 van dit artikel is voldaan.
(2) Înainte de a pregăti un proiect de act de punere în aplicare, Comisia informează comitetul menționat la articolul 22 din Regulamentul (UE) nr. 1025/2012 că, în opinia sa, sunt îndeplinite condițiile de la alineatul (1).
3. AI-systemen met een hoog risico of AI-modellen voor algemene doeleinden die in overeenstemming zijn met de in lid 1 bedoelde gemeenschappelijke specificaties of delen daarvan worden geacht in overeenstemming te zijn met de in afdeling 2 van dit hoofdstuk beschreven voorschriften, of, in voorkomend geval, met de verplichtingen van hoofdstuk V, afdelingen 2 en 3, voor zover die voorschriften of die verplichtingen door die gemeenschappelijke specificaties worden bestreken.
(3) Sistemele de IA cu grad ridicat de risc sau modelele de IA de uz general care sunt în conformitate cu specificațiile comune menționate la alineatul (1) sau cu părți ale acestora sunt considerate a fi în conformitate cu cerințele prevăzute în secțiunea 2 din prezentul capitol sau, după caz, a respecta obligațiile prevăzute în secțiunile 2 și 3 din capitolul V, în măsura în care respectivele specificații comune vizează cerințele sau obligațiile respective.
4. Wanneer een Europese normalisatieorganisatie een geharmoniseerde norm vaststelt en deze aan de Commissie voorstelt met het oog op de bekendmaking van de referentie ervan in het Publicatieblad van de Europese Unie, beoordeelt de Commissie de geharmoniseerde norm overeenkomstig Verordening (EU) nr. 1025/2012. Wanneer de referentie van een geharmoniseerde norm in het Publicatieblad van de Europese Unie wordt bekendgemaakt, trekt de Commissie de in lid 1 bedoelde uitvoeringshandelingen of delen daarvan die dezelfde in afdeling 2 van dit hoofdstuk vermelde eisen of, in voorkomend geval, dezelfde verplichtingen van hoofdstuk V, afdelingen 2 en 3, dekken, in.
(4) În cazul în care un standard armonizat este adoptat de o organizație de standardizare europeană și este propus Comisiei pentru ca referința sa să fie publicată în Jurnalul Oficial al Uniunii Europene, Comisia evaluează standardul armonizat în conformitate cu Regulamentul (UE) nr. 1025/2012. Atunci când referința unui standard armonizat este publicată în Jurnalul Oficial al Uniunii Europene, Comisia abrogă actele de punere în aplicare menționate la alineatul (1) sau acele părți ale lor care vizează aceleași cerințe menționate la secțiunea 2 din prezentul capitol sau, după caz, aceleași obligații prevăzute în secțiunile 2 și 3 din capitolul V.
5. Wanneer aanbieders van AI-systemen met een hoog risico of AI-modellen voor algemene doeleinden niet voldoen aan de in lid 1 bedoelde gemeenschappelijke specificaties, moeten zij naar behoren rechtvaardigen dat zij technische oplossingen hebben gekozen die voldoen aan de in afdeling 2 van dit hoofdstuk beschreven voorschriften of, in voorkomend geval, aan de verplichtingen van hoofdstuk V, afdelingen 2 en 3, in een mate die minstens gelijkwaardig daarmee is.
(5) În cazul în care furnizorii de sisteme de IA cu grad ridicat de risc sau de modele de IA de uz general nu respectă specificațiile comune menționate la alineatul (1), aceștia trebuie să dovedească în mod corespunzător faptul că au adoptat soluții tehnice care îndeplinesc cerințele menționate în secțiunea 2 din prezentul capitol sau, după caz, care respectă obligațiile prevăzute în secțiunile 2 și 3 din capitolul V la un nivel cel puțin echivalent cu acestea.
6. Wanneer een lidstaat van oordeel is dat een gemeenschappelijke specificatie niet volledig aan de eisen van afdeling 2 van dit hoofdstuk of, in voorkomend geval, de verplichtingen van hoofdstuk V, afdelingen 2 en 3, voldoet, stelt deze lidstaat de Commissie daarvan in kennis met een gedetailleerde toelichting. De Commissie beoordeelt die informatie en wijzigt de uitvoeringshandeling tot vaststelling van de betrokken gemeenschappelijke specificatie zo nodig.
(6) În cazul în care un stat membru consideră că o specificație comună nu îndeplinește în totalitate cerințele prevăzute în secțiunea 2 sau, după caz, nu respectă în totalitate obligațiile prevăzute în secțiunile 2 și 3 din capitolul V, acesta informează Comisia în acest sens, furnizând o explicație detaliată. Comisia evaluează informațiile respective și, dacă este cazul, modifică actul de punere în aplicare prin care se stabilește specificația comună în cauză.
Artikel 42
Articolul 42
Vermoeden van conformiteit met bepaalde eisen
Prezumția de conformitate cu anumite cerințe
1. AI-systemen met een hoog risico die zijn getraind en getest op data die overeenkomen met de specifieke geografische, gedragsgerelateerde, contextuele of functionele omgeving waarin zij zullen worden gebruikt, geacht te voldoen de in artikel 10, lid 4, beschreven relevante eisen.
(1) Sistemele de IA cu grad ridicat de risc care au fost antrenate și testate pe baza datelor care reflectă mediul geografic, comportamental, contextual sau funcțional specific în care sunt destinate să fie utilizate sunt considerate a respecta cerințele relevante prevăzute la articolul 10 alineatul (4).
2. AI-systemen met een hoog risico die zijn gecertificeerd of waarvoor een conformiteitsverklaring is verstrekt volgens een cyberbeveiligingsregeling krachtens Verordening (EU) 2019/881 en waarvan de referenties in het Publicatieblad van de Europese Unie zijn bekendgemaakt, worden geacht te voldoen aan de in artikel 15 van deze verordening beschreven cyberbeveiligingseisen, voor zover die eisen door het cyberbeveiligingscertificaat of de conformiteitsverklaring of delen daarvan worden bestreken.
(2) Sistemele de IA cu grad ridicat de risc care au fost certificate sau pentru care a fost emisă o declarație de conformitate în cadrul unui sistem de securitate cibernetică în temeiul Regulamentului (UE) 2019/881, iar referințele aferente au fost publicate în Jurnalul Oficial al Uniunii Europene, sunt considerate a respecta cerințele de securitate cibernetică prevăzute la articolul 15 din prezentul regulament în măsura în care certificatul de securitate cibernetică sau declarația de conformitate sau părți ale acestora vizează cerințele respective.
Artikel 43
Articolul 43
Conformiteitsbeoordeling
Evaluarea conformității
1. Voor in punt 1 van bijlage III opgesomde AI-systemen met een hoog risico kiest de aanbieder, wanneer de aanbieder bij het aantonen van de overeenstemming met de in afdeling 2 beschreven voorschriften van een AI-systeem met een hoog risico geharmoniseerde normen als bedoeld in artikel 40 of in voorkomend geval gemeenschappelijke specificaties als bedoeld in artikel 41 heeft toegepast, een van de volgende conformiteitsbeoordelingsprocedures op basis van:
(1) Pentru sistemele de IA cu grad ridicat de risc enumerate la punctul 1 din anexa III, în cazul în care, pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în secțiunea 2, furnizorul a aplicat standardele armonizate menționate la articolul 40 sau, după caz, specificațiile comune menționate la articolul 41, furnizorul optează pentru una dintre următoarele proceduri de evaluare a conformității:
a)
de in bijlage VI bedoelde interne controle, of
(a)
controlul intern, menționat în anexa VI; sau
b)
de beoordeling van het systeem voor kwaliteitsbeheer en de beoordeling van de technische documentatie, met betrokkenheid van een aangemelde instantie, als bedoeld in bijlage VII.
(b)
evaluarea sistemului de management al calității și examinarea documentației tehnice, cu implicarea unui organism notificat, menționată în anexa VII.
Bij het aantonen van de overeenstemming met de in afdeling 2 beschreven voorschriften van een AI-systeem met een hoog risico volgt de aanbieder de conformiteitsbeoordelingsprocedure van bijlage VII indien:
Pentru a demonstra conformitatea unui sistem de IA cu grad ridicat de risc cu cerințele prevăzute în secțiunea 2, furnizorul urmează procedura de evaluare a conformității prevăzută în anexa VII în următoarele cazuri:
a)
er geen geharmoniseerde normen als bedoeld in artikel 40 bestaan en er geen gemeenschappelijke specificaties als bedoeld in artikel 41 voorhanden zijn;
(a)
standardele armonizate menționate la articolul 40 nu există, iar specificațiile comune menționate la articolul 41 nu sunt disponibile;
b)
de aanbieder de geharmoniseerde norm niet of slechts gedeeltelijk heeft toegepast;
(b)
furnizorul nu a aplicat sau a aplicat doar o parte din standardul armonizat;
c)
de in punt a) bedoelde gemeenschappelijke specificaties bestaan, maar de aanbieder deze niet heeft toegepast;
(c)
specificațiile comune menționate la litera (a) există, dar furnizorul nu le-a aplicat;
d)
een of meer van de in punt a) bedoelde geharmoniseerde normen met beperkingen zijn bekendgemaakt, en alleen met betrekking tot het deel van de norm waarvoor de beperkingen gelden.
(d)
unul sau mai multe dintre standardele armonizate menționate la litera (a) au fost publicate cu o restricție și numai în partea standardului care a fost restricționată.
Ten behoeve van de in bijlage VII bedoelde conformiteitsbeoordelingsprocedure kan de aanbieder om het even welke aangemelde instantie kiezen. Wanneer het AI-systeem met een hoog risico echter is bedoeld om door rechtshandhavingsinstanties, immigratie- of asielautoriteiten of door instellingen, organen of instanties van de Unie in gebruik te worden gesteld, treedt de markttoezichtautoriteit als bedoeld in artikel 74, lid 8 of lid 9, naargelang van toepassing, als aangemelde instantie op.
În sensul procedurii de evaluare a conformității menționate în anexa VII, furnizorul poate alege oricare dintre organismele notificate. Cu toate acestea, în cazul în care sistemul de IA cu grad ridicat de risc este destinat să fie pus în funcțiune de către autoritățile de aplicare a legii, de imigrație sau de azil, sau de către instituțiile, organele, oficiile sau agențiile Uniunii, autoritatea de supraveghere a pieței menționată la articolul 74 alineatul (8) sau (9), după caz, acționează ca organism notificat.
2. Voor AI-systemen met een hoog risico als bedoeld in de punten 2 tot en met 8 van bijlage III volgen aanbieders de in bijlage VI bedoelde conformiteitsbeoordelingsprocedure op basis van interne controle, waarvoor de betrokkenheid van een aangemelde instantie niet nodig is.
(2) În cazul sistemelor de IA cu grad ridicat de risc menționate la punctele 2-8 din anexa III, furnizorii urmează procedura de evaluare a conformității bazată pe controlul intern, astfel cum se menționează în anexa VI, care nu prevede implicarea unui organism notificat.
3. Voor AI-systemen met een hoog risico die onder de in afdeling A van bijlage I vermelde harmonisatiewetgeving van de Unie vallen, volgt de aanbieder de relevante conformiteitsbeoordelingsprocedure zoals vereist volgens die rechtshandelingen. De in afdeling 2 van dit hoofdstuk beschreven voorschriften zijn van toepassing op die AI-systemen met een hoog risico en maken deel uit van die beoordeling. De punten 4.3, 4.4, 4.5 en de vijfde alinea van punt 4.6 van bijlage VII zijn eveneens van toepassing.
(3) În cazul sistemelor de IA cu grad ridicat de risc cărora li se aplică actele juridice de armonizare ale Uniunii care figurează în anexa I secțiunea A, furnizorul urmează procedura de evaluare a conformității relevantă, astfel cum se prevede în actele juridice respective. Cerințele prevăzute în secțiunea 2 din prezentul capitol se aplică acestor sisteme de IA cu grad ridicat de risc și fac parte din evaluarea respectivă. Se aplică, de asemenea, punctele 4.3, 4.4, 4.5 și punctul 4.6 al cincilea paragraf din anexa VII.
Voor die beoordeling hebben aangemelde instanties die volgens die rechtshandelingen zijn aangemeld het recht de conformiteit van de AI-systemen met een hoog risico met de in afdeling 2 beschreven voorschriften te controleren, mits de overeenstemming van die aangemelde instanties met voorschriften van artikel 31, leden 4, 10 en 11, in de context van de aanmeldingsprocedure volgens die rechtshandelingen is beoordeeld.
În scopul evaluării respective, organismele notificate care au fost notificate în temeiul respectivelor acte juridice au dreptul de a controla conformitatea sistemelor de IA cu grad ridicat de risc cu cerințele prevăzute în secțiunea 2, cu condiția ca respectarea de către organismele notificate respective a cerințelor prevăzute la articolul 31 alineatele (4), (10) și (11) să fi fost evaluată în contextul procedurii de notificare în temeiul respectivelor acte juridice.
Wanneer een in afdeling A van bijlage I vermelde rechtshandeling de productfabrikant in staat stelt zich te onttrekken aan een conformiteitsbeoordeling door een derde partij, mits die fabrikant alle geharmoniseerde normen voor alle relevante voorschriften heeft toegepast, kan de fabrikant alleen van die mogelijkheid gebruikmaken als hij ook geharmoniseerde normen of in voorkomend geval gemeenschappelijke specificaties als bedoeld in artikel 41 heeft toegepast, voor alle in afdeling 2 van dit hoofdstuk beschreven voorschriften.
În cazul în care actele juridice care figurează în anexa I secțiunea A permit fabricantului produsului să renunțe la evaluarea conformității efectuată de o parte terță, cu condiția ca fabricantul respectiv să fi aplicat toate standardele armonizate care vizează toate cerințele relevante, fabricantul respectiv poate recurge la această opțiune numai dacă a aplicat, de asemenea, standardele armonizate sau, după caz, specificațiile comune menționate la articolul 41, care vizează toate cerințele prevăzute în secțiunea 2 din prezentul capitol.
4. AI-systemen met een hoog risico die reeds aan een conformiteitsbeoordelingsprocedure zijn onderworpen, ondergaan een nieuwe conformiteitsbeoordelingsprocedure telkens wanneer zij substantieel zijn gewijzigd, ongeacht of het gewijzigde systeem bedoeld is om verder te worden gedistribueerd of door de huidige gebruiksverantwoordelijke gebruikt blijft worden.
(4) Sistemele de IA cu grad ridicat de risc care au făcut deja obiectul unei proceduri de evaluare a conformității sunt supuse la o nouă procedură de evaluare a conformității în cazul unei modificări substanțiale, indiferent dacă sistemul modificat este destinat să fie distribuit mai departe sau dacă implementatorul actual continuă să utilizeze sistemul modificat.
Voor AI-systemen met een hoog risico die doorgaan met leren na in de handel te zijn gebracht of in gebruik te zijn gesteld, vormen veranderingen van het AI-systeem met een hoog risico en de prestaties ervan die op het moment van de eerste conformiteitsbeoordeling vooraf door de aanbieder zijn bepaald en deel uitmaken van de informatie in de in punt 2, f), van bijlage IV bedoelde technische documentatie, geen substantiële wijziging.
În cazul sistemelor de IA cu grad ridicat de risc care continuă să învețe după ce au fost introduse pe piață sau puse în funcțiune, modificările aduse sistemului de IA cu grad ridicat de risc și performanței acestuia care au fost predeterminate de către furnizor la momentul evaluării inițiale a conformității și care fac parte din informațiile conținute în documentația tehnică menționată la punctul 2 litera (f) din anexa IV nu constituie o modificare substanțială.
5. De Commissie is bevoegd overeenkomstig artikel 97 gedelegeerde handelingen vast te stellen om bijlagen VI en VII te wijzigen teneinde hen te actualiseren in het licht van technologische vooruitgang.
(5) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 în scopul modificării anexelor VI și VII prin actualizarea acestora având în vedere progresele tehnice.
6. De Commissie is bevoegd overeenkomstig artikel 97 gedelegeerde handelingen vast te stellen om de leden 1 en 2 te wijzigen, teneinde AI-systemen met een hoog risico als bedoeld in de punten 2 tot en met 8 van bijlage III te onderwerpen aan de conformiteitsbeoordelingsprocedure als bedoeld in bijlage VII of delen daarvan. De Commissie stelt zulke gedelegeerde handelingen vast rekening houdend met de doeltreffendheid van de conformiteitsbeoordelingsprocedure op basis van interne controle als bedoeld in bijlage VI bij het voorkomen of minimaliseren van de risico’s voor de gezondheid en veiligheid en de bescherming van grondrechten die zulke systemen inhouden alsook met de beschikbaarheid van voldoende capaciteit en personeel onder aangemelde instanties.
(6) Comisia este împuternicită să adopte acte delegate în conformitate cu articolul 97 pentru a modifica alineatele (1) și (2) de la prezentul articol cu scopul de a supune sistemele de IA cu grad ridicat de risc menționate la punctele 2-8 din anexa III procedurii de evaluare a conformității menționate în anexa VII sau unor părți ale acesteia. Comisia adoptă astfel de acte delegate ținând seama de eficacitatea procedurii de evaluare a conformității bazate pe controlul intern menționate în anexa VI în ceea ce privește prevenirea sau reducerea la minimum a riscurilor pentru sănătate, siguranță și protecția drepturilor fundamentale pe care le prezintă astfel de sisteme, precum și de disponibilitatea capacităților și a resurselor adecvate în cadrul organismelor notificate.
Artikel 44
Articolul 44
Certificaten
Certificate
1. Door aangemelde instanties overeenkomstig bijlage VII afgegeven certificaten worden opgesteld in een taal die de desbetreffende autoriteiten in de lidstaat waar de aangemelde instantie is gevestigd, gemakkelijk kunnen begrijpen.
(1) Certificatele eliberate de organismele notificate în conformitate cu anexa VII sunt redactate într-o limbă care poate fi ușor înțeleasă de autoritățile relevante din statul membru în care este stabilit organismul notificat.
2. Certificaten zijn geldig gedurende de daarin aangegeven periode, die niet meer dan vijf jaar mag bedragen voor AI-systemen die onder bijlage I vallen, en niet meer dan vier jaar voor AI-systemen die onder bijlage III vallen. Op verzoek van de aanbieder kan de geldigheidsduur van een certificaat op grond van een herbeoordeling volgens de toepasselijke conformiteitsbeoordelingsprocedures worden verlengd met bijkomende perioden, die elk niet meer dan vijf jaar mogen bedragen voor AI-systemen die onder bijlage I vallen en niet meer dan vier jaar voor AI-systemen die onder bijlage III vallen. Aanvullingen op een certificaat blijven geldig zolang het certificaat dat zij aanvullen geldig blijft.
(2) Certificatele sunt valabile pe perioada pe care o indică, care nu depășește cinci ani pentru sistemele de IA vizate de anexa I și patru ani pentru sistemele de IA vizate de anexa III. La solicitarea furnizorului, valabilitatea unui certificat poate fi prelungită pentru perioade suplimentare, fiecare dintre acestea nedepășind cinci ani pentru sistemele de IA vizate de anexa I și patru ani pentru sistemele de IA vizate de anexa III, pe baza unei reevaluări în conformitate cu procedurile aplicabile de evaluare a conformității. Orice supliment la un certificat rămâne valabil, cu condiția ca certificatul pe care îl completează să fie valabil.
3. Indien een aangemelde instantie vaststelt dat een AI-systeem niet meer aan de in afdeling 2 beschreven voorschriften voldoet, gaat zij, rekening houdend met het evenredigheidsbeginsel, over tot schorsing of intrekking van het afgegeven certificaat of legt zij beperkingen op, tenzij de aanbieder van het systeem, met het oog op de naleving van deze voorschriften, binnen een door de aangemelde instantie vastgestelde passende termijn adequate corrigerende actie onderneemt. De aangemelde instantie geeft de redenen voor haar besluit op.
(3) În cazul în care un organism notificat constată că un sistem de IA nu mai îndeplinește cerințele prevăzute în secțiunea 2, acesta, ținând seama de principiul proporționalității, suspendă sau retrage certificatul eliberat sau impune restricții asupra acestuia, cu excepția cazului în care îndeplinirea cerințelor respective este asigurată prin măsuri corective adecvate întreprinse de furnizorul sistemului într-un termen adecvat stabilit de organismul notificat. Organismul notificat comunică motivele deciziei sale.
Er wordt voorzien in een beroepsprocedure tegen besluiten van de aangemelde instanties, ook inzake afgegeven conformiteitscertificaten.
Se pune la dispoziție o cale de atac împotriva deciziilor organismelor notificate, inclusiv privind certificatele de conformitate eliberate.
Artikel 45
Articolul 45
Informatieverplichtingen voor aangemelde instanties
Obligații de informare care revin organismelor notificate
1. Aangemelde instanties brengen de aanmeldende autoriteit op de hoogte van:
(1) Organismele notificate informează autoritatea de notificare în legătură cu:
a)
beoordelingscertificaten van technische documentatie van de Unie, aanvullingen op die certificaten en goedkeuringen voor systemen voor kwaliteitsbeheer afgegeven overeenkomstig de eisen van bijlage VII;
(a)
orice certificate de evaluare a documentației tehnice ale Uniunii, orice suplimente la certificatele respective și orice aprobări ale sistemului de management al calității eliberate în conformitate cu cerințele din anexa VII;
b)
weigering, beperking, schorsing of intrekking van een beoordelingscertificaat technische documentatie van de Unie of een goedkeuring voor systemen voor kwaliteitsbeheer afgegeven overeenkomstig de eisen van bijlage VII;
(b)
orice refuz, restricție, suspendare sau retragere a unui certificat de evaluare a documentației tehnice al Uniunii sau a unei aprobări a unui sistem de management al calității eliberată în conformitate cu cerințele din anexa VII;
c)
omstandigheden die van invloed zijn op het toepassingsgebied van of de voorwaarden voor de aanmelding;
(c)
orice circumstanță care afectează domeniul de aplicare sau condițiile notificării;
d)
verzoeken om informatie over conformiteitsbeoordelingsactiviteiten die zij van markttoezichtautoriteiten ontvangen;
(d)
orice cerere de informații pe care au primit-o de la autoritățile de supraveghere a pieței cu privire la activitățile de evaluare a conformității;
e)
op verzoek, de binnen het toepassingsgebied van hun aanmelding verrichte conformiteitsbeoordelingsactiviteiten en andere activiteiten, waaronder grensoverschrijdende activiteiten en onderaanneming.
(e)
la cerere, activitățile de evaluare a conformității realizate în limita domeniului de aplicare al notificării lor și orice altă activitate realizată, inclusiv activități transfrontaliere și subcontractare.
2. Elke aangemelde instantie brengt de andere aangemelde instanties op de hoogte van:
(2) Fiecare organism notificat informează celelalte organisme notificate cu privire la:
a)
door haar geweigerde, opgeschorte of ingetrokken goedkeuringen voor kwaliteitsbeheersystemen alsmede, op verzoek, van de door haar verleende goedkeuringen voor systemen voor kwaliteitsbeheer;
(a)
aprobări ale sistemelor de management al calității pe care le-a refuzat, suspendat sau retras și, la cerere, aprobări ale sistemelor de management al calității pe care le-a eliberat;
b)
beoordelingscertificaten van technische documentatie van de Unie of aanvullingen daarop die zij heeft geweigerd, ingetrokken, opgeschort of anderszins beperkt alsmede, op verzoek, de certificaten en/of aanvullingen daarop die zij heeft uitgegeven.
(b)
certificatele de evaluare a documentației tehnice ale Uniunii sau orice suplimente la acestea, pe care le-a refuzat, retras, suspendat sau restricționat în alt mod și, la cerere, certificatele și/sau suplimentele la acestea pe care le-a eliberat.
3. Elke aangemelde instantie verstrekt de andere aangemelde instanties die soortgelijke conformiteitsbeoordelingsactiviteiten voor dezelfde soorten AI-systemen verrichten, relevante informatie over negatieve conformiteitsbeoordelingsresultaten, en op verzoek ook over positieve conformiteitsbeoordelingsresultaten.
(3) Fiecare organism notificat furnizează celorlalte organisme notificate care îndeplinesc activități similare de evaluare a conformității, care vizează aceleași tipuri de sisteme de IA, informații relevante privind aspecte legate de rezultatele negative ale evaluărilor conformității și, la cerere, de rezultatele pozitive ale evaluărilor conformității.
4. Aanmeldende autoriteiten waarborgen dat de door hen verkregen informatie overeenkomstig artikel 78 vertrouwelijk wordt behandeld.
(4) Organismele notificate păstrează confidențialitatea informațiilor pe care le obțin, în conformitate cu articolul 78.
Artikel 46
Articolul 46
Afwijking van de conformiteitsbeoordelingsprocedure
Derogare de la procedura de evaluare a conformității
1. In afwijking van artikel 43 en op naar behoren gemotiveerd verzoek kan een markttoezichtautoriteit het in de handel brengen of het in gebruik stellen van specifieke AI-systemen met een hoog risico binnen het grondgebied van de betrokken lidstaat toelaten, om uitzonderlijke redenen van openbare veiligheid of de bescherming van het leven en de gezondheid van personen, milieubescherming of de bescherming van essentiële industriële en infrastructurele activa. De toelating geldt gedurende een beperkte periode, terwijl de nodige conformiteitsbeoordelingsprocedures worden uitgevoerd, rekening houdend met de uitzonderlijke redenen ter rechtvaardiging van de afwijking. Die procedures worden zo snel mogelijk afgerond.
(1) Prin derogare de la articolul 43 și pe baza unei cereri justificate în mod corespunzător, orice autoritate de supraveghere a pieței poate autoriza introducerea pe piață sau punerea în funcțiune a anumitor sisteme de IA cu grad ridicat de risc pe teritoriul statului membru în cauză, din motive excepționale de siguranță publică sau de protecție a vieții și sănătății persoanelor, de protecție a mediului sau de protecție a activelor industriale și de infrastructură esențiale. Autorizația respectivă se acordă pentru o perioadă limitată, cât timp procedurile necesare de evaluare a conformității sunt în desfășurare, ținând seama de motivele excepționale care justifică derogarea. Finalizarea procedurilor respective se efectuează fără întârzieri nejustificate.
2. In een naar behoren gerechtvaardigde situatie van urgentie om uitzonderlijke redenen van openbare veiligheid of in geval van een specifieke, substantiële en imminente dreiging voor het leven of de fysieke veiligheid van natuurlijke personen, kunnen rechtshandhavingsinstanties of civielebeschermingsautoriteiten een specifiek AI-systeem met een hoog risico in gebruik stellen zonder de in lid 1 bedoelde toelating, op voorwaarde dat die toelating tijdens of na het gebruik zonder onnodige vertraging wordt aangevraagd. Indien de in lid 1 bedoelde toelating wordt geweigerd, wordt het gebruik van het AI-systeem met een hoog risico met onmiddellijke ingang stopgezet en worden alle resultaten en outputs van dat gebruik onmiddellijk verwijderd.
(2) Într-o situație de urgență justificată în mod corespunzător din motive excepționale de securitate publică sau în cazul unei amenințări specifice, substanțiale și iminente la adresa vieții sau a siguranței fizice a persoanelor fizice, autoritățile de aplicare a legii sau autoritățile de protecție civilă pot pune în funcțiune un anumit sistem de IA cu grad ridicat de risc fără autorizația menționată la alineatul (1), cu condiția ca o astfel de autorizație să fi